JP2022128517A - ranging camera - Google Patents

ranging camera Download PDF

Info

Publication number
JP2022128517A
JP2022128517A JP2022108208A JP2022108208A JP2022128517A JP 2022128517 A JP2022128517 A JP 2022128517A JP 2022108208 A JP2022108208 A JP 2022108208A JP 2022108208 A JP2022108208 A JP 2022108208A JP 2022128517 A JP2022128517 A JP 2022128517A
Authority
JP
Japan
Prior art keywords
optical system
image
subject
distance
magnification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022108208A
Other languages
Japanese (ja)
Other versions
JP7288226B2 (en
Inventor
覚 須藤
Satoru Sudo
隆志 松本
Takashi Matsumoto
正人 江原
Masato Ebara
賢 安食
Masaru Ajiki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsumi Electric Co Ltd
Original Assignee
Mitsumi Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018010035A external-priority patent/JP7104296B2/en
Application filed by Mitsumi Electric Co Ltd filed Critical Mitsumi Electric Co Ltd
Publication of JP2022128517A publication Critical patent/JP2022128517A/en
Application granted granted Critical
Publication of JP7288226B2 publication Critical patent/JP7288226B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0046Movement of one or more optical elements for zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

PROBLEM TO BE SOLVED: To provide a ranging camera capable of calculating a distance to a subject without using a translation parallax between a plurality of images.
SOLUTION: A ranging camera includes: a first optical system OS1; a second optical system OS2; an imaging portion S for imaging a first subject image and a second subject image; a distance calculating portion 4 that calculates a distance to a subject 100 on the basis of the first subject image and the second subject image; a first lens drive portion AF1 for executing focus operation of the first optical system OS1; and a second lens drive portion AF2 for executing focus operation of the second optical system OS2. Changes in the magnification of the first subject image differs from changes in the magnification of the second subject image. An image magnification ratio between the first subject image and the second subject image changes according to a distance to the subject. A focal distance of the first optical system and a focal distance of the second optical system are different from each other.
SELECTED DRAWING: Figure 4
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、一般に、被写体までの距離を測定するための測距カメラに関し、より具体的には、被写体までの距離に応じた被写体像の倍率の変化が互いに異なる少なくとも2つの光学系によって形成された少なくとも2つの被写体像の像倍比に基づいて、被写体までの距離を測定する測距カメラに関する。 The present invention relates generally to a rangefinder camera for measuring the distance to an object, and more specifically to a rangefinder camera formed by at least two optical systems that differ from each other in the change in magnification of an object image according to the distance to the object. Also, the present invention relates to a distance measuring camera that measures the distance to a subject based on the image magnification ratio of at least two subject images.

近年、被写体を撮像することにより、被写体までの距離を測定する測距カメラが提案されている。このような測距カメラとしては、被写体からの光を結像するための光学系と、該光学系によって結像された被写体像を画像信号に変換するための撮像素子とを2対以上備えるステレオカメラ方式の測距カメラや、被写体に対して一定パターン(例えば、格子パターン)の光を照射するためのプロジェクターと、一定パターンの光が照射された被写体を撮像するための撮像系とを備えるパターン照射式の測距カメラが知られている(例えば、特許文献1参照)。 2. Description of the Related Art In recent years, distance measuring cameras have been proposed that measure the distance to a subject by taking an image of the subject. Such a distance measuring camera is a stereo camera having two or more pairs of an optical system for forming an image of light from an object and an image sensor for converting the object image formed by the optical system into an image signal. A pattern comprising a camera-type ranging camera, a projector for irradiating a subject with light of a certain pattern (for example, a lattice pattern), and an imaging system for imaging the subject illuminated by the light of a certain pattern An irradiation-type ranging camera is known (see, for example, Patent Document 1).

ステレオカメラ方式の測距カメラでは、光学系と撮像素子の組み合わせを2対以上用いることにより、異なる並進視差を有する複数の画像を取得し、取得した複数の画像間の並進視差に基づいて、被写体までの距離を算出する。複数の画像間の並進視差に基づいて被写体までの距離を正確に算出するためには、大きな並進視差を取得する必要がある。そのため、1つの測距カメラ内において、2つ以上の光学系をそれぞれ大きく離間して配置する必要があり、測距カメラのサイズが増大してしまう。 A stereo camera type distance measuring camera acquires a plurality of images having different translational parallaxes by using a combination of two or more pairs of an optical system and an imaging device, and based on the translational parallaxes between the acquired plurality of images, a subject is detected. Calculate the distance to In order to accurately calculate the distance to the object based on the translational parallax between a plurality of images, it is necessary to obtain a large translational parallax. Therefore, it is necessary to dispose two or more optical systems at a large distance in one rangefinder camera, which increases the size of the rangefinder camera.

パターン照射方式の測距カメラでは、被写体に対して一定パターンの光を照射し、被写体に投影された一定パターンの歪みを解析することにより被写体までの距離を測定している。そのため、パターン照射方式の測距カメラでは、被写体に対して一定パターンの光を照射するためのプロジェクターが必要となり、測距カメラの構成が大規模になってしまう。 In the pattern irradiation type ranging camera, the distance to the subject is measured by irradiating the subject with a predetermined pattern of light and analyzing the distortion of the predetermined pattern projected onto the subject. For this reason, the pattern irradiation type rangefinder camera requires a projector for irradiating the subject with light of a certain pattern, resulting in a large-scale configuration of the rangefinder camera.

特開2013-190394号公報JP 2013-190394 A

本発明は、上記従来の問題点を鑑みたものであり、その目的は、複数の画像間の並進視差を用いず、かつ、被写体への一定パターンの照射を行わずに、被写体までの距離を算出することが可能な測距カメラを提供することにある。 The present invention has been made in view of the above-mentioned conventional problems, and its object is to determine the distance to a subject without using translational parallax between a plurality of images and without illuminating the subject in a fixed pattern. To provide a distance measuring camera capable of calculating.

このような目的は、以下の(1)~(9)の本発明により達成される。
(1)被写体からの光を集光し、第1の被写体像を形成するための第1の光学系と、
前記被写体からの前記光を集光し、第2の被写体像を形成するための第2の光学系と、
前記第1の光学系によって形成された前記第1の被写体像および前記第2の光学系によって形成された前記第2の被写体像を撮像するための撮像部と、
前記撮像部によって撮像された前記第1の被写体像および前記第2の被写体像に基づいて、前記被写体までの距離を算出するための距離算出部と、
前記第1の光学系のフォーカス動作を実行するための第1のレンズ駆動部と、
前記第2の光学系のフォーカス動作を実行するための第2のレンズ駆動部と、を備え、
前記距離算出部は、前記第1の被写体像の倍率と前記第2の被写体像の倍率との像倍比に基づいて、前記被写体までの前記距離を算出し、
前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比は、前記被写体までの前記距離に応じて変化し、
前記第1の光学系および前記第2の光学系は、前記第1の光学系の焦点距離と、前記第2の光学系の焦点距離とが、互いに異なるよう構成されており、これにより、前記被写体までの前記距離に応じた前記第1の被写体像の前記倍率の変化が、前記被写体までの前記距離に応じた前記第2の被写体像の前記倍率の変化と異なるようになっていることを特徴とする測距カメラ。
Such objects are achieved by the present invention of the following (1) to (9).
(1) a first optical system for condensing light from a subject and forming a first subject image;
a second optical system for condensing the light from the subject and forming a second subject image;
an imaging unit for capturing the first subject image formed by the first optical system and the second subject image formed by the second optical system;
a distance calculation unit for calculating a distance to the subject based on the first subject image and the second subject image captured by the imaging unit;
a first lens driving unit for performing a focusing operation of the first optical system;
a second lens driving unit for executing a focusing operation of the second optical system;
The distance calculation unit calculates the distance to the subject based on an image magnification ratio between the magnification of the first subject image and the magnification of the second subject image,
the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image varies according to the distance to the subject;
The first optical system and the second optical system are configured such that the focal length of the first optical system and the focal length of the second optical system are different from each other. A change in the magnification of the first subject image according to the distance to the subject is different from a change in the magnification of the second subject image according to the distance to the subject. A rangefinder camera characterized by:

(2)前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比の値と、前記被写体までの距離との間には、一対一関係が成立している上記(1)に記載の測距カメラ。 (2) A one-to-one relationship is established between the value of the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image and the distance to the subject. The distance measuring camera according to (1) above.

(3)前記距離算出部は、少なくとも、
前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比と、
前記第1の光学系の前記焦点距離と、
前記第2の光学系の前記焦点距離と、を用いて、前記被写体までの前記距離を算出する上記(1)または(2)に記載の測距カメラ。
(3) The distance calculation unit may at least:
the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image;
the focal length of the first optical system;
The distance measuring camera according to (1) or (2) above, wherein the distance to the subject is calculated using the focal length of the second optical system.

(4)前記第1の光学系、前記第2の光学系、および前記撮像部は、前記第1のレンズ駆動部および前記第2のレンズ駆動部が前記フォーカス動作を実行していない初期状態において、無限遠にピントが合うように配置されており、
前記距離算出部は、さらに、前記初期状態における前記第1の光学系の前側主点と、前記初期状態における前記第2の光学系の前側主点との間に光軸方向の奥行視差を用いて、前記被写体までの前記距離を算出する上記(3)に記載の測距カメラ。
(4) The first optical system, the second optical system, and the image capturing section are configured to operate in an initial state in which the first lens driving section and the second lens driving section are not performing the focusing operation. , are arranged to be in focus at infinity,
The distance calculator further uses the depth parallax in the optical axis direction between the front principal point of the first optical system in the initial state and the front principal point of the second optical system in the initial state. The distance-measuring camera according to (3) above, which calculates the distance to the subject.

(5)被写体からの光を集光し、第1の被写体像を形成するための第1の光学系と、
前記被写体からの前記光を集光し、第2の被写体像を形成するための第2の光学系と、
前記第1の光学系によって形成された前記第1の被写体像および前記第2の光学系によって形成された前記第2の被写体像を撮像するための撮像部と、
前記撮像部によって撮像された前記第1の被写体像および前記第2の被写体像に基づいて、前記被写体までの距離を算出するための距離算出部と、を備え、
前記第1の被写体像の倍率と前記第2の被写体像の倍率との像倍比は、前記被写体までの前記距離に応じて変化し、
前記距離算出部は、少なくとも、
前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比と、
前記第1の光学系の焦点距離と、
前記第2の光学系の焦点距離と、を用いて、前記被写体までの前記距離を算出することを特徴とする測距カメラ。
(5) a first optical system for condensing light from a subject and forming a first subject image;
a second optical system for condensing the light from the subject and forming a second subject image;
an imaging unit for capturing the first subject image formed by the first optical system and the second subject image formed by the second optical system;
a distance calculation unit for calculating a distance to the subject based on the first subject image and the second subject image captured by the imaging unit;
an image magnification ratio between the magnification of the first subject image and the magnification of the second subject image varies according to the distance to the subject;
The distance calculation unit is configured to at least
the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image;
a focal length of the first optical system;
and a focal length of the second optical system to calculate the distance to the subject.

(6)前記第1の光学系の前記焦点距離および前記第2の光学系の前記焦点距離は、互いに異なる上記(5)に記載の測距カメラ。 (6) The distance measuring camera according to (5) above, wherein the focal length of the first optical system and the focal length of the second optical system are different from each other.

(7)前記第1の光学系のフォーカス動作を実行するための第1のレンズ駆動部と、前記第2の光学系のフォーカス動作を実行するための第2のレンズ駆動部と、をさらに備え、
前記第1の光学系、前記第2の光学系、および前記撮像部は、前記第1のレンズ駆動部および前記第2のレンズ駆動部が前記フォーカス動作を実行していない初期状態において、無限遠にピントが合うように配置されており、
前記距離算出部は、さらに、前記初期状態における前記第1の光学系の前側主点と、前記初期状態における前記第2の光学系の前側主点との間に光軸方向の奥行視差を用いて、前記被写体までの前記距離を算出する上記(5)または(6)に記載の測距カメラ。
(7) further comprising: a first lens driving section for executing a focusing operation of the first optical system; and a second lens driving section for executing a focusing operation of the second optical system. ,
The first optical system, the second optical system, and the imaging section are configured to be at infinity in an initial state in which the first lens driving section and the second lens driving section are not performing the focusing operation. It is arranged so that the focus is on the
The distance calculator further uses the depth parallax in the optical axis direction between the front principal point of the first optical system in the initial state and the front principal point of the second optical system in the initial state. The distance measuring camera according to (5) or (6) above, which calculates the distance to the subject by

(8)前記距離算出部は、下記式(1)または(2)を用いて、前記被写体までの前記距離を算出する上記(7)に記載の測距カメラ。

Figure 2022128517000002
ここで、aは、前記被写体までの前記距離であり、MRは、前記像倍比であり、fは、前記第1の光学系の前記焦点距離であり、fは、前記第2の光学系の前記焦点距離であり、Dは、前記初期状態における前記第1の光学系の前記前側主点と、前記初期状態における前記第2の光学系の前記前側主点との間の前記光軸方向の前記奥行視差である。 (8) The distance-measuring camera according to (7) above, wherein the distance calculator calculates the distance to the subject using the following equation (1) or (2).
Figure 2022128517000002
Here, a is the distance to the subject, MR is the image magnification ratio, f1 is the focal length of the first optical system, and f2 is the second is the focal length of the optical system, and D is the light between the front principal point of the first optical system in the initial state and the front principal point of the second optical system in the initial state It is the depth parallax in the axial direction.

(9)前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比の値と、前記被写体までの距離との間には、一対一関係が成立している上記(5)ないし(8)のいずれかに記載の測距カメラ。 (9) A one-to-one relationship is established between the value of the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image and the distance to the subject. The distance measuring camera according to any one of (5) to (8) above.

本発明の測距カメラでは、被写体までの距離に応じた被写体像の倍率の変化が互いに異なるよう構成された2つの光学系を用い、該2つの光学系によってそれぞれ形成された2つの被写体像の像倍比(倍率の比)に基づいて、被写体までの距離を測定することができる。そのため、本発明の測距カメラでは、従来の複数の画像間の並進視差を用いたステレオカメラ方式の測距カメラと異なり、大きな並進視差を確保する必要がないため、2つの光学系を近接して配置しても、被写体までの距離を正確に算出することができる。これにより、従来のステレオカメラ方式の測距カメラと比較して、測距カメラの小型化を実現することができる。また、本発明によれば、並進視差を考慮して測距カメラを設計する必要がなくなるため、測距カメラの設計の自由度を増大させることができる。 The distance measuring camera of the present invention uses two optical systems configured so that the change in the magnification of the subject image according to the distance to the subject is different from each other. Based on the image magnification ratio (magnification ratio), the distance to the object can be measured. Therefore, in the distance measuring camera of the present invention, unlike conventional stereo camera type distance measuring cameras that use translational parallax between a plurality of images, there is no need to ensure a large translational parallax. The distance to the object can be calculated accurately even if the object is placed in the same position. As a result, it is possible to reduce the size of the distance measuring camera as compared with conventional stereo camera type distance measuring cameras. Moreover, according to the present invention, since it is not necessary to design a ranging camera in consideration of translational parallax, the degree of freedom in designing a ranging camera can be increased.

また、本発明の測距カメラでは、従来のパターン照射方式の測距カメラと異なり、一定パターンの光を被写体に照射するプロジェクター等の特殊な光源を用いる必要がない。そのため、測距カメラのシステム構成をシンプルにすることができる。これにより、従来のパターン照射方式の測距カメラと比較して、測距カメラの小型化、低消費電力化、および低コスト化を実現することができる。 Further, unlike the conventional pattern irradiation type range finding camera, the range finding camera of the present invention does not need to use a special light source such as a projector that irradiates a subject with light of a predetermined pattern. Therefore, the system configuration of the ranging camera can be simplified. As a result, it is possible to reduce the size, power consumption, and cost of the ranging camera as compared with the conventional ranging camera of the pattern irradiation method.

本発明の測距カメラの測距原理を説明するための図である。FIG. 4 is a diagram for explaining the distance measurement principle of the distance measurement camera of the present invention; 図1に示す第1の光学系によって形成される第1の被写体像の倍率と、図1に示す第2の光学系によって形成される第2の被写体像の倍率との像倍比が被写体までの距離に応じて変化することを説明するためのグラフである。The image magnification ratio between the magnification of the first subject image formed by the first optical system shown in FIG. 1 and the magnification of the second subject image formed by the second optical system shown in FIG. is a graph for explaining that it changes according to the distance of . 第1の被写体像の倍率と第2の被写体像の倍率との像倍比が、被写体までの距離に応じて変化しないケースを説明するためのグラフである。7 is a graph for explaining a case where the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image does not change according to the distance to the subject; 本発明の第1実施形態に係る測距カメラを概略的に示すブロック図である。1 is a block diagram schematically showing a ranging camera according to a first embodiment of the invention; FIG. 図4に示す第1の光学系と第2の光学系の構成例を概略的に示す図である。5 is a diagram schematically showing a configuration example of a first optical system and a second optical system shown in FIG. 4; FIG. 本発明の第2実施形態に係る測距カメラを概略的に示すブロック図である。FIG. 4 is a block diagram schematically showing a distance measuring camera according to a second embodiment of the present invention; FIG. 本発明の第3実施形態に係る測距カメラを概略的に示すブロック図である。FIG. 11 is a block diagram schematically showing a ranging camera according to a third embodiment of the present invention; 本発明の第4実施形態に係る測距カメラを概略的に示すブロック図である。FIG. 12 is a block diagram schematically showing a distance measuring camera according to a fourth embodiment of the present invention; FIG. 本発明の第5実施形態に係る測距カメラを概略的に示すブロック図である。FIG. 11 is a block diagram schematically showing a distance measuring camera according to a fifth embodiment of the present invention; 本発明の第6実施形態に係る測距カメラを概略的に示すブロック図である。FIG. 11 is a block diagram schematically showing a distance measuring camera according to a sixth embodiment of the present invention; 本発明の第7実施形態に係る測距カメラを概略的に示すブロック図である。FIG. 12 is a block diagram schematically showing a ranging camera according to a seventh embodiment of the present invention; 本発明の第8実施形態に係る測距カメラを概略的に示すブロック図である。FIG. 20 is a block diagram schematically showing a distance measuring camera according to an eighth embodiment of the present invention; 本発明の測距カメラによって実行される測距方法を説明するためのフローチャートである。4 is a flow chart for explaining a ranging method executed by the ranging camera of the present invention;

最初に、本発明の測距カメラにおいて用いられている、被写体までの距離を算出するための原理について説明する。 First, the principle for calculating the distance to the subject, which is used in the distance measuring camera of the present invention, will be described.

よく知られているように、光学系によって形成される被写体像の倍率mは、光学系の前側主点(前側主面)から被写体までの距離(被写体距離)a、光学系の後側主点(後側主面)から被写体像の結像位置までの距離b、および光学系の焦点距離fによって、下記式(1)および(2)によって算出することができる。 As is well known, the magnification m of a subject image formed by an optical system is determined by the distance (object distance) a from the front principal point (front principal plane) of the optical system to the subject, and the rear principal point of the optical system It can be calculated by the following equations (1) and (2) using the distance b from (the rear principal surface) to the imaging position of the subject image and the focal length f of the optical system.

Figure 2022128517000003
Figure 2022128517000003

Figure 2022128517000004
Figure 2022128517000004

被写体像の結像位置に撮像素子の撮像面がある場合(すなわち、ベストピントの場合)、上記式(2)から明らかなように、光学系によって撮像素子の撮像面上に形成される被写体像の倍率mは、光学系の前側主点から被写体までの距離aと、光学系の焦点距離fとの関数である。光学系の焦点距離fを一定とした場合、被写体像の倍率mは、被写体までの距離aに応じて変化することになる。 When the imaging plane of the imaging element is at the imaging position of the subject image (that is, in the case of best focus), as is clear from the above equation (2), the subject image formed on the imaging plane of the imaging element by the optical system is a function of the distance a from the front principal point of the optical system to the subject and the focal length f of the optical system. When the focal length f of the optical system is fixed, the magnification m of the subject image changes according to the distance a to the subject.

ここで、図1に示すように、同じ被写体100を、2つの撮像系IS1、IS2を用いて撮像する場合を想定する。第1の撮像系IS1は、被写体100からの光を集光し、第1の被写体像を形成する第1の光学系OS1と、第1の光学系OS1を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)を駆動することにより、第1の光学系OS1のフォーカス動作(または、オートフォーカス動作)を実行するための第1のレンズ駆動部AF1と、第1の光学系OS1によって形成された第1の被写体像を撮像するための第1の撮像素子S1とを備えている。第2の撮像系IS2は、被写体100からの光を集光し、第2の被写体像を形成する第2の光学系OS2と、第2の光学系OS2を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)を駆動することにより、第2の光学系OS2のフォーカス動作(または、オートフォーカス動作)を実現するための第2のレンズ駆動部AF2と、第2の光学系OS2によって形成された第2の被写体像を撮像するための第2の撮像素子S2とを備えている。また、図1から明らかなように、第1の撮像素子S1の第1の光学系OS1の光軸と、第2の撮像素子S2の第2の光学系OS2の光軸は、平行であるが、一致していない。なお、図示の形態では、説明の簡略化のため、、第1の光学系OS1は、第1の光学系OS1の前側主点および後側主点が、第1の光学系OS1の中心位置にあるものとして概略的に示されており、同様に、第2の光学系OS2は、第2の光学系OS2の前側主点および後側主点が、第2の光学系OS2の中心位置にあるものとして概略的に示されている。 Here, as shown in FIG. 1, it is assumed that the same subject 100 is imaged using two imaging systems IS1 and IS2. The first imaging system IS1 includes a first optical system OS1 that collects light from the subject 100 to form a first subject image, and at least one lens (for example, , focus lens) to perform the focus operation (or autofocus operation) of the first optical system OS1, and the first optical system OS1. and a first image sensor S1 for capturing a first subject image. The second imaging system IS2 includes a second optical system OS2 that collects light from the subject 100 and forms a second subject image, and at least one lens (for example, , focus lens) to realize the focus operation (or autofocus operation) of the second optical system OS2, and the second optical system OS2. and a second image sensor S2 for capturing a second subject image. Also, as is clear from FIG. 1, the optical axis of the first optical system OS1 of the first image sensor S1 and the optical axis of the second optical system OS2 of the second image sensor S2 are parallel. , does not match. In the illustrated embodiment, for simplification of explanation, the first optical system OS1 is arranged such that the front principal point and the rear principal point of the first optical system OS1 are at the center position of the first optical system OS1. Similarly, the second optical system OS2 is such that the front principal point and the rear principal point of the second optical system OS2 are at the center position of the second optical system OS2. is shown schematically as

第1の光学系OS1および第2の光学系OS2は、それぞれ異なる焦点距離f、fを有するよう構成されている。また、第1の光学系OS1および第1の撮像素子S1は、第1のレンズ駆動部AF1が第1の光学系OS1を構成するレンズの少なくとも1つを駆動する(繰り出す)ことによるフォーカス動作を実行していない初期状態において、無限遠にピントが合うように配置されている。すなわち、図1中において、第1の光学系OS1が点線で表されている初期状態において、第1の光学系OS1の後側主点から、第1の撮像素子S1の撮像面までの距離は、第1の光学系OS1の焦点距離fに等しい。 The first optical system OS1 and the second optical system OS2 are configured to have different focal lengths f 1 and f 2 , respectively. Further, the first optical system OS1 and the first imaging element S1 perform a focusing operation by driving (extending) at least one of the lenses that constitute the first optical system OS1 by the first lens driving unit AF1. In the initial state when not executed, it is arranged so that the focus is at infinity. That is, in FIG. 1, in the initial state where the first optical system OS1 is represented by a dotted line, the distance from the rear principal point of the first optical system OS1 to the imaging surface of the first imaging element S1 is , equal to the focal length f1 of the first optical system OS1.

同様に、第2の光学系OS2および第2の撮像素子S2は、第2のレンズ駆動部AF2が第2の光学系OS2を構成するレンズの少なくとも1つを駆動する(繰り出す)ことによるフォーカス動作を実行していない初期状態において、無限遠にピントが合うように配置されている。すなわち、図1中において、第2の光学系OS2が点線で表されている初期状態において、第2の光学系OS2から、第2の撮像素子S2の撮像面までの距離は、第2の光学系OS2の焦点距離fに等しい。 Similarly, the second optical system OS2 and the second imaging device S2 perform a focus operation by driving (extending) at least one of the lenses that constitute the second optical system OS2 by the second lens driving unit AF2. In the initial state before executing That is, in FIG. 1, in the initial state where the second optical system OS2 is represented by a dotted line, the distance from the second optical system OS2 to the imaging surface of the second imaging element S2 is the second optical system OS2. It is equal to the focal length f2 of system OS2 .

また、第1の光学系OS1および第2の光学系OS2は、初期状態における第1の撮像系IS1の第1の光学系OS1の前側主点と、初期状態における第2の撮像系IS2の第2の光学系OS2の前側主点との間に、光軸方向の奥行視差Dが存在するように配置されている。 Also, the first optical system OS1 and the second optical system OS2 are the front principal point of the first optical system OS1 of the first imaging system IS1 in the initial state and the second principal point of the second imaging system IS2 in the initial state. 2 and the front principal point of the optical system OS2, there is a depth parallax D in the optical axis direction.

第1の撮像系IS1により被写体100を撮像する際に、任意の距離に被写体100が位置する場合、初期状態では被写体100にピントが合っていないため(デフォーカスが存在するため)、第1のレンズ駆動部AF1により、第1の光学系OS1のフォーカス動作が実行される。この際、第1のレンズ駆動部AF1により、第1の光学系OS1を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)が繰り出され、第1の光学系OS1の前側主点および後側主点の位置が変化する。ここで、フォーカス動作による第1の光学系OS1の前側主点および後側主点のシフト量をΔbとする。また、フォーカス動作後の、第1の光学系OS1の前側主点から被写体100までの距離をaとする。 When subject 100 is positioned at an arbitrary distance when subject 100 is imaged by first imaging system IS1, subject 100 is not in focus in the initial state (because defocus exists). A focus operation of the first optical system OS1 is performed by the lens driving unit AF1. At this time, at least one lens (for example, a focus lens) constituting the first optical system OS1 is extended by the first lens driving unit AF1, and the front principal point and the rear principal point of the first optical system OS1 are moved. The position of the point changes. Here, it is assumed that the amount of shift of the front principal point and the rear principal point of the first optical system OS1 due to the focusing operation is Δb1 . Let a be the distance from the front principal point of the first optical system OS1 to the object 100 after the focus operation.

同様に、第2の撮像系IS2により被写体100を撮像する際に、任意の距離に被写体100が位置する場合、初期状態では被写体100にピントが合っていないため(デフォーカスが存在するため)、第2のレンズ駆動部AF2により、第2の光学系OS2のフォーカス動作が実行される。この際、第2のレンズ駆動部AF2により、第2の光学系OS2を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)が繰り出され、第2の光学系OS2の前側主点および後側主点の位置が変化する。フォーカス動作による第2の光学系OS2の前側主点および後側主点のシフト量をΔbとする。また、フォーカス動作後の、第2の光学系OS2の前側主点から被写体100までの距離をAとする。 Similarly, when subject 100 is imaged by second imaging system IS2, if subject 100 is positioned at an arbitrary distance, subject 100 is not in focus in the initial state (because defocus exists). A focus operation of the second optical system OS2 is performed by the second lens driving unit AF2. At this time, at least one lens (for example, a focus lens) constituting the second optical system OS2 is extended by the second lens driving unit AF2, and the front principal point and the rear principal point of the second optical system OS2 are moved. The position of the point changes. Let Δb2 be the shift amount of the front principal point and the rear principal point of the second optical system OS2 due to the focusing operation. Also, let A be the distance from the front principal point of the second optical system OS2 to the object 100 after the focus operation.

ここで、図1から明らかなように、第2の光学系OS2の前側主点から被写体100までの距離Aは、第1の光学系OS1の前側主点から被写体100までの距離aを用いて、下記式(3)で表すことができる。 Here, as is clear from FIG. 1, the distance A from the front principal point of the second optical system OS2 to the subject 100 is calculated using the distance a from the front principal point of the first optical system OS1 to the subject 100. , can be expressed by the following formula (3).

Figure 2022128517000005
Figure 2022128517000005

ここで、第1の光学系OS1の前側主点から距離aだけ離れて位置する被写体100にピントを合わせている状態において、第1の光学系OS1の後側主点から第1の撮像素子S1の撮像面までの距離bは、レンズの公式から、1/f-1/aに等しくなる。そのため、第1の光学系OS1の前側主点および後側主点のシフト量Δbは、距離bと、無限遠にピントを合わせている状態の第1の光学系OS1の後側主点から第1の撮像素子S1の撮像面までの距離(すなわち、第1の光学系OS1の焦点距離f)との差により、下記式(4)で表すことができる。 Here, in a state in which the object 100 located at a distance a from the front principal point of the first optical system OS1 is in focus, is equal to 1/f 1 −1 /a from the lens formula. Therefore, the shift amount Δb 1 of the front principal point and the rear principal point of the first optical system OS 1 is determined by the distance b 1 and the rear principal point of the first optical system OS 1 in focus at infinity to the imaging surface of the first imaging element S1 (that is, the focal length f 1 of the first optical system OS1) can be expressed by the following equation (4).

Figure 2022128517000006
Figure 2022128517000006

同様に、第2の光学系OS2の前側主点から距離Aだけ離れて位置する被写体100にピントを合わせている状態において、第2の光学系OS2の後側主点から第2の撮像素子S2の撮像面までの距離bは、レンズの公式から、1/f-1/Aに等しくなる。そのため、第2の光学系OS2の前側主点および後側主点のシフト量Δbは、距離bと、無限遠にピントを合わせている状態の第2の光学系OS2の後側主点から第2の撮像素子S2の撮像面までの距離(すなわち、第2の光学系OS2の焦点距離f)との差により、下記式(5)で表すことができる。 Similarly, in a state in which the object 100 located at a distance A from the front principal point of the second optical system OS2 is in focus, is equal to 1/f 2 −1 /A from the lens formula. Therefore, the shift amount Δb2 of the front principal point and the rear principal point of the second optical system OS2 is the distance b2 and the rear principal point to the imaging surface of the second imaging element S2 (that is, the focal length f 2 of the second optical system OS2), the following equation (5) can be obtained.

Figure 2022128517000007
Figure 2022128517000007

また、第1の光学系OS1により第1の撮像素子S1の撮像面上に形成される第1の被写体像の倍率mおよび第2の光学系OS2により第2の撮像素子S2の撮像面上に形成される第2の被写体像の倍率mは、上記式(2)を用いて、それぞれ、下記式(6)および(7)で表すことができる。 Further, the magnification m1 of the first subject image formed on the imaging surface of the first imaging element S1 by the first optical system OS1 and the magnification m1 on the imaging surface of the second imaging element S2 by the second optical system OS2 The magnification m 2 of the second object image formed in can be expressed by the following equations (6) and (7), respectively, using the above equation (2).

Figure 2022128517000008
Figure 2022128517000008

Figure 2022128517000009
Figure 2022128517000009

したがって、第1の光学系OS1によって第1の撮像素子S1の撮像面上に形成される第1の被写体像の倍率mと、第2の光学系OS2によって第2の撮像素子S2の撮像面上に形成される第2の被写体像の倍率mとの像倍比MRは、上記式(6)および(7)から、下記式(8)で表すことができる。 Therefore, the magnification m1 of the first subject image formed on the imaging surface of the first imaging element S1 by the first optical system OS1 and the imaging surface of the second imaging element S2 by the second optical system OS2 The image magnification ratio MR to the magnification m2 of the second object image formed above can be expressed by the following equation (8) from the above equations (6) and (7).

Figure 2022128517000010
Figure 2022128517000010

また、上記式(3)および(5)により、Δbについてまとめると、下記式(9)のようなΔbについての二次方程式を得ることができる。 Also, by summarizing Δb2 from the above equations (3) and (5), it is possible to obtain a quadratic equation for Δb2 such as the following equation (9).

Figure 2022128517000011
Figure 2022128517000011

上記式(9)中では、式の簡略化のため、X=a+D+Δbが用いられている。Xは、上記式(4)を用いて、下記式(10)で表すことができる。また、下記式(10)中のPは、f-Dである。 In the above equation (9), X=a+D+ Δb1 is used for simplification of the equation. X can be represented by the following formula (10) using the above formula (4). Also, P in the following formula (10) is f 1 -D.

Figure 2022128517000012
Figure 2022128517000012

上記式(9)のΔbについての二次方程式を解くと、下記式(11)を得ることができる。 The following equation (11) can be obtained by solving the quadratic equation for Δb2 in the above equation (9).

Figure 2022128517000013
Figure 2022128517000013

Xに関する上記式(10)およびΔbに関する上記式(11)を用いて、Aに関する上記式(3)を変形すると、下記式(12)を得ることができる。 By transforming the above equation (3) for A using the above equation (10) for X and the above equation (11) for Δb2 , the following equation (12) can be obtained.

Figure 2022128517000014
Figure 2022128517000014

像倍比MRに関する上記式(8)に、Aに関する上記式(12)を代入して、像倍比MRを簡略化すると、下記式(13)が得られる。また、下記式(13)中のKは、f/fである。 By substituting the above equation (12) for A into the above equation (8) for the image magnification ratio MR to simplify the image magnification ratio MR, the following equation (13) is obtained. Also, K in the following formula (13) is f 2 /f 1 .

Figure 2022128517000015
Figure 2022128517000015

像倍比MRに関する上記式(13)に、Xに関する上記式(10)を代入およびK=f/fを用いることにより、距離aについて整理すると、下記式(14)で表される二次方程式が得られる。また、下記式(14)中のLは、2f/(MR・f)である。 By substituting the above equation (10) regarding X into the above equation (13) regarding the image magnification ratio MR and using K=f 2 /f 1 , the distance a can be rearranged to obtain the two equations represented by the following equation (14). The following equation is obtained. Also, L in the following formula (14) is 2f 2 /(MR·f 1 ).

Figure 2022128517000016
Figure 2022128517000016

上記式(14)の二次方程式を解き、上記のP=f-D、および、L=2f/(MR・f)の関係を用いると、下記一般式(15)および(16)で表される距離aについての2つの解が得られる。 Solving the quadratic equation of the above formula (14) and using the above relationships of P=f 1 −D and L=2f 2 /(MR·f 1 ) yields the following general formulas (15) and (16) Two solutions are obtained for the distance a represented by .

Figure 2022128517000017
Figure 2022128517000017

Figure 2022128517000018
Figure 2022128517000018

上記一般式(15)および(16)によって表される距離aについての2つの解のうち、いずれの解が距離aとして適当であるかは、第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとの間の関係に応じて変化する。すなわち、以下の(1)~(3)の条件分けに基づいて、上記一般式(15)および(16)によって表される2つの解のうち、いずれの解が距離aとして適当であるかが判断される。 Which of the two solutions for the distance a represented by the above general formulas (15) and (16) is appropriate for the distance a depends on the focal length f1 of the first optical system OS1 and the first 2 and the focal length f2 of the optical system OS2. That is, based on the following conditions (1) to (3), it is determined which of the two solutions represented by the general formulas (15) and (16) is appropriate for the distance a. be judged.

(1)f≦fの場合
第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとの間の関係が、f≦fである場合、上記一般式(15)によって表される解が距離aとして適当となる。
(1) When f 2 ≤ f 1 When the relationship between the focal length f 1 of the first optical system OS1 and the focal length f 2 of the second optical system OS2 satisfies f 2 ≤ f 1 , the above The solution represented by general formula (15) is suitable as the distance a.

(2)f≧f+Dの場合
第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとの間の関係が、f≧f+Dである場合、上記一般式(16)によって表される解が距離aとして適当となる。
(2) When f 2 ≧f 1 +D When the relationship between the focal length f 1 of the first optical system OS1 and the focal length f 2 of the second optical system OS2 satisfies f 2 ≧f 1 +D , the solution represented by the above general formula (16) is appropriate as the distance a.

(3)f<f<f+Dの場合
第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとの間の関係が、f<f<f+Dである場合には、さらなる条件分けが必要となる。すなわち、f<f<f+Dの条件が満たされる場合、さらに、以下の(3-1)~(3-3)の条件分けに基づいて、上記一般式(15)および(16)によって表される2つの解のうち、いずれの解が距離aとして適当であるかが変化する。
(3) When f 1 <f 2 <f 1 +D The relationship between the focal length f 1 of the first optical system OS1 and the focal length f 2 of the second optical system OS2 is f 1 <f 2 < If f 1 +D, further conditioning is required. That is, when the condition of f 1 <f 2 <f 1 +D is satisfied, the above general formulas (15) and (16) are further based on the following conditions (3-1) to (3-3): Which of the two solutions represented by is appropriate for the distance a changes.

(3-1)L-2L≦0の場合
上記式(14)のaの項の係数であるL-2Lが0以下の場合、上記一般式(16)によって表される解が距離aとして適当となる。
(3-1) When L 2 −2L≦0 When L 2 −2L, which is the coefficient of the term a 2 in the above formula (14), is 0 or less, the solution represented by the above general formula (16) is the distance It is suitable as a.

一方、上記式(14)のaの項の係数であるL-2Lが0より大きい場合(L-2L>0の場合)、距離aの関数であり、上記式(14)によって表される2次曲線の軸の位置g(a)の微分値g´(a)に応じて、上記一般式(15)および(16)によって表される2つの解のうち、いずれの解が距離aとして適当であるかが変化する。なお、上記式(14)によって表される2次曲線の軸の位置g(a)は、下記式(17)で表される。 On the other hand, when L 2 −2L, which is the coefficient of the term a 2 in the above formula (14), is greater than 0 (when L 2 −2L>0), it is a function of the distance a and is expressed by the above formula (14). Depending on the differential value g'(a) of the position g(a) of the axis of the quadratic curve, which one of the two solutions represented by the above general formulas (15) and (16) is the distance Whether or not it is suitable as a changes. The position g(a) of the axis of the quadratic curve represented by the above equation (14) is represented by the following equation (17).

Figure 2022128517000019
Figure 2022128517000019

(3-2)L-2L>0、かつ、g´(a)≦0の場合
上記式(14)のaの項の係数であるL-2Lが0より大きく、かつ、上記式(14)によって表される2次曲線の軸の位置g(a)の微分値g´(a)が0以下の場合、上記一般式(16)によって表される解が距離aとして適当となる。
(3-2) When L 2 -2L>0 and g′(a)≦0 L 2 -2L, which is the coefficient of the term a 2 in the above formula (14), is greater than 0, and the above formula When the differential value g'(a) of the axis position g(a) of the quadratic curve represented by (14) is 0 or less, the solution represented by the above general formula (16) is appropriate as the distance a. .

(3-3)L-2L>0、かつ、g´(a)>0の場合
上記式(14)のaの項の係数であるL-2Lが0より大きく、かつ、上記式(14)によって表される2次曲線の軸の位置g(a)の微分値g´(a)が0より大きい場合、上記一般式(15)によって表される解が距離aとして適当となる。
(3-3) When L 2 -2L>0 and g′(a)>0 L 2 -2L, which is the coefficient of the term a 2 in the above formula (14), is greater than 0, and the above formula When the differential value g'(a) of the axis position g(a) of the quadratic curve represented by (14) is greater than 0, the solution represented by the above general formula (15) is appropriate as the distance a. .

上記一般式(15)および(16)内において、第1の光学系OS1の焦点距離f、第2の光学系OS2の焦点距離f、および初期状態における第1の光学系OS1の前側主点と、初期状態における第2の光学系OS2の前側主点との間の奥行視差Dは、第1の光学系OS1および第2の光学系OS2を構成および配置する際に決定される固定値である。そのため、像倍比MRを得ることができれば、上述の条件分けに従い、上記一般式(15)または(16)を用いることにより、第1の光学系OS1の前側主点から被写体100までの距離aを一意に算出することができる。 In the above general formulas (15) and (16), the focal length f 1 of the first optical system OS1, the focal length f 2 of the second optical system OS2, and the front principal distance f 2 of the first optical system OS1 in the initial state. The depth parallax D between the point and the front principal point of the second optical system OS2 in the initial state is a fixed value determined when constructing and arranging the first optical system OS1 and the second optical system OS2. is. Therefore, if the image magnification ratio MR can be obtained, the distance a can be uniquely calculated.

図2には、上記一般式(15)または(16)に基づいて算出された、第1の光学系OS1によって第1の撮像素子S1の撮像面上に形成される第1の被写体像の倍率mと、第2の光学系OS2によって第2の撮像素子S2の撮像面上に形成される第2の被写体像の倍率mとの像倍比MRと、被写体100までの距離aとの関係の1例が示されている。図2から明らかなように、像倍比MRの値から、被写体100までの距離aを特定することができる。 FIG. 2 shows the magnification of the first subject image formed on the imaging surface of the first image sensor S1 by the first optical system OS1, calculated based on the above general formula (15) or (16). The image magnification ratio MR between m1 and the magnification m2 of the second object image formed on the imaging surface of the second image sensor S2 by the second optical system OS2, and the distance a to the object 100 An example relationship is shown. As is clear from FIG. 2, the distance a to the subject 100 can be specified from the value of the image magnification ratio MR.

一方、像倍比MRは、下記式(18)によって、算出することができる。下記式(18)中において、szは、被写体100の実際のサイズ(高さまたは幅)、Yは、第1の光学系OS1によって第1の撮像素子S1の撮像面上に形成される第1の被写体像のサイズ(像高または像幅)、Yは、第2の光学系OS2によって第2の撮像素子S2の撮像面上に形成される第2の被写体像のサイズ(像高または像幅)である。 On the other hand, the image magnification ratio MR can be calculated by the following formula (18). In the following formula (18), sz is the actual size (height or width) of the subject 100, and Y1 is the first image formed on the imaging surface of the first imaging element S1 by the first optical system OS1. 1 is the size (image height or image width) of the subject image, and Y 2 is the size (image height or image width) of the second subject image formed on the imaging surface of the second image sensor S2 by the second optical system OS2. image width).

Figure 2022128517000020
Figure 2022128517000020

第1の被写体像のサイズYおよび第2の被写体像のサイズYは、第1の撮像素子S1および第2の撮像素子S2が第1の被写体像および第2の被写体像を撮像することにより取得される、第1の被写体像の画像信号および第2の被写体像の画像信号から算出することができる。そのため、実際に被写体100を第1の撮像系IS1および第2の撮像系IS2を用いて撮像することにより得られた第1の被写体像の画像信号および第2の被写体像の画像信号から、第1の被写体像のサイズYおよび第2の被写体像のサイズYを実測し、それに基づいて、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MRを得ることができる。 The size Y1 of the first subject image and the size Y2 of the second subject image are determined by the fact that the first image sensor S1 and the second image sensor S2 capture the first subject image and the second subject image. can be calculated from the image signal of the first subject image and the image signal of the second subject image obtained by . Therefore, from the image signal of the first subject image and the image signal of the second subject image obtained by actually imaging the subject 100 using the first imaging system IS1 and the second imaging system IS2, the second The size Y1 of the first subject image and the size Y2 of the second subject image are actually measured, and based on this, the image magnification ratio between the magnification m1 of the first subject image and the magnification m2 of the second subject image MR can be obtained.

本発明の測距カメラは、上述の原理により、実測される第1の被写体像のサイズYおよび第2の被写体像のサイズYに基づいて、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MRを算出し、さらに、算出した像倍比MRを用いて、第1の光学系OS1の前側主点から被写体100までの距離aを算出する。 According to the principle described above, the distance measuring camera of the present invention determines the magnification m 1 of the first object image and the size Y 2 of the second object image based on the actually measured size Y 1 of the first object image and size Y 2 of the second object image. 2 , and furthermore, using the calculated image magnification ratio MR, the distance a from the front principal point of the first optical system OS1 to the subject 100 is calculated. .

なお、像倍比MRに関する上記式(13)から明らかなように、第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fが等しく(f=f=f)、かつ、初期状態における第1の光学系OS1の前側主点と、初期状態における第2の光学系OS2の前側主点との間に奥行視差Dが存在しない場合(D=0、すなわち、a=A)には、像倍比MRが距離aの関数として成立せず、定数となる。この場合、図3に示すように、被写体100までの距離aに応じた第1の被写体像の倍率mの変化が、被写体100までの距離aに応じた第2の被写体像の倍率mの変化と同一になってしまい、像倍比MRに基づいて被写体100までの距離aを算出することが不可能となる。 As is clear from the above equation (13) regarding the image magnification ratio MR, the focal length f1 of the first optical system OS1 and the focal length f2 of the second optical system OS2 are equal (f1=f2 = f) and when there is no depth parallax D between the front principal point of the first optical system OS1 in the initial state and the front principal point of the second optical system OS2 in the initial state (D=0, i.e. , a=A), the image magnification ratio MR does not hold as a function of the distance a and is a constant. In this case, as shown in FIG. 3, the change in the magnification m1 of the first object image according to the distance a to the object 100 changes the magnification m2 of the second object image according to the distance a to the object 100. , and it becomes impossible to calculate the distance a to the subject 100 based on the image magnification ratio MR.

したがって、本発明の測距カメラでは、以下の2つの条件の少なくとも1つが満たされるよう、第1の光学系OS1および第2の光学系OS2が構成および配置され、これにより、被写体100までの距離aに応じた第1の被写体像の倍率mの変化が、被写体100までの距離aに応じた第2の被写体像の倍率mの変化と異なるようになっている。 Therefore, in the ranging camera of the present invention, the first optical system OS1 and the second optical system OS2 are configured and arranged so that at least one of the following two conditions is satisfied, whereby the distance to the subject 100 is A change in the magnification m1 of the first object image according to a is different from a change in the magnification m2 of the second object image according to the distance a to the object 100. FIG.

(第1の条件)第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとが、互いに異なる(f≠f
(第2の条件)第1のレンズ駆動部AF1がフォーカス動作を実行していない初期状態における第1の光学系OS1の前側主点と、第2のレンズ駆動部AF2がフォーカス動作を実行していない初期状態における第2の光学系OS2の前側主点との間の奥行視差Dが存在している(D≠0)
(First Condition) The focal length f1 of the first optical system OS1 and the focal length f2 of the second optical system OS2 are different from each other ( f1≠f2)
(Second condition) The front principal point of the first optical system OS1 in the initial state in which the first lens driving unit AF1 is not performing the focusing operation, and the second lens driving unit AF2 is performing the focusing operation. There is a depth parallax D between the front principal point of the second optical system OS2 in the initial state without

加えて、上記第1の条件および第2の条件の少なくとも1つを満たしていたとしても、上記一般式(15)または(16)を用いて、被写体100までの距離aを算出するためには、第1の光学系OS1および第2の光学系OS2が、下記式(19)および(20)で表される条件を満たすよう構成および配置されている必要がある。以下、下記式(19)の条件を第3の条件といい、下記式(20)の条件を第4の条件という。 In addition, even if at least one of the first condition and the second condition is satisfied, in order to calculate the distance a to the subject 100 using the general formula (15) or (16), , the first optical system OS1 and the second optical system OS2 must be configured and arranged to satisfy the conditions represented by the following equations (19) and (20). Hereinafter, the condition of formula (19) below will be referred to as the third condition, and the condition of formula (20) below will be referred to as the fourth condition.

Figure 2022128517000021
Figure 2022128517000021

Figure 2022128517000022
Figure 2022128517000022

上記式(19)の条件(第3の条件)が満たされない場合(すなわち、MR=f/fの場合)には、上記一般式(15)または(16)の分母がゼロとなってしまい、像倍比MRに基づいて、被写体100までの距離aを算出することができなくなる。一方、上記式(20)の条件(第4の条件)が満たされない場合(すなわち、上記式(20)の左辺が負になる場合)には、被写体100までの距離aが虚数を含んでしまうため、不適当である。 When the condition (third condition) of the above formula (19) is not satisfied (that is, when MR=f 2 /f 1 ), the denominator of the above general formula (15) or (16) becomes zero. Ultimately, the distance a to the object 100 cannot be calculated based on the image magnification ratio MR. On the other hand, when the condition (fourth condition) of the above formula (20) is not satisfied (that is, when the left side of the above formula (20) is negative), the distance a to the subject 100 includes an imaginary number. Therefore, it is inappropriate.

したがって、像倍比MRに基づいて、被写体100までの距離aを算出するために、本発明の測距カメラは、上述の第1の条件および第2の条件の少なくとも1つ、第3の条件、および第4の条件を満たすよう構成されている。そのため、本発明の測距カメラを用いて取得された第1の被写体像の画像信号および第2の被写体像の画像信号から実測される第1の被写体像のサイズYおよび第2の被写体像のサイズYから像倍比MRを算出することにより、第1の光学系OS1の前側主点から被写体100までの距離aを算出することができる。 Therefore, in order to calculate the distance a to the subject 100 based on the image magnification ratio MR, the distance measuring camera of the present invention satisfies at least one of the above first and second conditions, and the third condition , and the fourth condition. Therefore, the size Y1 of the first object image and the size Y1 of the second object image actually measured from the image signal of the first object image and the image signal of the second object image acquired using the distance measuring camera of the present invention By calculating the image magnification ratio MR from the size Y2 of , the distance a from the front principal point of the first optical system OS1 to the object 100 can be calculated.

以下、上述の原理を利用して、被写体までの距離を算出する本発明の測距カメラを、添付図面に示す好適な実施形態に基づいて説明する。 A distance measuring camera according to the present invention, which calculates the distance to a subject using the principle described above, will be described below with reference to preferred embodiments shown in the accompanying drawings.

<第1実施形態>
最初に図4~図5を参照して、本発明の第1実施形態に係る測距カメラを詳述する。図4は、本発明の第1実施形態に係る測距カメラを概略的に示すブロック図である。図5は、図4に示す第1の光学系と第2の光学系の構成例を概略的に示す図である。
<First embodiment>
First, referring to FIGS. 4 and 5, the distance measuring camera according to the first embodiment of the invention will be described in detail. FIG. 4 is a block diagram schematically showing a ranging camera according to the first embodiment of the invention. FIG. 5 is a diagram schematically showing a configuration example of the first optical system and the second optical system shown in FIG.

図4に示す測距カメラ1は、測距カメラ1の制御を行う制御部2と、被写体100からの光を集光し、第1の被写体像を形成するための第1の光学系OS1と、第1の光学系OS1のフォーカス動作(または、オートフォーカス動作)を実行するための第1のレンズ駆動部AF1と、被写体100からの光を集光し、第2の被写体像を形成するための第2の光学系OS2と、第2の光学系OS2のフォーカス動作(または、オートフォーカス動作)を実行するための第2のレンズ駆動部AF2と、第1の光学系OS1によって形成された第1の被写体像および第2の光学系OS2によって形成された第2の被写体像を撮像するための撮像部Sと、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MRと、被写体100までの距離aとを関連付ける関連付情報を記憶している関連付情報記憶部3と、関連付情報記憶部3内の関連付情報と、撮像部Sによって撮像された第1の被写体像および第2の被写体像とに基づいて、被写体100までの距離aを算出するための距離算出部4と、撮像部Sが取得した第1の被写体像または第2の被写体像と、距離算出部4によって算出された被写体100までの距離aとに基づいて、被写体100の3次元画像を生成するための3次元画像生成部5と、液晶パネル等の任意の情報を表示するための表示部6と、使用者による操作を入力するための操作部7と、外部デバイスとの通信を実行するための通信部8と、測距カメラ1の各コンポーネント間のデータの授受を実行するためのデータバス9と、を備えている。 The ranging camera 1 shown in FIG. 4 includes a control unit 2 for controlling the ranging camera 1, and a first optical system OS1 for condensing light from a subject 100 and forming a first subject image. , a first lens driving unit AF1 for executing a focusing operation (or an autofocus operation) of the first optical system OS1; a second optical system OS2, a second lens driving unit AF2 for executing a focus operation (or an autofocus operation) of the second optical system OS2, and a first optical system OS1 formed by 1 and a second object image formed by the second optical system OS2, a magnification m1 of the first object image and a magnification m2 of the second object image; image magnification ratio MR and the distance a to the subject 100, and the association information in the association information storage unit 3. a distance calculator 4 for calculating a distance a to the subject 100 based on the first subject image and the second subject image obtained by the imaging section S; A three-dimensional image generation unit 5 for generating a three-dimensional image of the subject 100 based on the subject image and the distance a to the subject 100 calculated by the distance calculation unit 4, and arbitrary information such as a liquid crystal panel. A display unit 6 for displaying, an operation unit 7 for inputting operations by the user, a communication unit 8 for executing communication with an external device, and exchange of data between each component of the ranging camera 1 and a data bus 9 for executing

なお、本実施形態における第1の光学系OS1の構成および第2の光学系OS2の構成は、説明のための1例にすぎず、本発明はこれに限られない。第1の光学系OS1および第2の光学系OS2のそれぞれは、上述の第1の条件および第2の条件の少なくとも1つ、第3の条件、および第4の条件を満たし、被写体100までの距離に対する第1の被写体像の倍率mの変化が、被写体100までの距離に対する第2の被写体像の倍率mの変化と異なっていれば如何なる態様であってもよい。しかしながら、本実施形態の測距カメラ1は、像倍比MRに基づいて被写体100までの距離aを算出するために要求される上述の第1の条件および第2の条件のうち、第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとが、互いに異なる(f≠f)という第1の条件が満たされるよう、第1の光学系OS1および第2の光学系OS2が構成されていることを特徴とする。一方、本実施形態では、第1の光学系OS1および第2の光学系OS2は、上述の第2の条件(D≠0)を満たすように構成および配置されていない。さらに、本実施形態の測距カメラ1では、第1の光学系OS1および第2の光学系OS2が、上述の第3の条件および第4の条件が満たされるよう構成されている。 The configuration of the first optical system OS1 and the configuration of the second optical system OS2 in this embodiment are merely examples for explanation, and the present invention is not limited to this. Each of the first optical system OS1 and the second optical system OS2 satisfies at least one of the above-described first and second conditions, the third condition, and the fourth condition, Any mode may be used as long as the change in the magnification m1 of the first object image with respect to the distance is different from the change in the magnification m2 of the second object image with respect to the distance to the object 100 . However, the distance measuring camera 1 of the present embodiment satisfies the first condition out of the first condition and the second condition required for calculating the distance a to the subject 100 based on the image magnification ratio MR. The first optical system OS1 and the It is characterized by comprising a second optical system OS2. On the other hand, in this embodiment, the first optical system OS1 and the second optical system OS2 are not constructed and arranged to satisfy the second condition (D≠0) described above. Furthermore, in the distance measuring camera 1 of the present embodiment, the first optical system OS1 and the second optical system OS2 are configured to satisfy the third and fourth conditions described above.

そのため、像倍比MRを用いて、被写体100までの距離aを算出するための上記一般式(15)および(16)は、D=0の条件により単純化され、それぞれ、下記式(21)および(22)で表すことができる。 Therefore, the above general formulas (15) and (16) for calculating the distance a to the subject 100 using the image magnification ratio MR are simplified by the condition of D=0, and the following formula (21) and (22).

Figure 2022128517000023
Figure 2022128517000023

Figure 2022128517000024
Figure 2022128517000024

本実施形態では、D=0なので、上記(3)の条件分けを考慮する必要がない。第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとの間の関係が、上記(1)の条件分けであるf<fに当てはまる場合、上記式(21)によって表される解が距離aとして適当となり、被写体100までの距離aとして用いられる。一方、第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとの間の関係が、上記(2)の条件であるf>fに当てはまる場合、上記式(22)によって表される解が距離aとして適当となり、被写体100までの距離aとして用いられる。 In the present embodiment, since D=0, there is no need to consider the division of conditions in (3) above. If the relationship between the focal length f 1 of the first optical system OS1 and the focal length f 2 of the second optical system OS2 satisfies the conditional expression (1) above, f 2 <f 1 , the above equation The solution expressed by (21) is suitable for the distance a, and is used as the distance a to the object 100. FIG. On the other hand, if the relationship between the focal length f 1 of the first optical system OS1 and the focal length f 2 of the second optical system OS2 satisfies the condition (2) above, f 2 >f 1 , the above The solution expressed by equation (22) is suitable as the distance a, and is used as the distance a to the object 100. FIG.

本実施形態の測距カメラ1は、撮像部Sによって被写体100を撮像することにより第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MRを算出し、さらに、上記式(21)または(22)を用いて、被写体100までの距離aを算出する。 The distance measuring camera 1 of the present embodiment captures an image of the subject 100 with the imaging unit S, thereby calculating an image magnification ratio MR between the magnification m1 of the first subject image and the magnification m2 of the second subject image, Furthermore, the distance a to the object 100 is calculated using the above equation (21) or (22).

以下、測距カメラ1の各コンポーネントについて詳述する。制御部2は、データバス9を介して、各コンポーネントとの間の各種データや各種指示の授受を行い、測距カメラ1の制御を実行する。制御部2は、演算処理を実行するためのプロセッサーと、測距カメラ1の制御を行うために必要なデータ、プログラム、モジュール等を保存しているメモリーとを備えており、制御部2のプロセッサーは、メモリー内に保存されているデータ、プログラム、モジュール等を用いることにより、測距カメラ1の制御を実行する。また、制御部2のプロセッサーは、測距カメラ1の各コンポーネントを用いることにより、所望の機能を提供することができる。例えば、制御部2のプロセッサーは、距離算出部4を用いることにより、撮像部Sによって撮像された第1の被写体像および第2の被写体像に基づいて、被写体100までの距離aを算出するための処理を実行することができる。 Each component of the ranging camera 1 will be described in detail below. The control unit 2 exchanges various data and various instructions with each component via the data bus 9 to control the ranging camera 1 . The control unit 2 includes a processor for executing arithmetic processing, and a memory for storing data, programs, modules, etc. necessary for controlling the ranging camera 1. The processor of the control unit 2 controls the distance measuring camera 1 by using data, programs, modules, etc. stored in the memory. Also, the processor of the control unit 2 can provide desired functions by using each component of the ranging camera 1 . For example, the processor of the control unit 2 uses the distance calculation unit 4 to calculate the distance a to the object 100 based on the first object image and the second object image captured by the imaging unit S. process can be executed.

制御部2のプロセッサーは、例えば、1つ以上のマイクロプロセッサー、マイクロコンピューター、マイクロコントローラー、デジタル信号プロセッサー(DSP)、中央演算処理装置(CPU)、メモリーコントロールユニット(MCU)、画像処理用演算処理装置(GPU)、状態機械、論理回路、特定用途向け集積回路(ASIC)、またはこれらの組み合わせ等のコンピューター可読命令に基づいて信号操作等の演算処理を実行する演算ユニットである。特に、制御部2のプロセッサーは、制御部2のメモリー内に保存されているコンピューター可読命令(例えば、データ、プログラム、モジュール等)をフェッチし、信号操作および制御を実行するよう構成されている。 The processor of the control unit 2 is, for example, one or more microprocessors, microcomputers, microcontrollers, digital signal processors (DSPs), central processing units (CPUs), memory control units (MCUs), arithmetic processing units for image processing. An arithmetic unit that performs arithmetic operations such as signal manipulation based on computer readable instructions such as (GPU), state machines, logic circuits, application specific integrated circuits (ASIC), or combinations thereof. In particular, the processor of controller 2 is configured to fetch computer readable instructions (eg, data, programs, modules, etc.) stored in memory of controller 2 and to perform signal manipulation and control.

制御部2のメモリーは、揮発性記憶媒体(例えば、RAM、SRAM、DRAM)、不揮発性記憶媒体(例えば、ROM、EPROM、EEPROM、フラッシュメモリー、ハードディスク、光ディスク、CD-ROM、デジタル多用途ディスク(DVD)、磁気カセット、磁気テープ、磁気ディスク)、またはこれらの組み合わせを含む着脱式または非着脱式のコンピューター可読媒体である。 The memory of the control unit 2 includes volatile storage media (eg, RAM, SRAM, DRAM), non-volatile storage media (eg, ROM, EPROM, EEPROM, flash memory, hard disk, optical disk, CD-ROM, digital versatile disk ( DVD), magnetic cassette, magnetic tape, magnetic disk), or any combination thereof, removable or non-removable.

第1の光学系OS1は、被写体100からの光を集光し、撮像部Sの第1の撮像素子S1の撮像面上に第1の被写体像を形成する機能を有する。第2の光学系OS2は、被写体100からの光を集光し、撮像部Sの第2の撮像素子S2の撮像面上に第2の被写体像を形成するための機能を有する。第1の光学系OS1および第2の光学系OS2は、1つ以上のレンズと絞り等の光学素子から構成されている。また、図示のように、第1の光学系OS1の光軸と、第2の光学系OS2の光軸は、平行であるが、一致してない。 The first optical system OS1 has a function of condensing light from the subject 100 and forming a first subject image on the imaging surface of the first imaging element S1 of the imaging section S. The second optical system OS2 has a function of condensing light from the subject 100 and forming a second subject image on the imaging surface of the second imaging element S2 of the imaging section S. The first optical system OS1 and the second optical system OS2 are composed of optical elements such as one or more lenses and a diaphragm. Also, as shown in the figure, the optical axis of the first optical system OS1 and the optical axis of the second optical system OS2 are parallel but do not match.

上述のように、第1の光学系OS1および第2の光学系OS2は、第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとが、互いに異なるよう(f≠f)、構成されている。これにより、第1の光学系OS1によって形成される第1の被写体像の倍率mの被写体100までの距離aに応じた変化が、第2の光学系OS2によって形成される第2の被写体像の倍率mの被写体100までの距離aに応じた変化と異なるように構成されている。 As described above, the first optical system OS1 and the second optical system OS2 are arranged such that the focal length f1 of the first optical system OS1 and the focal length f2 of the second optical system OS2 are different from each other. (f 1 ≠f 2 ), is constructed. As a result, the change of the magnification m1 of the first object image formed by the first optical system OS1 in accordance with the distance a to the object 100 is reflected in the second object image formed by the second optical system OS2. is configured to differ from the change according to the distance a to the subject 100 at the magnification m2 of .

例えば、図5に示すように、第1の光学系OS1は、凸レンズ(実像光学部品)から構成されており、第2の光学系OS2は、第1の光学系OS1を構成する凸レンズと同じ焦点距離を有する凸レンズ(実像光学部品)L1と、凸レンズL1と同一軸上であって、凸レンズL1から被写体100側に距離dだけ離間して配置された凹レンズ(虚像光学部品)L2と、から構成されている。この場合、第2の光学系OS2の焦点距離fは、凹レンズL2の効果により、第1の光学系OS1を構成する凸レンズの焦点距離fと異なったものとなる。このように、第1の光学系OS1と第2の光学系OS2の構成を互いに異なったものとすることにより、第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとを、互いに異なるものとすることができる。なお、図5に示す第1の光学系OS1および第2の光学系OS2の態様は例示に過ぎず、第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとが異なっていれば、本発明はこれに限られない。 For example, as shown in FIG. 5, the first optical system OS1 is composed of a convex lens (real image optical component), and the second optical system OS2 has the same focal point as the convex lens that constitutes the first optical system OS1. Convex lens (real image optical component) L1 having a distance, and concave lens (virtual image optical component) L2 which is on the same axis as convex lens L1 and which is spaced from convex lens L1 toward object 100 by distance d. ing. In this case, the focal length f2 of the second optical system OS2 is different from the focal length f1 of the convex lens forming the first optical system OS1 due to the effect of the concave lens L2. Thus, by making the configurations of the first optical system OS1 and the second optical system OS2 different from each other, the focal length f1 of the first optical system OS1 and the focal length f1 of the second optical system OS2 and the distances f2 can be different from each other. The modes of the first optical system OS1 and the second optical system OS2 shown in FIG. 5 are merely examples, and the focal length f1 of the first optical system OS1 and the focal length f2 of the second optical system OS2 is different, the present invention is not limited to this.

第2の光学系OS2のみが凹レンズL2を含んでおり、第1の光学系OS1が凹レンズを含んでいない図5に示す態様を例に挙げて、第1の光学系OS1および第2の光学系OS2の構成を説明したが、本発明はこれに限られない。第1の光学系OS1と第2の光学系OS2のそれぞれが凹レンズを備えているような態様もまた本発明の範囲内である。この場合、第1の光学系OS1および第2の光学系OS2のそれぞれに含まれる凹レンズの数、配置(例えば、他のレンズからの離間距離)、および焦点距離を調整することにより、第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとが互いに異なったものとなっている。これにより、被写体100までの距離aに対する第1の被写体像の倍率mの変化が、被写体100までの距離aに対する第2の被写体像の倍率mの変化と異なるようになっている。 Taking as an example the embodiment shown in FIG. 5 in which only the second optical system OS2 includes a concave lens L2 and the first optical system OS1 does not include a concave lens, the first optical system OS1 and the second optical system Although the configuration of OS2 has been described, the present invention is not limited to this. It is also within the scope of the invention that the first optical system OS1 and the second optical system OS2 each comprise a concave lens. In this case, by adjusting the number of concave lenses included in each of the first optical system OS1 and the second optical system OS2, the arrangement (for example, the distance from other lenses), and the focal length, the first The focal length f1 of the optical system OS1 and the focal length f2 of the second optical system OS2 are different from each other. As a result, the change in the magnification m1 of the first object image with respect to the distance a to the object 100 differs from the change in the magnification m2 of the second object image with respect to the distance a to the object 100. FIG.

このように、本実施形態における第1の光学系OS1および第2の光学系OS2の構成および配置は、上述の第1の条件(f≠f)が満たされており、それにより、被写体100までの距離aに対する第1の被写体像の倍率mの変化と、被写体100までの距離aに対する第2の被写体像の倍率mの変化とが、互いに異なるようになっていれば、如何なる態様であってもよい。 Thus, the configuration and arrangement of the first optical system OS1 and the second optical system OS2 in this embodiment satisfy the above-described first condition (f 1 ≠f 2 ). What if the change in the magnification m1 of the first object image with respect to the distance a to 100 and the change in the magnification m2 of the second object image with respect to the distance a to the object 100 are different from each other? It may be an aspect.

図4に戻り、第1のレンズ駆動部AF1は、制御部2のプロセッサーからの制御に応じて、第1の光学系OS1を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)を光軸方向に駆動させ(繰り出し)、第1の光学系OS1のフォーカス動作(または、オートフォーカス動作)を実行する機能を有している。同様に、第2のレンズ駆動部AF2は、制御部2のプロセッサーからの制御に応じて、第2の光学系OS2を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)を光軸方向に駆動させ(繰り出し)、第2の光学系OS2のフォーカス動作(または、オートフォーカス動作)を実行する機能を有している。第1のレンズ駆動部AF1および第2のレンズ駆動部AF2のそれぞれは、制御部2のプロセッサーからの制御に応じて、第1の光学系OS1または第2の光学系OS2のフォーカス動作を実行できれば特に限定されず、例えば、DCモーター、ステッピングモーター、ボイスコイルモーター等のアクチュエーターにより構成することができる。 Returning to FIG. 4, the first lens driving unit AF1 moves at least one of the lenses (for example, the focus lens) constituting the first optical system OS1 in the optical axis direction under the control of the processor of the control unit 2. It has a function of driving (extending) the first optical system OS1 to perform a focus operation (or an autofocus operation) of the first optical system OS1. Similarly, the second lens driving unit AF2 drives at least one of the lenses (for example, the focus lens) constituting the second optical system OS2 in the optical axis direction under the control of the processor of the control unit 2. It has a function of moving (advancing) and executing a focus operation (or an autofocus operation) of the second optical system OS2. If each of the first lens driving unit AF1 and the second lens driving unit AF2 can execute the focusing operation of the first optical system OS1 or the second optical system OS2 according to the control from the processor of the control unit 2, It is not particularly limited, and can be configured by an actuator such as a DC motor, stepping motor, voice coil motor, or the like.

なお、制御部2のプロセッサーは、コントラストオートフォーカス技術や位相差オートフォーカス技術等の任意のオートフォーカス技術を用いて、第1のレンズ駆動部AF1および第2のレンズ駆動部AF2を駆動し、第1の光学系OS1および第2の光学系OS2のフォーカス動作を実現する。 Note that the processor of the control unit 2 drives the first lens driving unit AF1 and the second lens driving unit AF2 using any autofocus technique such as the contrast autofocus technique or the phase difference autofocus technique. The focusing operation of one optical system OS1 and the second optical system OS2 is realized.

撮像部Sは、第1の光学系OS1によって形成された第1の被写体像および第2の光学系OS2によって形成された第2の被写体像を撮像し、第1の被写体像の画像信号および第2の被写体像の画像信号を取得する機能を有している。本実施形態では、撮像部Sは、第1の被写体像を撮像し、第1の被写体像の画像信号を取得するための第1の撮像素子S1と、第2の被写体像を撮像し、第2の被写体像の画像信号を取得するための第2の撮像素子S2と、を備えている。 The imaging unit S captures a first object image formed by the first optical system OS1 and a second object image formed by the second optical system OS2, and outputs an image signal of the first object image and a second object image. 2 has a function of acquiring the image signal of the subject image. In the present embodiment, the imaging unit S includes a first imaging element S1 for capturing a first subject image and acquiring an image signal of the first subject image, capturing a second subject image, and capturing a second subject image. and a second image sensor S2 for acquiring image signals of two subject images.

第1の光学系OS1の後側主点から第1の撮像素子S1の撮像面までの離間距離は、第1のレンズ駆動部AF1による第1の光学系OS1のフォーカス動作が実行されていない初期状態(図4中において、第1の光学系OS1が点線で示されている状態)において、無限遠に位置する被写体100の第1の被写体像が、第1の撮像素子S1の撮像面上に形成されるよう設定されている。換言すれば、第1のレンズ駆動部AF1による第1の光学系OS1のフォーカス動作が実行されていない初期状態において、無限遠にピントが合うように、第1の光学系OS1および第1の撮像素子S1が配置されている。したがって、初期状態において、第1の光学系OS1の後側主点から第1の撮像素子S1の撮像面までの離間距離は、第1の光学系OS1の焦点距離fと等しい。そのため、任意の距離aに被写体100が位置する場合には、制御部2のプロセッサーからの制御に応じて、第1の光学系OS1を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)が繰り出され、第1の光学系OS1の前側主点および後側主点がΔbだけ、被写体100側にシフトし、任意の距離aに位置する被写体100にピントが合う。 The separation distance from the rear principal point of the first optical system OS1 to the imaging surface of the first image sensor S1 is the initial value when the focusing operation of the first optical system OS1 is not performed by the first lens driving unit AF1. In a state (a state in which the first optical system OS1 is indicated by a dotted line in FIG. 4), a first subject image of a subject 100 positioned at infinity is projected onto the imaging surface of the first image sensor S1. set to be formed. In other words, in the initial state in which the focusing operation of the first optical system OS1 is not performed by the first lens driving unit AF1, the first optical system OS1 and the first imaging are adjusted so as to focus on infinity. An element S1 is arranged. Therefore, in the initial state, the separation distance from the rear principal point of the first optical system OS1 to the imaging surface of the first imaging element S1 is equal to the focal length f1 of the first optical system OS1. Therefore, when the subject 100 is positioned at an arbitrary distance a, at least one of the lenses (for example, the focus lens) constituting the first optical system OS1 is extended under the control of the processor of the control unit 2. As a result, the front principal point and the rear principal point of the first optical system OS1 are shifted by Δb1 toward the object 100 , and the object 100 positioned at an arbitrary distance a is brought into focus.

同様に、第2の光学系OS2の後側主点から第2の撮像素子S2の撮像面までの離間距離は、第2のレンズ駆動部AF2による第2の光学系OS2のフォーカス動作が実行されていない初期状態(図4中において、第2の光学系OS2が点線で示されている状態)において、無限遠に位置する被写体100の第2の被写体像が、第2の撮像素子S2の撮像面上に形成されるよう設定されている。換言すれば、第2のレンズ駆動部AF2による第2の光学系OS2のフォーカス動作が実行されていない初期状態において、無限遠にピントが合うように、第2の光学系OS2および第2の撮像素子S2が配置されている。したがって、初期状態において、第2の光学系OS2の後側主点から第2の撮像素子S2の撮像面までの離間距離は、第2の光学系OS2の焦点距離fと等しい。そのため、任意の距離aに被写体100が位置する場合には、制御部2のプロセッサーからの制御に応じて、第2の光学系OS2を構成するレンズの少なくとも1つ(例えば、フォーカスレンズ)が繰り出され、第2の光学系OS2の前側主点および後側主点がΔbだけ、被写体100側にシフトし、任意の距離aに位置する被写体100にピントが合う。 Similarly, the separation distance from the rear principal point of the second optical system OS2 to the imaging surface of the second imaging element S2 is determined by the second lens driving unit AF2 performing the focusing operation of the second optical system OS2. In the initial state (in FIG. 4, the second optical system OS2 is indicated by a dotted line), the second subject image of the subject 100 positioned at infinity is captured by the second image sensor S2. It is set to be formed on the surface. In other words, in the initial state in which the focusing operation of the second optical system OS2 is not performed by the second lens driving unit AF2, the second optical system OS2 and the second imaging are adjusted so as to focus on infinity. An element S2 is arranged. Therefore, in the initial state, the separation distance from the rear principal point of the second optical system OS2 to the imaging surface of the second imaging element S2 is equal to the focal length f2 of the second optical system OS2. Therefore, when the object 100 is positioned at an arbitrary distance a, at least one of the lenses (for example, the focus lens) constituting the second optical system OS2 is extended under the control of the processor of the control unit 2. As a result, the front principal point and the rear principal point of the second optical system OS2 are shifted by Δb2 toward the object 100, and the object 100 positioned at an arbitrary distance a is brought into focus.

なお、図示の形態では、第1の撮像素子S1、第1のレンズ駆動部AF1、および第1の光学系OS1が、同一の筐体内に設けられており、第2の撮像素子S2、第2のレンズ駆動部AF2、および第2の光学系OS2が、別の同一の筐体内に設けられているが、本発明はこれに限られない。第1の光学系OS1、第2の光学系OS2、第1のレンズ駆動部AF1、第2のレンズ駆動部AF2、第1の撮像素子S1、および第2の撮像素子S2がすべて同一の筐体内に設けられているような態様も、本発明の範囲内である。 In the illustrated embodiment, the first image sensor S1, the first lens driving unit AF1, and the first optical system OS1 are provided in the same housing. The lens drive unit AF2 and the second optical system OS2 are provided in another same housing, but the present invention is not limited to this. The first optical system OS1, the second optical system OS2, the first lens driving unit AF1, the second lens driving unit AF2, the first image sensor S1, and the second image sensor S2 are all in the same housing Also within the scope of the present invention are aspects such as those provided in .

第1の撮像素子S1および第2の撮像素子S2は、ベイヤー配列等の任意のパターンで配列されたRGB原色系カラーフィルターやCMY補色系カラーフィルターのようなカラーフィルターを有するカラー撮像素子であってもよいし、そのようなカラーフィルターを有さない白黒撮像素子であってもよい。 The first imaging element S1 and the second imaging element S2 are color imaging elements having color filters such as RGB primary color filters or CMY complementary color filters arranged in an arbitrary pattern such as a Bayer array. Alternatively, it may be a black-and-white imaging device that does not have such a color filter.

第1の光学系OS1によって、第1の撮像素子S1の撮像面上に第1の被写体像が形成され、第1の撮像素子S1によって第1の被写体像のカラーまたは白黒の画像信号が取得される。取得された第1の被写体像の画像信号は、データバス9を介して、制御部2や距離算出部4に送られる。同様に、第2の光学系OS2によって、第2の撮像素子S2の撮像面上に第2の被写体像が形成され、第2の撮像素子S2によって第2の被写体像のカラーまたは白黒の画像信号が取得される。取得された第2の被写体像の画像信号は、データバス9を介して、制御部2や距離算出部4に送られる。距離算出部4に送られた第1の被写体像の画像信号および第2の被写体像の画像信号は、被写体100までの距離aを算出するために用いられる。一方、制御部2に送られた第1の被写体像の画像信号および第2の被写体像の画像信号は、表示部6による画像表示や通信部8による画像信号の通信のために用いられる。 The first optical system OS1 forms a first subject image on the imaging surface of the first image sensor S1, and the first image sensor S1 acquires color or black-and-white image signals of the first subject image. be. The acquired image signal of the first subject image is sent to the control section 2 and the distance calculation section 4 via the data bus 9 . Similarly, the second optical system OS2 forms a second subject image on the imaging surface of the second image sensor S2, and the second image sensor S2 generates color or black-and-white image signals of the second subject image. is obtained. The acquired image signal of the second subject image is sent to the control section 2 and the distance calculation section 4 via the data bus 9 . The image signal of the first subject image and the image signal of the second subject image sent to the distance calculator 4 are used to calculate the distance a to the subject 100 . On the other hand, the image signal of the first subject image and the image signal of the second subject image sent to the control section 2 are used for image display by the display section 6 and for communication of image signals by the communication section 8 .

関連付情報記憶部3は、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MR(m/m)と、第1の光学系OS1の前側主点から被写体100までの距離aとを関連付ける関連付情報を記憶するための任意の不揮発性記録媒体(例えば、ハードディスク、フラッシュメモリー)である。 The association information storage unit 3 stores an image magnification ratio MR (m 2 /m 1 ) between the magnification m 1 of the first subject image and the magnification m 2 of the second subject image, and the front side of the first optical system OS 1 . Any non-volatile recording medium (for example, hard disk, flash memory) for storing association information that associates the distance a from the principal point to the subject 100 .

関連付情報記憶部3に保存されている関連付情報は、第1の被写体像の倍率mと第2の被写体像の倍率との像倍比MR(m/m)から、第1の光学系OS1の前側主点から被写体100までの距離aを算出するための情報である。 The association information stored in the association information storage unit 3 is obtained from the image magnification ratio MR (m 2 /m 1 ) between the magnification m 1 of the first subject image and the magnification 2 of the second subject image. 1 is information for calculating the distance a from the front principal point of the optical system OS1 to the object 100. FIG.

典型的には、関連付情報記憶部3に保存されている関連付情報は、像倍比MRに基づいて被写体100までの距離aを算出するための上記式(21)および(22)(または、一般式(15)および(16))、並びに、該式中の第1の光学系OS1および第2の光学系OS2の構成および配置によって決定される上述の固定値である(上記式(21)および(22)用であれば、固定値であるfおよびf)。代替的に、関連付情報記憶部3に保存されている関連付情報は、像倍比MRと被写体100までの距離aとを一意に対応づけたルックアップテーブルであってもよい。関連付情報記憶部3に保存されているこのような関連付情報を参照することにより、像倍比MRに基づいて被写体100までの距離aを算出することが可能となる。 Typically, the association information stored in the association information storage unit 3 is based on the above equations (21) and (22) (or , general formulas (15) and (16)), and the above-mentioned fixed value determined by the configuration and arrangement of the first optical system OS1 and the second optical system OS2 in the formula (the above formula (21 ) and (22), fixed values f 1 and f 2 ). Alternatively, the association information stored in the association information storage unit 3 may be a lookup table that uniquely associates the image magnification ratio MR with the distance a to the subject 100 . By referring to such association information stored in the association information storage unit 3, it is possible to calculate the distance a to the subject 100 based on the image magnification ratio MR.

距離算出部4は、撮像部Sによって撮像された第1の被写体像および第2の被写体像に基づいて、被写体100までの距離aを算出する機能を有している。距離算出部4は、撮像部Sの第1の撮像素子S1から第1の被写体像の画像信号を受信し、さらに、撮像部Sの第2の撮像素子S2から第2の被写体像の画像信号を受信する。 The distance calculator 4 has a function of calculating the distance a to the subject 100 based on the first subject image and the second subject image captured by the imaging section S. FIG. The distance calculator 4 receives the image signal of the first subject image from the first image sensor S1 of the image sensor S, and further receives the image signal of the second subject image from the second image sensor S2 of the image sensor S. receive.

その後、距離算出部4は、第1の被写体像の画像信号および第2の被写体像の画像信号に対して、Cannyのようなフィルター処理を施し、第1の被写体像の画像信号内における第1の被写体像のエッジ部および第2の被写体像の画像信号内における第2の被写体像のエッジ部を抽出する。距離算出部4は、抽出した第1の被写体像のエッジ部に基づいて、第1の被写体像のサイズ(像幅または像高)Yを算出し、さらに、抽出した第2の被写体像のエッジ部に基づいて、第2の被写体像のサイズ(像幅または像高)Yを算出する。 After that, the distance calculation unit 4 performs filter processing such as Canny on the image signal of the first subject image and the image signal of the second subject image, and calculates the first distance in the image signal of the first subject image. and edge portions of the second subject image in the image signal of the second subject image. The distance calculation unit 4 calculates the size (image width or image height) Y1 of the first subject image based on the extracted edge portion of the first subject image, and further calculates the size of the extracted second subject image. Based on the edge portion, the size (image width or image height) Y2 of the second object image is calculated.

距離算出部4が、抽出した第1の被写体像のエッジ部および第2の被写体像のエッジ部に基づいて、第1の被写体像のサイズYおよび第2の被写体像のサイズYを算出する方法は特に限定されないが、例えば、各画像信号中において、被写体像のエッジ部の最も上側にある部分と最も下側にある部分との離間距離を被写体像の像高としてもよいし、被写体像のエッジ部の最も左側にある部分と最も右側にある部分との離間距離を被写体像の像幅としてもよい。 A distance calculation unit 4 calculates the size Y1 of the first subject image and the size Y2 of the second subject image based on the extracted edge portion of the first subject image and the edge portion of the second subject image. Although the method is not particularly limited, for example, in each image signal, the separation distance between the uppermost part and the lowermost part of the edge part of the subject image may be used as the image height of the subject image, or The distance between the leftmost edge portion and the rightmost edge portion of the image may be used as the image width of the subject image.

その後、距離算出部4は、算出した第1の被写体像のサイズYおよび第2の被写体像のサイズYに基づき、上記式(18)MR=Y/Yによって、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MRを算出する。像倍比MRが算出されると、距離算出部4は、関連付情報記憶部3に保存されている関連付情報を参照し、像倍比MRに基づいて、被写体100までの距離aを算出(特定)する。 Thereafter, the distance calculation unit 4 calculates the first object image size Y1 and the second object image size Y2 according to the above equation (18) MR = Y2 / Y1. An image magnification ratio MR between the image magnification m1 and the second object image magnification m2 is calculated. When the image magnification ratio MR is calculated, the distance calculation unit 4 refers to the association information stored in the association information storage unit 3, and calculates the distance a to the subject 100 based on the image magnification ratio MR. (Identify.

3次元画像生成部5は、距離算出部4によって算出された被写体100までの距離aおよび撮像部Sが取得した被写体100の2次元画像(第1の被写体像の画像信号または第2の被写体像の画像信号)に基づいて、被写体100の3次元画像を生成する機能を有している。ここで言う「被写体100の3次元画像」とは、通常の被写体100のカラーまたは白黒の2次元画像のピクセルに対して、算出された被写体100の距離aが関連付けられているデータを意味する。 The three-dimensional image generation unit 5 generates the distance a to the subject 100 calculated by the distance calculation unit 4 and the two-dimensional image of the subject 100 acquired by the imaging unit S (the image signal of the first subject image or the second subject image image signal) to generate a three-dimensional image of the subject 100 . The "three-dimensional image of the subject 100" referred to here means data in which the calculated distance a of the subject 100 is associated with the pixels of the normal two-dimensional image of the subject 100 in color or black and white.

表示部6は、液晶表示部等のパネル型表示部であり、制御部2のプロセッサーからの信号に応じて、撮像部Sによって取得された被写体100の2次元画像(第1の被写体像の画像信号または第2の被写体像の画像信号)、距離算出部4によって生成された被写体100までの距離a、3次元画像生成部5によって生成された被写体100の3次元画像のような画像、測距カメラ1を操作するための情報等が文字または画像の様態で表示部6に表示される。 The display unit 6 is a panel-type display unit such as a liquid crystal display unit, and displays a two-dimensional image of the subject 100 (first subject image image) acquired by the imaging unit S according to a signal from the processor of the control unit 2 . signal or image signal of the second object image), distance a to object 100 generated by distance calculation unit 4, image such as three-dimensional image of object 100 generated by three-dimensional image generation unit 5, distance measurement Information for operating the camera 1 is displayed on the display unit 6 in the form of characters or images.

操作部7は、測距カメラ1の使用者が操作を実行するために用いられる。操作部7は、測距カメラ1の使用者が操作を実行することができれば特に限定されず、例えば、マウス、キーボード、テンキー、ボタン、ダイヤル、レバー、タッチパネル等を操作部7として用いることができる。操作部7は、測距カメラ1の使用者による操作に応じた信号を制御部2のプロセッサーに送信する。 The operation unit 7 is used by the user of the distance measuring camera 1 to perform operations. The operation unit 7 is not particularly limited as long as the user of the distance measuring camera 1 can operate it. . The operation unit 7 transmits a signal according to the user's operation of the ranging camera 1 to the processor of the control unit 2 .

通信部8は、測距カメラ1に対するデータの入力または測距カメラ1から外部デバイスへのデータの出力を行う機能を有している。通信部8は、インターネットのようなネットワークに接続されていてもよい。この場合、測距カメラ1は、通信部8を用いることにより、外部に設けられたウェブサーバーやデータサーバーのような外部デバイスと通信を行うことができる。 The communication unit 8 has a function of inputting data to the ranging camera 1 or outputting data from the ranging camera 1 to an external device. The communication unit 8 may be connected to a network such as the Internet. In this case, the distance measuring camera 1 can communicate with an external device such as a web server or data server provided outside by using the communication unit 8 .

このように、本実施形態の測距カメラ1では、第1の光学系OS1および第2の光学系OS2が、第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとが、互いに異なるよう(f≠f)、構成されており、これにより、被写体100までの距離aに対する第1の被写体像の倍率mの変化と、被写体100までの距離aに対する第2の被写体像の倍率mの変化とが、互いに異なるようになっている。そのため、本発明の測距カメラ1は、複数の画像間の並進視差を用いず、かつ、被写体への一定パターンの照射を行わずに、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MR(m/m)に基づいて、被写体100までの距離aを一意に算出(特定)することができる。 Thus, in the distance measuring camera 1 of the present embodiment, the first optical system OS1 and the second optical system OS2 have a focal length f1 of the first optical system OS1 and a focal length f1 of the second optical system OS2. f 2 are different from each other (f 1 ≠f 2 ). are different from each other. Therefore, the distance measuring camera 1 of the present invention does not use translational parallax between a plurality of images, and does not irradiate the subject in a fixed pattern. Based on the image magnification ratio MR (m 2 /m 1 ) to the image magnification m 2 , the distance a to the object 100 can be uniquely calculated (identified).

また、本実施形態では、第1の光学系OS1および第2の光学系OS2は、第1の光学系OS1の焦点距離fと、第2の光学系OS2の焦点距離fとが異なるように、構成されているため、撮像部Sの第1の撮像素子S1によって取得される第1の被写体像の画像信号の画角と倍率は、撮像部Sの第2の撮像素子S2によって取得される第2の被写体像の画像信号の画角と倍率と異なる。よって、本実施形態の測距カメラ1では、簡易に異なる画角および倍率の2つの画像信号(第1の被写体像の画像信号と第2の被写体像の画像信号)を同時に取得することができる。このように画角や倍率が異なる複数の画像信号は、様々な用途に利用することができる。 Further, in the present embodiment, the first optical system OS1 and the second optical system OS2 are arranged such that the focal length f1 of the first optical system OS1 and the focal length f2 of the second optical system OS2 are different. , the angle of view and the magnification of the image signal of the first subject image acquired by the first image pickup element S1 of the image pickup section S are obtained by the second image pickup element S2 of the image pickup section S. different from the angle of view and the magnification of the image signal of the second object image. Therefore, with the ranging camera 1 of the present embodiment, two image signals (image signal of the first subject image and image signal of the second subject image) with different angles of view and magnifications can be obtained simultaneously. . A plurality of image signals with different angles of view and magnifications can be used for various purposes.

例えば、本実施形態の測距カメラ1は、画角や倍率が異なる複数の画像信号を取得することができるので、虹彩認証システムにおいて、本実施形態の測距カメラ1を好適に用いることができる。本実施形態の測距カメラ1を虹彩認証システムにおいて用いた場合、広画角および低倍率の認証対象者の顔画像(または全身画像)と狭画角および高倍率の認証対象者の両眼画像を同時に取得することができる。そのため、本実施形態の測距カメラ1を用いることにより、ズーム機能を有するカメラを用いなくとも、両眼の虹彩認証を実行することができ、虹彩認証システムを小型化および低コスト化することができる。 For example, since the rangefinder camera 1 of this embodiment can acquire a plurality of image signals with different angles of view and magnifications, the rangefinder camera 1 of this embodiment can be suitably used in an iris authentication system. . When the ranging camera 1 of the present embodiment is used in an iris authentication system, a face image (or whole body image) of an authentication subject with a wide angle of view and low magnification and a binocular image of the authentication subject with a narrow angle of view and high magnification can be obtained simultaneously. Therefore, by using the distance measuring camera 1 of the present embodiment, iris authentication of both eyes can be performed without using a camera having a zoom function, and the iris authentication system can be made smaller and less expensive. can.

また、本実施形態の測距カメラ1は、精密機器の組み立てや検査のために用いられるハンドラーロボットにおいて好適に利用することができる。ハンドラーロボットを駆動する際には、組み立て対象の部品までの距離を算出する必要があるとともに、部品のおおまかな位置を特定するための広画角および低倍率の画像と、部品の組み立ての際にハンドラーロボットのハンドを精密に制御するための狭画角および高倍率の画像とが必要とされる。本実施形態の測距カメラ1は、部品(被写体)までの距離を算出することができるとともに、広画角および低倍率の画像と、狭画角および高倍率の画像とを同時取得することができるため、ハンドラーロボットにおいて特に有用である。本実施形態の測距カメラ1は、部品までの距離の測定、広画角および低倍率の画像の取得、および狭画角および高倍率の画像の取得という3つの機能を提供することができるため、本実施形態の測距カメラ1をハンドラーロボットにおいて用いることにより、ハンドラーロボットにおいて用いられるカメラの数を減らすことができる。そのため、ハンドラーロボットを小型化および低コスト化することができる。 Also, the distance measuring camera 1 of the present embodiment can be suitably used in a handler robot used for assembling and inspecting precision equipment. When driving the handler robot, it is necessary to calculate the distance to the part to be assembled, and to use a wide-angle, low-magnification image to identify the rough position of the part, A narrow angle of view and high magnification images are required for precise control of the hand of the handler robot. The distance measuring camera 1 of the present embodiment can calculate the distance to a part (object), and can simultaneously acquire an image with a wide angle of view and a low magnification and an image with a narrow angle of view and a high magnification. It is particularly useful in handler robots because it can The distance measuring camera 1 of the present embodiment can provide three functions of measuring the distance to a component, acquiring a wide angle of view and low magnification image, and acquiring a narrow angle of view and high magnification image. By using the distance measuring camera 1 of this embodiment in the handler robot, the number of cameras used in the handler robot can be reduced. Therefore, the size and cost of the handler robot can be reduced.

また、本実施形態の測距カメラ1は、車両乗員検知用途において好適に利用することができる。本実施形態の測距カメラ1によって広画角および低倍率の画像を取得することにより、追加的なカメラを用いずとも、車両内の広範な乗員検知を実現することができる。そのため、車両乗員検知システムを小型化および低コスト化することができる。 Also, the distance measuring camera 1 of the present embodiment can be suitably used for vehicle occupant detection. By acquiring wide-angle and low-magnification images with the distance measuring camera 1 of the present embodiment, it is possible to detect a wide range of occupants in the vehicle without using an additional camera. Therefore, the vehicle occupant detection system can be reduced in size and cost.

<第2実施形態>
次に、図6を参照して、本発明の第2実施形態に係る測距カメラ1について詳述する。図6は、本発明の第2実施形態に係る測距カメラを概略的に示すブロック図である。
<Second embodiment>
Next, referring to FIG. 6, the distance measuring camera 1 according to the second embodiment of the present invention will be described in detail. FIG. 6 is a block diagram schematically showing a ranging camera according to a second embodiment of the invention.

以下、第2実施形態の測距カメラ1について、第1実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。第2実施形態の測距カメラ1では、第1の光学系OS1によって撮像部Sの第1の撮像素子S1の撮像面上に集光される光の光路上に第1のバンドパスフィルター10aが配置され、さらに、第2の光学系OS2によって撮像部Sの第2の撮像素子S2の撮像面上に集光される光の光路上に第2のバンドパスフィルター10bが配置されている点を除き、第1実施形態の測距カメラ1と同様である。 In the following, the distance measuring camera 1 of the second embodiment will be described with a focus on the differences from the distance measuring camera 1 of the first embodiment, and the description of the same items will be omitted. In the distance measuring camera 1 of the second embodiment, the first band-pass filter 10a is placed on the optical path of the light condensed on the imaging surface of the first imaging element S1 of the imaging unit S by the first optical system OS1. Further, the second bandpass filter 10b is arranged on the optical path of the light condensed on the imaging surface of the second imaging element S2 of the imaging unit S by the second optical system OS2. Except for this, it is the same as the distance measuring camera 1 of the first embodiment.

なお、図示の形態では、第1のバンドパスフィルター10aが第1の光学系OS1の前面側(被写体100側)に配置され、第2のバンドパスフィルター10bが第2の光学系OS2の前面側(被写体100側)に配置されているが本発明はこれに限られない。例えば、第1のバンドパスフィルター10aが第1の光学系OS1の後面側(第1の撮像素子S1側)に配置され、第2のバンドパスフィルター10bが第2の光学系OS2の後面側(第2の撮像素子S2側)に配置されている態様も本発明の範囲内である。 In the illustrated embodiment, the first band-pass filter 10a is arranged on the front side (object 100 side) of the first optical system OS1, and the second band-pass filter 10b is arranged on the front side of the second optical system OS2. (Subject 100 side), but the present invention is not limited to this. For example, the first bandpass filter 10a is arranged on the rear side of the first optical system OS1 (on the side of the first imaging element S1), and the second bandpass filter 10b is arranged on the rear side of the second optical system OS2 (on the side of the first imaging element S1). A mode in which the second image sensor S2 side) is arranged is also within the scope of the present invention.

第1のバンドパスフィルター10aは、第1の光学系OS1によって第1の撮像素子S1の撮像面上に集光される被写体100からの光のうち、特定の波長帯域の光のみを通過させる。第2のバンドパスフィルター10bは、第2の光学系OS2によって第2の撮像素子S2の撮像面上に集光される被写体100からの光のうち、特定の波長帯域の光のみを通過させる。第1のバンドパスフィルター10aが通過させる光の波長帯域は、第2のバンドパスフィルター10bが通過させる光の波長帯域とは異なっている。そのため、第1の撮像素子S1および第2の撮像素子S2は、それぞれ異なる波長帯域の光を受光することができる。 The first bandpass filter 10a passes only light in a specific wavelength band among the light from the subject 100 condensed on the imaging surface of the first imaging element S1 by the first optical system OS1. The second bandpass filter 10b passes only light in a specific wavelength band among the light from the object 100 condensed on the imaging surface of the second imaging element S2 by the second optical system OS2. The wavelength band of light passed by the first bandpass filter 10a is different from the wavelength band of light passed by the second bandpass filter 10b. Therefore, the first imaging element S1 and the second imaging element S2 can receive light in different wavelength bands.

なお、第1の撮像素子S1および第2の撮像素子S2のそれぞれは、ベイヤー配列等の任意のパターンで配列されたRGB原色系カラーフィルターやCMY補色系カラーフィルターのようなカラーフィルターを有するカラー撮像素子であってもよいし、カラーフィルターを有さない白黒撮像素子であってもよいが、白黒撮像素子であることが好ましい。白黒撮像素子を第1の撮像素子S1および第2の撮像素子S2として用いることにより、第1のバンドパスフィルター10aまたは第2のバンドパスフィルター10bを通過した特定の波長帯域の光の光量がカラー撮像素子のカラーフィルターによってさらに減少してしまうことを防止することができる。 Note that each of the first imaging element S1 and the second imaging element S2 has a color filter such as an RGB primary color filter or a CMY complementary color filter arranged in an arbitrary pattern such as a Bayer array for color imaging. A device may be used, or a black-and-white image sensor having no color filter may be used, but a black-and-white image sensor is preferable. By using black-and-white imaging elements as the first imaging element S1 and the second imaging element S2, the amount of light in a specific wavelength band that has passed through the first bandpass filter 10a or the second bandpass filter 10b can be converted into a color image. Further reduction due to the color filter of the imaging device can be prevented.

このように、本実施形態では、第1の撮像素子S1および第2の撮像素子S2は、それぞれ異なる波長帯域の光を受光することができるので、異なる波長帯域の光によって形成された2つの画像信号(第1の被写体像の画像信号と第2の被写体像の画像信号)を同時取得することができる。そのため、異なる波長帯域の光によって形成された複数の画像信号を用いることが有用な用途、例えば、虹彩認証システムや車載カメラの暗視野乗員状態検知システムに測距カメラ1を用いることができる。 As described above, in the present embodiment, the first image sensor S1 and the second image sensor S2 can respectively receive light in different wavelength bands, so that two images formed by light in different wavelength bands can be obtained. Signals (the image signal of the first subject image and the image signal of the second subject image) can be obtained simultaneously. Therefore, the distance measuring camera 1 can be used in applications where it is useful to use a plurality of image signals formed by light of different wavelength bands, such as an iris authentication system and a dark field occupant state detection system for an on-vehicle camera.

また、本実施形態の測距カメラ1では、異なる波長帯域の光によって形成された2つの画像信号を取得するために、異なる波長帯域の光を発する複数の光源を用いる必要がない。そのため、上述のような異なる波長帯域の光によって形成された複数の画像信号を用いることが有用な用途で測距カメラ1を用いる場合でも、測距カメラ1の小型化および低コスト化が可能である。 Moreover, in the distance measuring camera 1 of the present embodiment, it is not necessary to use a plurality of light sources emitting light of different wavelength bands in order to acquire two image signals formed by light of different wavelength bands. Therefore, even when the distance measuring camera 1 is used in applications where it is useful to use a plurality of image signals formed by light of different wavelength bands as described above, the distance measuring camera 1 can be made smaller and less expensive. be.

<第3実施形態>
次に、図7を参照して、本発明の第3実施形態に係る測距カメラ1について詳述する。図7は、本発明の第3実施形態に係る測距カメラを概略的に示すブロック図である。
<Third Embodiment>
Next, referring to FIG. 7, the distance measuring camera 1 according to the third embodiment of the present invention will be described in detail. FIG. 7 is a block diagram schematically showing a ranging camera according to a third embodiment of the invention.

以下、第3実施形態の測距カメラ1について、第2実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。第3実施形態の測距カメラ1では、撮像部Sが第1の撮像素子S1のみから構成されている点、第1の光学系OS1、第2の光学系OS2、第1のレンズ駆動部AF1、第2のレンズ駆動部AF2、第1のバンドパスフィルター10a、第2のバンドパスフィルター10b、および第1の撮像素子S1が同一の筐体内に設けられている点、該筐体内にミラー11とプリズム12が設けられている点、および第1の撮像素子S1がカラー撮像素子に限定される点を除き、第2実施形態の測距カメラ1と同様である。 In the following, the distance measuring camera 1 of the third embodiment will be described with a focus on the differences from the distance measuring camera 1 of the second embodiment, and the description of the same items will be omitted. In the distance measuring camera 1 of the third embodiment, the imaging section S is composed only of the first imaging element S1, the first optical system OS1, the second optical system OS2, and the first lens driving section AF1. , the second lens drive unit AF2, the first band-pass filter 10a, the second band-pass filter 10b, and the first image sensor S1 are provided in the same housing, and the mirror 11 is provided in the housing. , and a prism 12 are provided, and the first image sensor S1 is limited to a color image sensor.

図7に示すように、本実施形態では、第1の光学系OS1、第2の光学系OS2、第1のレンズ駆動部AF1、第2のレンズ駆動部AF2、第1のバンドパスフィルター10a、第2のバンドパスフィルター10b、および第1の撮像素子S1が同一の筐体内に設けられている。また、第2の光学系OS2によって集光される光の光路上には、ミラー11およびプリズム12が配置されている。第2のバンドパスフィルター10bを通過し、第2の光学系OS2によって集光された光は、ミラー11およびプリズム12を通過し、第1の撮像素子S1の撮像面上で結像する。これにより、第2の被写体像が、第1の撮像素子S1の撮像面上に形成される。 As shown in FIG. 7, in this embodiment, a first optical system OS1, a second optical system OS2, a first lens driving unit AF1, a second lens driving unit AF2, a first bandpass filter 10a, The second bandpass filter 10b and the first imaging element S1 are provided in the same housing. A mirror 11 and a prism 12 are arranged on the optical path of the light condensed by the second optical system OS2. Light passing through the second bandpass filter 10b and condensed by the second optical system OS2 passes through the mirror 11 and the prism 12 and forms an image on the imaging surface of the first imaging element S1. As a result, a second subject image is formed on the imaging surface of the first imaging element S1.

したがって、本実施形態においては、第1の光学系OS1によって形成される第1の被写体像および第2の光学系OS2によって形成される第2の被写体像の双方が、第1の撮像素子S1の撮像面上に形成される。 Therefore, in the present embodiment, both the first subject image formed by the first optical system OS1 and the second subject image formed by the second optical system OS2 are captured by the first image sensor S1. formed on the imaging surface.

また、本実施形態において、第1の撮像素子S1は、ベイヤー配列のような任意のパターンで配列されたRGB原色系カラーフィルターやCMY補色系カラーフィルターのようなカラーフィルターを有するカラー撮像素子である。第1のバンドパスフィルター10aが通過させる光の波長帯域は、第1の撮像素子S1が有する複数のカラーフィルターのいずれか1つに対応しており、第2のバンドパスフィルター10bが通過させる光の波長帯域は、第1の撮像素子S1が有する複数のカラーフィルターの異なる1つに対応している。 In this embodiment, the first image sensor S1 is a color image sensor having color filters such as RGB primary color filters and CMY complementary color filters arranged in an arbitrary pattern such as the Bayer array. . The wavelength band of the light passed by the first bandpass filter 10a corresponds to any one of the plurality of color filters of the first imaging element S1, and the light passed by the second bandpass filter 10b corresponds to a different one of the plurality of color filters of the first imaging element S1.

これにより、第1の撮像素子S1によって取得される各カラーフィルターに対応する画像信号(例えば、赤色画像信号、緑色画像信号、および青色画像信号)のいずれか1つが、第1の被写体像の画像信号に対応し、異なる1つが第2の被写体像の画像信号に対応する。そのため、第1の撮像素子S1は、第1の被写体像の画像信号と第2の被写体像の画像信号を分離して同時取得することができる。 As a result, any one of the image signals (for example, red image signal, green image signal, and blue image signal) corresponding to each color filter acquired by the first image sensor S1 is the image of the first subject image. A different one corresponds to the image signal of the second object image. Therefore, the first image sensor S1 can separate and simultaneously acquire the image signal of the first subject image and the image signal of the second subject image.

例えば、第1のバンドパスフィルター10aが通過させる光の波長帯域が、第1の撮像素子S1が有する複数のカラーフィルターの赤カラーフィルターの透過波長帯域に対応している場合、第1の撮像素子S1によって取得される赤色画像信号が、第1の被写体像の画像信号となる。一方、第2のバンドパスフィルター10bが通過させる光の波長帯域が、第1の撮像素子S1が有する複数のカラーフィルターの緑カラーフィルターの透過波長帯域に対応している場合、第1の撮像素子S1によって取得される緑色画像信号が、第2の被写体像の画像信号となる。 For example, when the wavelength band of light passed by the first band-pass filter 10a corresponds to the transmission wavelength band of the red color filter of the plurality of color filters of the first imaging device S1, the first imaging device The red image signal acquired by S1 becomes the image signal of the first subject image. On the other hand, when the wavelength band of light passed by the second band-pass filter 10b corresponds to the transmission wavelength band of the green color filters of the plurality of color filters of the first imaging device S1, the first imaging device The green image signal acquired by S1 becomes the image signal of the second subject image.

このような態様により、撮像部Sを、第1の光学系OS1によって形成される第1の被写体像および第2の光学系OS2によって形成される第2の被写体像の双方を撮像する単一のカラー撮像素子(第1の撮像素子S1)で構成することができる。そのため、測距カメラ1の小型化および低コスト化を実現することができる。 With such an aspect, the imaging unit S is a single unit that captures both the first object image formed by the first optical system OS1 and the second object image formed by the second optical system OS2. It can be configured with a color image pickup device (first image pickup device S1). Therefore, it is possible to reduce the size and cost of the ranging camera 1 .

<第4実施形態>
次に、図8を参照して、本発明の第4実施形態に係る測距カメラ1について詳述する。図8は、本発明の第4実施形態に係る測距カメラを概略的に示すブロック図である。
<Fourth Embodiment>
Next, referring to FIG. 8, the distance measuring camera 1 according to the fourth embodiment of the present invention will be described in detail. FIG. 8 is a block diagram schematically showing a ranging camera according to a fourth embodiment of the invention.

以下、第4実施形態の測距カメラ1について、第3実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。第4実施形態の測距カメラ1では、第1のバンドパスフィルター10aおよび第2のバンドパスフィルター10bが省略されている点、第1のシャッター13aおよび第2のシャッター13bが筐体内に設けられている点、および第1の撮像素子S1がカラー撮像素子に限定されない点を除き、第3実施形態の測距カメラ1と同様である。 In the following, the distance measuring camera 1 of the fourth embodiment will be described with a focus on the differences from the distance measuring camera 1 of the third embodiment, and the description of the same items will be omitted. In the distance measuring camera 1 of the fourth embodiment, the first bandpass filter 10a and the second bandpass filter 10b are omitted, and the first shutter 13a and the second shutter 13b are provided in the housing. and that the first image sensor S1 is not limited to a color image sensor.

図8に示すように、本実施形態では、第1の光学系OS1への被写体100からの光の入射を遮断する第1のシャッター13aおよび第2の光学系OS2への被写体100からの光の入射を遮断する第2のシャッター13bが筐体内に設けられている。第1のシャッター13aおよび第2のシャッター13bは、制御部2のプロセッサーによって制御され、制御部2のプロセッサーからの信号に応じて開閉する。第1のシャッター13aおよび第2のシャッター13bは、双方のいずれか一方のみが開かれるように制御され、同時に開かれることはない。 As shown in FIG. 8, in the present embodiment, a first shutter 13a for blocking light from the subject 100 entering the first optical system OS1 and a second shutter 13a for blocking light from the subject 100 to the second optical system OS2. A second shutter 13b for blocking the incidence is provided in the housing. The first shutter 13 a and the second shutter 13 b are controlled by the processor of the controller 2 and open and close according to signals from the processor of the controller 2 . The first shutter 13a and the second shutter 13b are controlled so that only one of them is opened, and they are not opened at the same time.

第1のシャッター13aが開かれると、被写体100からの光が第1の光学系OS1へ入射し、第1の撮像素子S1の撮像面上に第1の被写体像が形成される。この際、第1の撮像素子S1は、第1の被写体像の画像信号を取得し、制御部2や距離算出部4に第1の被写体像の画像信号を送る。 When the first shutter 13a is opened, light from the subject 100 enters the first optical system OS1, forming a first subject image on the imaging surface of the first image sensor S1. At this time, the first image pickup device S1 acquires the image signal of the first subject image and sends the image signal of the first subject image to the control section 2 and the distance calculation section 4 .

一方、第2のシャッター13bが開かれると、被写体100からの光が第2の光学系OS2へ入射し、ミラー11やプリズム12を介して、第1の撮像素子S1の撮像面上に第2の被写体像が形成される。この際、第1の撮像素子S1は、第2の被写体像の画像信号を取得し、制御部2や距離算出部4に第2の被写体像の画像信号を送る。 On the other hand, when the second shutter 13b is opened, the light from the subject 100 enters the second optical system OS2, passes through the mirror 11 and the prism 12, and is projected onto the imaging surface of the first image sensor S1 as the second light. is formed. At this time, the first image sensor S1 acquires the image signal of the second subject image and sends the image signal of the second subject image to the control section 2 and the distance calculation section 4. FIG.

このように、本実施形態においては、制御部2のプロセッサーによる制御によって、第1のシャッター13aおよび第2のシャッター13bのいずれか一方が開かれる。このような制御によって、測距カメラ1は、第1の被写体像の画像信号および第2の被写体像の画像信号を分離して取得することができる。 As described above, in the present embodiment, one of the first shutter 13a and the second shutter 13b is opened under the control of the processor of the controller 2 . Through such control, the ranging camera 1 can separate and acquire the image signal of the first subject image and the image signal of the second subject image.

また、本実施形態では、撮像部Sを、第1の光学系OS1によって形成される第1の被写体像および第2の光学系OS2によって形成される第2の被写体像の双方を撮像する単一の撮像素子(第1の撮像素子S1)で構成することができる。そのため、測距カメラ1の小型化および低コスト化を実現することができる。 Further, in this embodiment, the imaging unit S is a single unit for capturing both the first object image formed by the first optical system OS1 and the second object image formed by the second optical system OS2. image sensor (first image sensor S1). Therefore, it is possible to reduce the size and cost of the ranging camera 1 .

また、本実施形態では、前述の第3実施形態と異なり、第1の撮像素子S1は、白黒撮像素子であってもよい。白黒撮像素子を第1の撮像素子S1として用いることにより、測距カメラ1をより低コスト化することができる。 Moreover, in this embodiment, unlike the above-described third embodiment, the first image sensor S1 may be a black-and-white image sensor. By using a black-and-white imaging device as the first imaging device S1, the cost of the distance measuring camera 1 can be further reduced.

<第5実施形態>
次に、図9を参照して、本発明の第5実施形態に係る測距カメラ1について詳述する。図9は、本発明の第5実施形態に係る測距カメラを概略的に示すブロック図である。
<Fifth Embodiment>
Next, referring to FIG. 9, the distance measuring camera 1 according to the fifth embodiment of the present invention will be described in detail. FIG. 9 is a block diagram schematically showing a distance measuring camera according to a fifth embodiment of the invention.

以下、第5実施形態の測距カメラ1について、第1実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。本実施形態の測距カメラ1は、第1の光学系OS1および第2の光学系OS2の構成および配置が変更されている点を除き、第1実施形態の測距カメラ1と同様である。 In the following, the distance measuring camera 1 of the fifth embodiment will be described with a focus on the differences from the distance measuring camera 1 of the first embodiment, and the description of the same items will be omitted. The rangefinder camera 1 of this embodiment is the same as the rangefinder camera 1 of the first embodiment, except that the configuration and arrangement of the first optical system OS1 and the second optical system OS2 are changed.

図9に示すように、本実施形態の測距カメラ1は、像倍比MRに基づいて被写体100までの距離aを算出するために要求される上述の第1の条件および第2の条件の内、第1のレンズ駆動部AF1がフォーカス動作を実行していない初期状態における第1の光学系OS1の前側主点と、第2のレンズ駆動部AF2がフォーカス動作を実行していない初期状態における第2の光学系OS2の前側主点との間の奥行視差Dが存在している(D≠0)という第2の条件が満たされるよう、第1の光学系OS1および第2の光学系OS2が構成および配置されていることを特徴とする。一方、本実施形態では、第1の光学系OS1および第2の光学系OS2は、上述の第1の条件(f≠f)を満たすように構成されていない。さらに、本実施形態の測距カメラ1では、第1の光学系OS1および第2の光学系OS2が、上述の第3の条件および第4の条件が満たされるよう構成されている。 As shown in FIG. 9, the distance measuring camera 1 of the present embodiment has the first and second conditions required to calculate the distance a to the subject 100 based on the image magnification ratio MR. Among them, the front principal point of the first optical system OS1 in the initial state in which the first lens driving unit AF1 does not perform the focusing operation, and the initial state in which the second lens driving unit AF2 does not perform the focusing operation. The first optical system OS1 and the second optical system OS2 are arranged so as to satisfy the second condition that there is a depth parallax D with the front principal point of the second optical system OS2 (D≠0). is configured and arranged. On the other hand, in this embodiment, the first optical system OS1 and the second optical system OS2 are not configured to satisfy the first condition (f 1 ≠f 2 ) described above. Furthermore, in the distance measuring camera 1 of the present embodiment, the first optical system OS1 and the second optical system OS2 are configured to satisfy the third and fourth conditions described above.

そのため、像倍比MRを用いて、第1の光学系OS1の前側主点から被写体100までの距離aを算出するための上記一般式(15)および(16)は、f=f=fの条件により単純化され、それぞれ、下記式(23)および(24)で表すことができる。 Therefore, the above general formulas (15) and (16) for calculating the distance a from the front principal point of the first optical system OS1 to the subject 100 using the image magnification ratio MR are f 1 =f 2 = It is simplified by the condition of f and can be represented by the following equations (23) and (24), respectively.

Figure 2022128517000025
Figure 2022128517000025

Figure 2022128517000026
Figure 2022128517000026

なお、本実施形態では、f=f=fの条件から、第1の光学系OS1の焦点距離fと第2の光学系OS2の焦点距離fとの間の関係が、上記(1)の条件分けであるf≦fを必然的に満たすので、上記式(23)で表される解が距離aとして適当となる。そのため、上記式(23)で表される解が被写体100までの距離aとして用いられる。 In this embodiment, from the condition f 1 =f 2 =f, the relationship between the focal length f 1 of the first optical system OS1 and the focal length f 2 of the second optical system OS2 is the above ( Since the conditional expression 1) f 2 ≤ f 1 is necessarily satisfied, the solution represented by the above equation (23) is suitable as the distance a. Therefore, the solution represented by the above equation (23) is used as the distance a to the subject 100. FIG.

このように、本実施形態の測距カメラ1では、第1のレンズ駆動部AF1がフォーカス動作を実行していない初期状態における第1の光学系OS1の前側主点と、第2のレンズ駆動部AF2がフォーカス動作を実行していない初期状態における第2の光学系OS2の前側主点との間の奥行視差Dが存在するよう(D≠0)、構成および配置されており、これにより、被写体100までの距離aに対する第1の被写体像の倍率mの変化と、被写体100までの距離aに対する第2の被写体像の倍率mの変化とが、互いに異なるようになっている。そのため、本実施形態の測距カメラ1は、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MR(m/m)に基づいて、被写体100までの距離aを一意に算出することができる。 As described above, in the distance measuring camera 1 of the present embodiment, the front principal point of the first optical system OS1 and the second lens driving section in the initial state in which the first lens driving section AF1 is not performing the focusing operation. It is constructed and arranged so that there is a depth parallax D between the front principal point of the second optical system OS2 and the front principal point of the second optical system OS2 in the initial state where the AF2 is not performing a focusing operation (D≠0). The change in the magnification m1 of the first object image with respect to the distance a to 100 and the change in the magnification m2 of the second object image with respect to the distance a to the object 100 are different from each other. Therefore, the distance measuring camera 1 of the present embodiment calculates the subject 100 based on the image magnification ratio MR (m 2 /m 1 ) between the magnification m 1 of the first subject image and the magnification m 2 of the second subject image. It is possible to uniquely calculate the distance a to .

本実施形態によっても、上述の第1実施形態と同様の効果を発揮することができる。なお、本実施形態における第1の光学系OS1の構成および第2の光学系OS2の構成および配置は、上述の第2の条件が満たされており、それにより、被写体100までの距離aに対する第1の被写体像の倍率mの変化と、被写体100までの距離aに対する第2の被写体像の倍率mの変化とが、互いに異なるようになっていれば、如何なる態様であってもよい。 This embodiment can also exhibit the same effect as the above-described first embodiment. Note that the configuration of the first optical system OS1 and the configuration and arrangement of the second optical system OS2 in this embodiment satisfy the second condition described above, thereby providing a Any mode may be used as long as the change in the magnification m1 of the first subject image and the change in the magnification m2 of the second subject image with respect to the distance a to the subject 100 are different from each other.

<第6実施形態>
次に、図10を参照して、本発明の第6実施形態に係る測距カメラ1について詳述する。図10は、本発明の第6実施形態に係る測距カメラを概略的に示すブロック図である。
<Sixth embodiment>
Next, with reference to FIG. 10, the distance measuring camera 1 according to the sixth embodiment of the present invention will be described in detail. FIG. 10 is a block diagram schematically showing a ranging camera according to the sixth embodiment of the invention.

以下、第6実施形態の測距カメラ1について、第5実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。本実施形態の測距カメラ1と第5実施形態の測距カメラ1との相違点は、上述した第2実施形態の測距カメラ1と第1実施形態の測距カメラ1との相違点と同様である。すなわち、第6実施形態の測距カメラ1では、第1の光学系OS1によって撮像部Sの第1の撮像素子S1の撮像面上に集光される光の光路上に第1のバンドパスフィルター10aが配置され、さらに、第2の光学系OS2によって撮像部Sの第2の撮像素子S2の撮像面上に集光される光の光路上に第2のバンドパスフィルター10bが配置されている点を除き、第5実施形態の測距カメラ1と同様である。 In the following, the distance measuring camera 1 of the sixth embodiment will be described with a focus on the differences from the distance measuring camera 1 of the fifth embodiment, and the description of the same items will be omitted. The difference between the rangefinder camera 1 of the present embodiment and the rangefinder camera 1 of the fifth embodiment is the difference between the rangefinder camera 1 of the second embodiment and the rangefinder camera 1 of the first embodiment. It is the same. That is, in the distance measuring camera 1 of the sixth embodiment, the first band-pass filter is placed on the optical path of the light condensed on the imaging surface of the first imaging element S1 of the imaging unit S by the first optical system OS1. 10a is arranged, and a second bandpass filter 10b is arranged on the optical path of light condensed on the imaging surface of the second imaging device S2 of the imaging unit S by the second optical system OS2. It is the same as the distance measuring camera 1 of the fifth embodiment except for one point.

図10に示すように、第2実施形態と同様に、第1のバンドパスフィルター10aは、第1の光学系OS1によって第1の撮像素子S1の撮像面上に集光される被写体100からの光のうち、特定の波長帯域の光のみを通過させる。第2のバンドパスフィルター10bは、第2の光学系OS2によって第2の撮像素子S2の撮像面上に集光される被写体100からの光のうち、特定の波長帯域の光のみを通過させる。また、第1のバンドパスフィルター10aが通過させる光の波長帯域は、第2のバンドパスフィルター10bが通過させる光の波長帯域とは異なっている。そのため、第1の撮像素子S1および第2の撮像素子S2は、それぞれ異なる波長帯域の光を受光することができる。 As shown in FIG. 10, similarly to the second embodiment, the first band-pass filter 10a is configured to filter light from an object 100 condensed onto the imaging surface of the first image sensor S1 by the first optical system OS1. Only light in a specific wavelength band is allowed to pass through. The second bandpass filter 10b passes only light in a specific wavelength band among the light from the object 100 condensed on the imaging surface of the second imaging element S2 by the second optical system OS2. Also, the wavelength band of light passed by the first band-pass filter 10a is different from the wavelength band of light passed by the second band-pass filter 10b. Therefore, the first imaging element S1 and the second imaging element S2 can receive light in different wavelength bands.

このように、第2実施形態と同様に、本実施形態では、第1の撮像素子S1および第2の撮像素子S2は、それぞれ異なる波長帯域の光を受光することができるので、異なる波長帯域の光によって形成された2つの画像信号(第1の被写体像の画像信号と第2の被写体像の画像信号)を同時取得することができる。そのため、異なる波長帯域の光によって形成された複数の画像信号を用いることが有用な用途、例えば、虹彩認証システムや車載カメラの暗視野乗員状態検知システムに測距カメラ1を用いることができる。 As described above, in the present embodiment, as in the second embodiment, the first image sensor S1 and the second image sensor S2 can receive light in different wavelength bands, respectively. Two image signals (the image signal of the first subject image and the image signal of the second subject image) formed by light can be obtained simultaneously. Therefore, the distance measuring camera 1 can be used in applications where it is useful to use a plurality of image signals formed by light of different wavelength bands, such as an iris authentication system and a dark field occupant state detection system for an on-vehicle camera.

また、第2実施形態と同様に、本実施形態では、異なる波長帯域の光によって形成された2つの画像信号を取得するために、異なる波長帯域の光を発する複数の光源を用いる必要がない。そのため、上述のような異なる波長帯域の光によって形成された複数の画像信号を用いることが有用な用途で測距カメラ1を用いる場合でも、測距カメラ1の小型化および低コスト化が可能である。 Also, as in the second embodiment, in this embodiment, there is no need to use a plurality of light sources emitting light in different wavelength bands in order to acquire two image signals formed by light in different wavelength bands. Therefore, even when the distance measuring camera 1 is used in applications where it is useful to use a plurality of image signals formed by light of different wavelength bands as described above, the distance measuring camera 1 can be made smaller and less expensive. be.

<第7実施形態>
次に、図11を参照して、本発明の第7実施形態に係る測距カメラ1について詳述する。図11は、本発明の第7実施形態に係る測距カメラを概略的に示すブロック図である。
<Seventh embodiment>
Next, with reference to FIG. 11, the distance measuring camera 1 according to the seventh embodiment of the present invention will be described in detail. FIG. 11 is a block diagram schematically showing a ranging camera according to a seventh embodiment of the invention.

以下、第7実施形態の測距カメラ1について、第6実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。本実施形態の測距カメラ1と第6実施形態の測距カメラ1との相違点は、上述した第3実施形態の測距カメラ1と第2実施形態の測距カメラ1との相違点と同様である。すなわち、第7実施形態の測距カメラ1では、撮像部Sが第1の撮像素子S1のみから構成されている点、第1の光学系OS1、第2の光学系OS2、第1のレンズ駆動部AF1、第2のレンズ駆動部AF2、第1のバンドパスフィルター10a、第2のバンドパスフィルター10b、および第1の撮像素子S1が同一の筐体内に設けられている点、該筐体内にミラー11とプリズム12が設けられている点、および第1の撮像素子S1がカラー撮像素子に限定される点を除き、第6実施形態の測距カメラ1と同様である。 In the following, the distance measuring camera 1 of the seventh embodiment will be described with a focus on the differences from the distance measuring camera 1 of the sixth embodiment, and the description of the same items will be omitted. The difference between the rangefinder camera 1 of the present embodiment and the rangefinder camera 1 of the sixth embodiment is the difference between the rangefinder camera 1 of the third embodiment and the rangefinder camera 1 of the second embodiment. It is the same. That is, in the distance measuring camera 1 of the seventh embodiment, the imaging section S is composed only of the first imaging element S1, the first optical system OS1, the second optical system OS2, and the first lens drive The part AF1, the second lens driving part AF2, the first bandpass filter 10a, the second bandpass filter 10b, and the first image sensor S1 are provided in the same housing. It is the same as the distance measuring camera 1 of the sixth embodiment except that a mirror 11 and a prism 12 are provided and the first image sensor S1 is limited to a color image sensor.

図11に示すように、第3実施形態と同様に、第1の光学系OS1、第2の光学系OS2、第1のレンズ駆動部AF1、第2のレンズ駆動部AF2、第1のバンドパスフィルター10a、第2のバンドパスフィルター10b、および第1の撮像素子S1が同一の筐体内に設けられている。また、第2の光学系OS2によって集光される光の光路上には、ミラー11およびプリズム12が配置されている。第2のバンドパスフィルター10bを通過し、第2の光学系OS2によって集光された光は、ミラー11およびプリズム12を通過し、第1の撮像素子S1の撮像面上で結像する。これにより、第2の被写体像が、第1の撮像素子S1の撮像面上に形成される。 As shown in FIG. 11, similarly to the third embodiment, a first optical system OS1, a second optical system OS2, a first lens driving unit AF1, a second lens driving unit AF2, a first band pass A filter 10a, a second bandpass filter 10b, and a first imaging element S1 are provided in the same housing. A mirror 11 and a prism 12 are arranged on the optical path of the light condensed by the second optical system OS2. Light passing through the second bandpass filter 10b and condensed by the second optical system OS2 passes through the mirror 11 and the prism 12 and forms an image on the imaging surface of the first imaging element S1. As a result, a second subject image is formed on the imaging surface of the first imaging element S1.

また、第3実施形態と同様に、第1の撮像素子S1は、ベイヤー配列のような任意のパターンで配列されたRGB原色系カラーフィルターやCMY補色系カラーフィルターのようなカラーフィルターを有するカラー撮像素子である。第1のバンドパスフィルター10aが通過させる光の波長帯域は、第1の撮像素子S1が有する複数のカラーフィルターのいずれか1つに対応しており、第2のバンドパスフィルター10bが通過させる光の波長帯域は、第1の撮像素子S1が有する複数のカラーフィルターの異なる1つに対応している。 Further, as in the third embodiment, the first image pickup device S1 has color filters such as RGB primary color filters and CMY complementary color filters arranged in an arbitrary pattern such as the Bayer array for color imaging. element. The wavelength band of the light passed by the first bandpass filter 10a corresponds to any one of the plurality of color filters of the first imaging element S1, and the light passed by the second bandpass filter 10b corresponds to a different one of the plurality of color filters of the first imaging element S1.

これにより、第1の撮像素子S1によって取得される各カラーフィルターに対応する画像信号(例えば、赤色画像信号、緑色画像信号、および青色画像信号)のいずれか1つが、第1の被写体像の画像信号に対応し、異なる1つが第2の被写体像の画像信号に対応する。そのため、第1の撮像素子S1は、第1の被写体像の画像信号と第2の被写体像の画像信号を分離して同時取得することができる。 As a result, any one of the image signals (for example, red image signal, green image signal, and blue image signal) corresponding to each color filter acquired by the first image sensor S1 is the image of the first subject image. A different one corresponds to the image signal of the second object image. Therefore, the first image sensor S1 can separate and simultaneously acquire the image signal of the first subject image and the image signal of the second subject image.

<第8実施形態>
次に、図12を参照して、本発明の第8実施形態に係る測距カメラ1について詳述する。図12は、本発明の第8実施形態に係る測距カメラを概略的に示すブロック図である。
<Eighth embodiment>
Next, with reference to FIG. 12, the distance measuring camera 1 according to the eighth embodiment of the present invention will be described in detail. FIG. 12 is a block diagram schematically showing a distance measuring camera according to an eighth embodiment of the invention.

以下、第8実施形態の測距カメラ1について、第7実施形態の測距カメラ1との相違点を中心に説明し、同様の事項については、その説明を省略する。本実施形態の測距カメラ1と第7実施形態の測距カメラ1との相違点は、上述した第4実施形態の測距カメラ1と第3実施形態の測距カメラ1との相違点と同様である。すなわち、第8実施形態の測距カメラ1では、第1のバンドパスフィルター10aおよび第2のバンドパスフィルター10bが省略されている点、第1のシャッター13aおよび第2のシャッター13bが筐体内に設けられている点、および第1の撮像素子S1がカラー撮像素子に限定されない点を除き、第7実施形態の測距カメラ1と同様である。 In the following, the distance measuring camera 1 of the eighth embodiment will be described with a focus on the differences from the distance measuring camera 1 of the seventh embodiment, and the description of the same items will be omitted. The difference between the distance measuring camera 1 of the present embodiment and the distance measuring camera 1 of the seventh embodiment is the difference between the distance measuring camera 1 of the fourth embodiment and the distance measuring camera 1 of the third embodiment. It is the same. That is, in the ranging camera 1 of the eighth embodiment, the first bandpass filter 10a and the second bandpass filter 10b are omitted, and the first shutter 13a and the second shutter 13b are provided inside the housing. It is the same as the distance measuring camera 1 of the seventh embodiment except that it is provided and that the first image sensor S1 is not limited to a color image sensor.

図12に示すように、第4実施形態と同様に、本実施形態の測距カメラ1では、第1の光学系OS1の前面側(被写体100側)に、第1の光学系OS1への被写体100からの光の入射を遮断する第1のシャッター13aが配置され、第2の光学系OS2の前面側に、第2の光学系OS2への被写体100からの光の入射を遮断する第2のシャッター13bが配置されている。 As shown in FIG. 12, similarly to the fourth embodiment, in the distance measuring camera 1 of the present embodiment, the front side (subject 100 side) of the first optical system OS1 is provided with the subject toward the first optical system OS1. A first shutter 13a for blocking the incidence of light from the object 100 is arranged, and a second shutter 13a for blocking the incidence of light from the object 100 to the second optical system OS2 is arranged on the front side of the second optical system OS2. A shutter 13b is arranged.

第1のシャッター13aおよび第2のシャッター13bは、上述した第4実施形態と同様の動作を行うので、測距カメラ1は、単一の撮像素子(第1の撮像素子S1)のみを用いて、第1の被写体像の画像信号および第2の被写体像の画像信号を分離して取得することができる。 Since the first shutter 13a and the second shutter 13b operate in the same manner as in the above-described fourth embodiment, the distance measuring camera 1 uses only a single image pickup device (first image pickup device S1). , the image signal of the first object image and the image signal of the second object image can be obtained separately.

このように、第4実施形態と同様に、本実施形態では、撮像部Sを、第1の光学系OS1によって形成される第1の被写体像および第2の光学系OS2によって形成される第2の被写体像の双方を撮像する単一の撮像素子(第1の撮像素子S1)で構成することができる。そのため、測距カメラ1の小型化および低コスト化を実現することができる。 As described above, in the present embodiment, similarly to the fourth embodiment, the imaging unit S is composed of the first object image formed by the first optical system OS1 and the second object image formed by the second optical system OS2. can be configured with a single image sensor (first image sensor S1) that captures both of the subject images. Therefore, it is possible to reduce the size and cost of the ranging camera 1 .

ここまで各実施形態を参照して詳述したように、本発明の測距カメラ1は、複数の画像間の並進視差を用いず、かつ、被写体への一定パターンの照射を行わずに、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MR(m/m)に基づいて、被写体100までの距離aを一意に算出することができる。 As described in detail with reference to each embodiment, the distance measuring camera 1 of the present invention does not use translational parallax between a plurality of images and does not irradiate a subject with a fixed pattern. The distance a to the subject 100 can be uniquely calculated based on the image magnification ratio MR (m 2 /m 1 ) between the magnification m 1 of the first subject image and the magnification m 2 of the second subject image.

そのため、本発明の測距カメラ1では、従来の複数の画像間の並進視差を用いたステレオカメラ方式の測距カメラと異なり、大きな並進視差を確保する必要がないため、第1の光学系OS1および第2の光学系OS2を近接して配置しても、被写体100までの距離aを正確に算出することができる。これにより、従来のステレオカメラ方式の測距カメラと比較して、測距カメラ1の小型化を実現することができる。また、並進視差を考慮して測距カメラ1を設計する必要がなくなるため、測距カメラ1の設計の自由度を増大させることができる。 Therefore, in the ranging camera 1 of the present invention, unlike a conventional stereo camera type ranging camera using translational parallax between a plurality of images, it is not necessary to secure a large translational parallax. and the second optical system OS2 are arranged close to each other, the distance a to the subject 100 can be calculated accurately. This makes it possible to reduce the size of the distance measuring camera 1 as compared with a conventional stereo camera type distance measuring camera. Moreover, since it is not necessary to design the ranging camera 1 in consideration of translational parallax, the degree of freedom in designing the ranging camera 1 can be increased.

また、本発明の測距カメラ1では、パターン照射方式の測距カメラと異なり、一定パターンの光を被写体に照射するプロジェクター等の特殊な光源を用いる必要がない。そのため、測距カメラ1のシステム構成をシンプルにすることができる。これにより、従来のパターン照射方式の測距カメラと比較して、測距カメラ1の小型化、低消費電力化、および低コスト化を実現することができる。 Further, unlike a pattern irradiation type rangefinder camera, the rangefinder camera 1 of the present invention does not need to use a special light source such as a projector that irradiates a subject with light of a predetermined pattern. Therefore, the system configuration of the ranging camera 1 can be simplified. This makes it possible to reduce the size, power consumption, and cost of the ranging camera 1 as compared with a conventional ranging camera of the pattern irradiation method.

なお、上記各実施形態では、第1の光学系OS1および第2の光学系OS2の2つの光学系が用いられているが、用いられる光学系の数はこれに限られない。例えば、第1の光学系OS1および第2の光学系OS2に加え、追加的な光学系をさらに備えるような態様もまた本発明の範囲内である。この場合、追加的な光学系は、追加的な光学系によって形成される被写体像の倍率の被写体100までの距離aに対する変化は、第1の被写体像の倍率mの被写体までの距離aに対する変化および第2の被写体像の倍率mの被写体までの距離aに対する変化と異なるように構成および配置されている。 Although two optical systems, the first optical system OS1 and the second optical system OS2, are used in each of the above-described embodiments, the number of optical systems used is not limited to this. For example, in addition to the first optical system OS1 and the second optical system OS2, an aspect further comprising an additional optical system is also within the scope of the present invention. In this case, the additional optical system is such that the change in the magnification of the object image formed by the additional optical system with respect to the distance a to the object 100 is the magnification m of the first object image with respect to the distance a to the object It is constructed and arranged to differ from the change and the change with respect to the distance a to the object of the magnification m2 of the second object image.

また、上述した各実施形態は、像倍比MRに基づいて被写体100までの距離aを算出するために要求される上述の第1の条件および第2の条件の内のいずれか1つ、第3の条件、および第4の条件を満たすよう第1の光学系OS1および第2の光学系OS2が構成および配置されているが、上述の第1の条件~第4の条件の全てが満たされるように、第1の光学系OS1および第2の光学系OS2が構成および配置されている態様(例えば、図1に示すような第1の光学系OS1および第2の光学系OS2の構成および配置)も、本発明の範囲内である。 Further, in each of the above-described embodiments, any one of the above-described first condition and second condition required for calculating the distance a to the subject 100 based on the image magnification ratio MR; The first optical system OS1 and the second optical system OS2 are configured and arranged so as to satisfy conditions 3 and 4, and all of the above-described first to fourth conditions are satisfied. , the configuration and arrangement of the first optical system OS1 and the second optical system OS2 (for example, the configuration and arrangement of the first optical system OS1 and the second optical system OS2 as shown in FIG. ) are also within the scope of the present invention.

<測距方法>
次に図13を参照して、本発明の測距カメラ1によって実行される測距方法について説明する。図13は、本発明の測距カメラによって実行される測距方法を説明するためのフローチャートである。なお、以下に詳述する測距方法は、上述した本発明の第1~第8実施形態に係る測距カメラ1および測距カメラ1と同等の機能を有する任意の装置を用いて実行することができるが、説明のため、第1実施形態に係る測距カメラ1を用いて実行されるものとして説明する。
<Range measurement method>
Next, with reference to FIG. 13, the distance measuring method executed by the distance measuring camera 1 of the present invention will be described. FIG. 13 is a flow chart for explaining the ranging method executed by the ranging camera of the present invention. The distance measuring method described in detail below can be executed using the distance measuring camera 1 according to the above-described first to eighth embodiments of the present invention and any device having the same function as the distance measuring camera 1. However, for the sake of explanation, it is assumed that the distance measuring camera 1 according to the first embodiment is used.

図13に示す測距方法S100は、測距カメラ1の使用者が操作部7を用いて、被写体100までの距離aを測定するための操作を実行することにより開始される。工程S110において、制御部2のプロセッサーからの制御に応じて、第1のレンズ駆動部AF1が駆動され、被写体100に対してピントを合わせるための第1の光学系OS1のフォーカス動作が実行される。その後、撮像部Sの第1の撮像素子S1によって、第1の光学系OS1によって形成された第1の被写体像が撮像され、第1の被写体像の画像信号が取得される。第1の被写体像の画像信号は、データバス9を介して、制御部2や距離算出部4に送られる。工程S120において、距離算出部4は、受信した第1の被写体像の画像信号から、第1の被写体像のサイズ(像高または像幅)Yを算出する。 The distance measurement method S100 shown in FIG. 13 is started when the user of the distance measurement camera 1 uses the operation unit 7 to perform an operation for measuring the distance a to the object 100. FIG. In step S110, the first lens driving unit AF1 is driven under the control of the processor of the control unit 2, and the focusing operation of the first optical system OS1 for focusing on the object 100 is executed. . After that, the first image sensor S1 of the imaging unit S captures the first subject image formed by the first optical system OS1, and the image signal of the first subject image is acquired. An image signal of the first subject image is sent to the control section 2 and the distance calculation section 4 via the data bus 9 . In step S120, the distance calculator 4 calculates the size (image height or image width) Y1 of the first subject image from the received image signal of the first subject image.

一方、工程S130において、制御部2のプロセッサーからの制御に応じて、第2のレンズ駆動部AF2が駆動され、被写体100に対してピントを合わせるための第2の光学系OS2のフォーカス動作が実行される。その後、撮像部Sの第2の撮像素子S2によって、第2の光学系OS2によって形成された第2の被写体像が撮像され、第2の被写体像の画像信号が取得される。第2の被写体像の画像信号は、データバス9を介して、制御部2や距離算出部4に送られる。工程S140において、距離算出部4は、受信した第2の被写体像の画像信号から、第2の被写体像のサイズ(像高または像幅)Yを算出する。 On the other hand, in step S130, the second lens driving unit AF2 is driven according to the control from the processor of the control unit 2, and the focusing operation of the second optical system OS2 for focusing on the subject 100 is executed. be done. After that, the second image sensor S2 of the imaging unit S captures the second subject image formed by the second optical system OS2, and the image signal of the second subject image is obtained. An image signal of the second subject image is sent to the control section 2 and the distance calculation section 4 via the data bus 9 . In step S140, the distance calculator 4 calculates the size (image height or image width) Y2 of the second subject image from the received image signal of the second subject image.

なお、工程S110および工程S120における第1の被写体像の画像信号の取得と第1の被写体像のサイズYの算出は、工程S130および工程S140における第2の被写体像の画像信号の取得と第2の被写体像のサイズYの算出と同時に実行されてもよいし、別々に実行されてもよい。 The acquisition of the image signal of the first subject image and the calculation of the size Y1 of the first subject image in steps S110 and S120 are the same as the acquisition of the image signal of the second subject image in steps S130 and S140. It may be executed simultaneously with the calculation of the size Y2 of the two subject images, or may be executed separately.

第1の被写体像のサイズYおよび第2の被写体像のサイズYの双方が算出されると、処理は、工程S150に移行する。工程S150において、距離算出部4は、第1の被写体像のサイズYおよび第2の被写体像のサイズYから、上記式(18)MR=Y/Yに基づいて、第1の被写体像の倍率mと第2の被写体像の倍率mとの像倍比MRを算出する。 When both the size Y1 of the first subject image and the size Y2 of the second subject image are calculated, the process proceeds to step S150. In step S150, the distance calculation unit 4 calculates the first distance from the size Y1 of the first subject image and the size Y2 of the second subject image based on the above equation (18) MR = Y2/Y1. An image magnification ratio MR between the magnification m1 of the subject image and the magnification m2 of the second subject image is calculated.

次に、工程S160において、距離算出部4は、関連付情報記憶部3に保存されている関連付情報を参照し、算出した像倍比MRに基づいて、被写体100までの距離aを算出(特定)する。工程S160において被写体100までの距離aが算出されると、処理は、工程S170に移行する。 Next, in step S160, the distance calculation unit 4 refers to the association information stored in the association information storage unit 3, and calculates the distance a to the subject 100 based on the calculated image magnification ratio MR ( Identify. After the distance a to the subject 100 is calculated in step S160, the process proceeds to step S170.

工程S170において、3次元画像生成部5が、距離算出部4によって算出された被写体100までの距離aおよび撮像部Sが取得した被写体100の2次元画像(第1の被写体像の画像信号または第2の被写体像の画像信号)に基づいて、被写体100の3次元画像を生成する。その後、ここまでの工程において取得された被写体100の2次元画像、被写体100までの距離a、および/または被写体100の3次元画像が、表示部6に表示され、または通信部8によって外部デバイスに送信され、測距方法S100は終了する。 In step S170, the three-dimensional image generation unit 5 calculates the distance a to the subject 100 calculated by the distance calculation unit 4 and the two-dimensional image of the subject 100 acquired by the imaging unit S (the image signal of the first subject image or the first 2), a three-dimensional image of the subject 100 is generated. After that, the two-dimensional image of the subject 100, the distance a to the subject 100, and/or the three-dimensional image of the subject 100 acquired in the steps up to this point are displayed on the display unit 6, or sent to an external device by the communication unit 8. transmitted and the ranging method S100 ends.

以上、本発明の測距カメラを図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではない。本発明の各構成は、同様の機能を発揮し得る任意のものと置換することができ、あるいは、本発明の各構成に任意の構成のものを付加することができる。 Although the distance measuring camera of the present invention has been described above based on the illustrated embodiments, the present invention is not limited to this. Each configuration of the present invention can be replaced with any one capable of exhibiting a similar function, or any configuration can be added to each configuration of the present invention.

本発明の属する分野および技術における当業者であれば、本発明の原理、考え方、および範囲から有意に逸脱することなく、記述された本発明の測距カメラの構成の変更を実行可能であろうし、変更された構成を有する測距カメラもまた、本発明の範囲内である。 Those skilled in the art and technology to which the present invention pertains will be able to implement modifications in the described configuration of the inventive ranging camera without significantly departing from the principles, concepts and scope of the present invention. , ranging cameras with modified configurations are also within the scope of the present invention.

例えば、図4および図6~図12に示された測距カメラ1のコンポーネントの数や種類は、説明のための例示にすぎず、本発明は必ずしもこれに限られない。本発明の原理および意図から逸脱しない範囲において、任意のコンポーネントが追加若しくは組み合わされ、または任意のコンポーネントが削除された態様も、本発明の範囲内である。また、測距カメラ1の各コンポーネントは、ハードウェア的に実現されていてもよいし、ソフトウェア的に実現されていてもよいし、これらの組み合わせによって実現されていてもよい。 For example, the number and type of components of the ranging camera 1 shown in FIGS. 4 and 6 to 12 are merely examples for explanation, and the present invention is not necessarily limited thereto. Embodiments in which any components are added or combined, or any components are omitted, are within the scope of the present invention without departing from the principles and intent of the present invention. Further, each component of the distance measuring camera 1 may be implemented in hardware, software, or a combination thereof.

また、図13に示された測距方法S100の工程の数や種類は、説明のための例示にすぎず、本発明は必ずしもこれに限られない。本発明の原理および意図から逸脱しない範囲において、任意の工程が、任意の目的で追加若しくは組み合され、または、任意の工程が削除される態様も、本発明の範囲内である。 Also, the number and types of steps of the ranging method S100 shown in FIG. 13 are merely examples for explanation, and the present invention is not necessarily limited to this. It is also within the scope of the present invention that any step is added or combined for any purpose, or any step is deleted without departing from the principle and intent of the present invention.

<利用例>
本発明の測距カメラ1の利用例は特に限定されないが、例えば、被写体のポートレートを撮像するとともに、被写体の顔の3次元画像を取得するために、測距カメラ1を用いることができる。このような利用形態では、本発明の測距カメラ1をスマートフォンや携帯電話等のモバイルデバイス内に組み込むことが好ましい。
<Usage example>
Examples of use of the ranging camera 1 of the present invention are not particularly limited. In such a form of use, it is preferable to incorporate the distance measuring camera 1 of the present invention into a mobile device such as a smart phone or a mobile phone.

また、本発明の測距カメラ1は、精密機器の組み立てや検査のために用いられるハンドラーロボットにおいて利用することができる。測距カメラ1によれば、精密機器を組み立てる際に、ハンドラーロボット本体またはハンドラーロボットのアームから、精密機器または精密機器の部品までの距離を測定することができることから、ハンドラーロボットの把持部によって正確に部品を把持することができる。 Also, the distance measuring camera 1 of the present invention can be used in a handler robot used for assembling and inspecting precision equipment. According to the ranging camera 1, when assembling a precision device, the distance from the handler robot main body or the handler robot arm to the precision device or parts of the precision device can be measured. The part can be gripped to the

また、本発明の測距カメラ1によれば、被写体までの距離を測定することができることから、被写体の3次元情報を取得することができる。このような被写体の3次元情報は、3Dプリンターによる3次元構造体の作製に用いることができる。 Further, according to the distance measuring camera 1 of the present invention, it is possible to measure the distance to the subject, so that it is possible to obtain the three-dimensional information of the subject. Such three-dimensional information of an object can be used for producing a three-dimensional structure by a 3D printer.

また、自動車内において、本発明の測距カメラ1を利用することにより、自動車から歩行者や障害物等の任意の物体までの距離を測定することができる。算出された任意の物体までの距離に関する情報は、自動車の自動ブレーキシステムや自動運転に用いることができる。 Further, by using the distance measuring camera 1 of the present invention in an automobile, the distance from the automobile to any object such as a pedestrian or an obstacle can be measured. Information on the calculated distance to an arbitrary object can be used for automatic braking systems and automatic driving of automobiles.

1…測距カメラ 2…制御部 3…関連付情報記憶部 4…距離算出部 5…3次元画像生成部 6…表示部 7…操作部 8…通信部 9…データバス 10a…第1のバンドパスフィルター 10b…第2のバンドパスフィルター 11…ミラー 12…プリズム 13a…第1のシャッター 13b…第2のシャッター a…距離 A…距離 d…離間距離 D…奥行視差 f、f、f…焦点距離 m、m…倍率 OS1…第1の光学系 OS2…第2の光学系 L1…凸レンズ L2…凹レンズ S…撮像部 S1…第1の撮像素子 S2…第2の撮像素子 S100…測距方法 S110、S120、S130、S140、S150、S160、S170…工程 Δb、Δb…シフト量 100…被写体 AF1…第1のレンズ駆動部 AF2…第2のレンズ駆動部 IS1、IS2…撮像系 DESCRIPTION OF SYMBOLS 1... Ranging camera 2... Control part 3... Associated information storage part 4... Distance calculation part 5... Three-dimensional image generation part 6... Display part 7... Operation part 8... Communication part 9... Data bus 10a... First band Pass filter 10b... Second bandpass filter 11... Mirror 12... Prism 13a... First shutter 13b... Second shutter a... Distance A ... Distance d... Separation distance D... Depth parallax f, f1, f2... Focal length m 1 , m 2 Magnification OS1 First optical system OS2 Second optical system L1 Convex lens L2 Concave lens S Imaging unit S1 First image sensor S2 Second image sensor S100 Measurement Distance method S110, S120, S130, S140, S150, S160, S170 Steps Δb 1 , Δb 2 Shift amount 100 Subject AF1 First lens driving unit AF2 Second lens driving unit IS1, IS2 Imaging system

Claims (9)

被写体からの光を集光し、第1の被写体像を形成するための第1の光学系と、
前記被写体からの前記光を集光し、第2の被写体像を形成するための第2の光学系と、
前記第1の光学系によって形成された前記第1の被写体像および前記第2の光学系によって形成された前記第2の被写体像を撮像するための撮像部と、
前記撮像部によって撮像された前記第1の被写体像および前記第2の被写体像に基づいて、前記被写体までの距離を算出するための距離算出部と、
前記第1の光学系のフォーカス動作を実行するための第1のレンズ駆動部と、
前記第2の光学系のフォーカス動作を実行するための第2のレンズ駆動部と、を備え、
前記距離算出部は、前記第1の被写体像の倍率と前記第2の被写体像の倍率との像倍比に基づいて、前記被写体までの前記距離を算出し、
前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比は、前記被写体までの前記距離に応じて変化し、
前記第1の光学系および前記第2の光学系は、前記第1の光学系の焦点距離と、前記第2の光学系の焦点距離とが、互いに異なるよう構成されており、これにより、前記被写体までの前記距離に応じた前記第1の被写体像の前記倍率の変化が、前記被写体までの前記距離に応じた前記第2の被写体像の前記倍率の変化と異なるようになっていることを特徴とする測距カメラ。
a first optical system for condensing light from a subject and forming a first subject image;
a second optical system for condensing the light from the subject and forming a second subject image;
an imaging unit for capturing the first subject image formed by the first optical system and the second subject image formed by the second optical system;
a distance calculation unit for calculating a distance to the subject based on the first subject image and the second subject image captured by the imaging unit;
a first lens driving unit for performing a focusing operation of the first optical system;
a second lens driving unit for executing a focusing operation of the second optical system;
The distance calculation unit calculates the distance to the subject based on an image magnification ratio between the magnification of the first subject image and the magnification of the second subject image,
the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image varies according to the distance to the subject;
The first optical system and the second optical system are configured such that the focal length of the first optical system and the focal length of the second optical system are different from each other. A change in the magnification of the first subject image according to the distance to the subject is different from a change in the magnification of the second subject image according to the distance to the subject. A rangefinder camera characterized by:
前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比の値と、前記被写体までの距離との間には、一対一関係が成立している請求項1に記載の測距カメラ。 A one-to-one relationship is established between the value of the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image and the distance to the subject. 1. The distance measuring camera according to 1. 前記距離算出部は、少なくとも、
前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比と、
前記第1の光学系の前記焦点距離と、
前記第2の光学系の前記焦点距離と、を用いて、前記被写体までの前記距離を算出する請求項1または2に記載の測距カメラ。
The distance calculation unit is configured to at least
the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image;
the focal length of the first optical system;
3. The distance measuring camera according to claim 1, wherein the distance to the object is calculated using the focal length of the second optical system.
前記第1の光学系、前記第2の光学系、および前記撮像部は、前記第1のレンズ駆動部および前記第2のレンズ駆動部が前記フォーカス動作を実行していない初期状態において、無限遠にピントが合うように配置されており、
前記距離算出部は、さらに、前記初期状態における前記第1の光学系の前側主点と、前記初期状態における前記第2の光学系の前側主点との間に光軸方向の奥行視差を用いて、前記被写体までの前記距離を算出する請求項3に記載の測距カメラ。
The first optical system, the second optical system, and the imaging section are configured to be at infinity in an initial state in which the first lens driving section and the second lens driving section are not performing the focusing operation. It is arranged so that the focus is on the
The distance calculator further uses the depth parallax in the optical axis direction between the front principal point of the first optical system in the initial state and the front principal point of the second optical system in the initial state. 4. The distance measuring camera according to claim 3, wherein the distance to the subject is calculated by
被写体からの光を集光し、第1の被写体像を形成するための第1の光学系と、
前記被写体からの前記光を集光し、第2の被写体像を形成するための第2の光学系と、
前記第1の光学系によって形成された前記第1の被写体像および前記第2の光学系によって形成された前記第2の被写体像を撮像するための撮像部と、
前記撮像部によって撮像された前記第1の被写体像および前記第2の被写体像に基づいて、前記被写体までの距離を算出するための距離算出部と、を備え、
前記第1の被写体像の倍率と前記第2の被写体像の倍率との像倍比は、前記被写体までの前記距離に応じて変化し、
前記距離算出部は、少なくとも、
前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比と、
前記第1の光学系の焦点距離と、
前記第2の光学系の焦点距離と、を用いて、前記被写体までの前記距離を算出することを特徴とする測距カメラ。
a first optical system for condensing light from a subject and forming a first subject image;
a second optical system for condensing the light from the subject and forming a second subject image;
an imaging unit for capturing the first subject image formed by the first optical system and the second subject image formed by the second optical system;
a distance calculation unit for calculating a distance to the subject based on the first subject image and the second subject image captured by the imaging unit;
an image magnification ratio between the magnification of the first subject image and the magnification of the second subject image varies according to the distance to the subject;
The distance calculation unit is configured to at least
the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image;
a focal length of the first optical system;
and a focal length of the second optical system to calculate the distance to the object.
前記第1の光学系の前記焦点距離および前記第2の光学系の前記焦点距離は、互いに異なる請求項5に記載の測距カメラ。 6. The distance measuring camera according to claim 5, wherein said focal length of said first optical system and said focal length of said second optical system are different from each other. 前記第1の光学系のフォーカス動作を実行するための第1のレンズ駆動部と、前記第2の光学系のフォーカス動作を実行するための第2のレンズ駆動部と、をさらに備え、
前記第1の光学系、前記第2の光学系、および前記撮像部は、前記第1のレンズ駆動部および前記第2のレンズ駆動部が前記フォーカス動作を実行していない初期状態において、無限遠にピントが合うように配置されており、
前記距離算出部は、さらに、前記初期状態における前記第1の光学系の前側主点と、前記初期状態における前記第2の光学系の前側主点との間に光軸方向の奥行視差を用いて、前記被写体までの前記距離を算出する請求項5または6に記載の測距カメラ。
further comprising a first lens driving unit for executing the focusing operation of the first optical system, and a second lens driving unit for executing the focusing operation of the second optical system,
The first optical system, the second optical system, and the imaging section are configured to be at infinity in an initial state in which the first lens driving section and the second lens driving section are not performing the focusing operation. It is arranged so that the focus is on the
The distance calculator further uses the depth parallax in the optical axis direction between the front principal point of the first optical system in the initial state and the front principal point of the second optical system in the initial state. 7. The distance measuring camera according to claim 5, wherein the distance to the subject is calculated by
前記距離算出部は、下記式(1)または(2)を用いて、前記被写体までの前記距離を算出する請求項7に記載の測距カメラ。
Figure 2022128517000027
ここで、aは、前記被写体までの前記距離であり、MRは、前記像倍比であり、fは、前記第1の光学系の前記焦点距離であり、fは、前記第2の光学系の前記焦点距離であり、Dは、前記初期状態における前記第1の光学系の前記前側主点と、前記初期状態における前記第2の光学系の前記前側主点との間の前記光軸方向の前記奥行視差である。
8. The distance measuring camera according to claim 7, wherein the distance calculator calculates the distance to the subject using the following formula (1) or (2).
Figure 2022128517000027
Here, a is the distance to the subject, MR is the image magnification ratio, f1 is the focal length of the first optical system, and f2 is the second is the focal length of the optical system, and D is the light between the front principal point of the first optical system in the initial state and the front principal point of the second optical system in the initial state It is the depth parallax in the axial direction.
前記第1の被写体像の前記倍率と前記第2の被写体像の前記倍率との前記像倍比の値と、前記被写体までの距離との間には、一対一関係が成立している請求項5ないし8のいずれかに記載の測距カメラ。 A one-to-one relationship is established between the value of the image magnification ratio between the magnification of the first subject image and the magnification of the second subject image and the distance to the subject. 9. A ranging camera according to any one of 5 to 8.
JP2022108208A 2017-08-09 2022-07-05 ranging camera Active JP7288226B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017154278 2017-08-09
JP2017154278 2017-08-09
JP2018010035A JP7104296B2 (en) 2017-08-09 2018-01-24 Rangefinder camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018010035A Division JP7104296B2 (en) 2017-08-09 2018-01-24 Rangefinder camera

Publications (2)

Publication Number Publication Date
JP2022128517A true JP2022128517A (en) 2022-09-01
JP7288226B2 JP7288226B2 (en) 2023-06-07

Family

ID=61627136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022108208A Active JP7288226B2 (en) 2017-08-09 2022-07-05 ranging camera

Country Status (2)

Country Link
JP (1) JP7288226B2 (en)
WO (1) WO2019030957A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7104301B2 (en) 2018-03-19 2022-07-21 ミツミ電機株式会社 Rangefinder camera
SG10201902889VA (en) * 2019-03-29 2020-10-29 Nec Corp System and Method for Adaptively Constructing a Three-Dimensional Facial Model Based on Two or More Inputs of a Two- Dimensional Facial Image

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2095756C1 (en) * 1992-04-16 1997-11-10 Сергей Александрович Елманов Method of determination of distance to object by means of optical instrument
JP3200007B2 (en) 1996-03-26 2001-08-20 シャープ株式会社 Optical coupler and method of manufacturing the same
JP2001141422A (en) 1999-11-10 2001-05-25 Fuji Photo Film Co Ltd Image pickup device and image processor
RU2340872C1 (en) * 2007-05-02 2008-12-10 Институт мониторинга климатических и экологических систем Monostatic method of determining distance to object, its direction and speed
JP5966467B2 (en) 2012-03-15 2016-08-10 株式会社リコー Ranging device

Also Published As

Publication number Publication date
WO2019030957A1 (en) 2019-02-14
JP7288226B2 (en) 2023-06-07

Similar Documents

Publication Publication Date Title
JP6112824B2 (en) Image processing method and apparatus, and program.
JP6585006B2 (en) Imaging device and vehicle
JP7104296B2 (en) Rangefinder camera
JP7288226B2 (en) ranging camera
JP7104294B2 (en) Rangefinder camera
JP2007158825A (en) Image input device
JP2010128820A (en) Apparatus, method and program for processing three-dimensional image, and three-dimensional imaging apparatus
US9008412B2 (en) Image processing device, image processing method and recording medium for combining image data using depth and color information
US20170332067A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
CN111868474B (en) Distance measuring camera
JP2020174331A (en) Image capturing apparatus, image processing apparatus, control method, and program
JP7121269B2 (en) ranging camera
JP7328589B2 (en) ranging camera
JP7288227B2 (en) ranging camera
JP7256368B2 (en) ranging camera
WO2018235709A1 (en) Distance measuring camera and distance measurement method
JP2012022716A (en) Apparatus, method and program for processing three-dimensional image, and three-dimensional imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7288226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150