JPH0371104A - Range finder - Google Patents

Range finder

Info

Publication number
JPH0371104A
JPH0371104A JP1206896A JP20689689A JPH0371104A JP H0371104 A JPH0371104 A JP H0371104A JP 1206896 A JP1206896 A JP 1206896A JP 20689689 A JP20689689 A JP 20689689A JP H0371104 A JPH0371104 A JP H0371104A
Authority
JP
Japan
Prior art keywords
imaging
subject
image
spot light
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1206896A
Other languages
Japanese (ja)
Inventor
Hideaki Yoshida
英明 吉田
Takashi Shoji
隆 庄司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP1206896A priority Critical patent/JPH0371104A/en
Publication of JPH0371104A publication Critical patent/JPH0371104A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To effectively utilize an image pickup element for electronically picking up an object image and to highly accurately measure a range from an object by projecting spot light in the direction of the object to be picked up through an image pickup optical system lens on a position separated from the lens by a prescribed base length and detecting its reflected light image by the image pickup element. CONSTITUTION:The projection part 4 for projecting spot light to the object to be picked up through the image pickup optical system lens 1 is arranged on the position separated from the lens 1 by the prescribed base length (d). The projection part 4 consists of a light emitter 4a and a projection lens 4b for projecting light emitted from the light emitter 4a to the object as spot light and is driven by a projection part driver 5 to project the spot light to the object. The reflected light of the spot light which is reflected by the object is photodetected by the image pickup element 2 through the lens 1 and its picked-up signal is inputted to a system controller 6 through an illuminance detecting part 9 to calculate a range from the lens 1 up to the object.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は撮像光学系レンズを介して彼写体像を撮像する
ハの撮像素]′−を有効に利用して上記撮像光学系レン
ズから被写体までの距f4(撮像光学系レンズの黒点含
せに必′訝な被写体撮影距離)を測定する測距装置に関
する。
[Detailed Description of the Invention] [Industrial Field of Application] The present invention effectively utilizes the imaging element [C] which images a subject image through the imaging optical system lens. The present invention relates to a distance measuring device that measures a distance f4 to an object (an object photographing distance necessary for including a black spot on an imaging optical system lens).

[従来の拉術] 近H17、撮像光学系レンズの被写体に刊する自動黒点
合せ(AF、オートフォーカシング)の制御技術には目
覚ましいものがあり、銀塩フィルムを用いるスチルカメ
ラのみならず、撮像素子を用いて被写体を電子的に撮像
するビデオムービーカメラ□グにも数多く組み込まれる
ようになってきた。
[Conventional techniques] In recent years, the control technology of automatic black point alignment (AF, autofocusing) for the subject of the imaging optical system lens has been remarkable, and it has been applied not only to still cameras using silver halide film but also to image sensors. Many cameras have come to be incorporated into video movie cameras that electronically capture images of subjects.

この種のAF副制御、基本的には撮像光学系レンズから
被写体までの距離(被写体撮影距離)を、例えば三角測
量の原理に従って光学的に測定し、この測定された被写
体距離の情報に従って撮像光学系レンズの前記被写体に
対する合焦調節を行うものである。しかしてAF副制御
行うハの1illl IiU力式には、大別してアクテ
ィブ方式とパッシブ方式とかある。
This type of AF sub-control basically measures the distance from the imaging optical system lens to the subject (subject shooting distance) optically, for example, according to the principle of triangulation, and then uses the imaging optical system according to information on this measured subject distance. This is for adjusting the focus of the lens system on the subject. However, the 1illll IiU power method for performing AF sub-control can be roughly divided into active methods and passive methods.

アクティブ方式は赤外線光′:9の補助手段を用いて積
極的に被写体距離を計11111する方式であり、例え
ば所謂コンパクトカメラにおりるAF制御手段として多
く採用されている。この方式は、カメラ位置に所定の県
線長を隔てて設けられた一対の投光部と受光部とを用い
、上記投光部から被写体に向けて赤外線光を投射する。
The active method is a method of actively determining the total distance to the subject using an auxiliary means of infrared light, and is often used as an AF control means in, for example, so-called compact cameras. This method uses a pair of light projecting section and light receiving section that are provided at the camera position with a predetermined prefectural line length apart, and projects infrared light from the light projecting section toward the subject.

そして被写体に投射された赤外線光の反則光を−に記受
光部にて受光検知し、この受光部上での反射光の受光位
置を氷める。しかしてこの受光部上での反射光の受光位
置は、被写体までの距離に応じて」−記基線艮方向に変
位することから、前記反射光の受光検知位置の情報と前
記投光部と受光部との距離(所定の基線長)に従い、二
角1fll+量法の原理に従って被写体距離を計測する
ものである。
Then, the reflected light of the infrared light projected onto the subject is detected by the light receiving section, and the receiving position of the reflected light on the light receiving section is frozen. However, since the light receiving position of the reflected light on the light receiving part of the lever is displaced in the direction of the base line according to the distance to the subject, information on the light receiving detection position of the reflected light and the light emitting part and the light receiving part are The distance to the subject is measured according to the principle of the two-angle 1fll+quantization method according to the distance to the object (predetermined base line length).

しかしこのアクティブ方式にあっては、−船釣には投光
部と受光部とをその撮像光学系とは別個に設けるので、
これらの投光部と受光部を何処に設けるかと云うカメラ
・デザイン上の制約を受けやすい。しかも受光部として
用いられる一般的なラインセンサに対する種々の制約か
ら、そのflll+距性能を高性能にも限界がある。
However, in this active method, - For boat fishing, the light emitting part and the light receiving part are provided separately from the imaging optical system.
Camera design is likely to be restricted in terms of where these light projecting sections and light receiving sections are provided. Moreover, due to various restrictions on a general line sensor used as a light receiving section, there is a limit to its full+range performance and high performance.

これに対してパッシブ方式は、基本的には異なった光学
系にてそれぞれ検出される被写体像の相関が、その被写
体距離によって変化することを利用して被写体距離を計
測するもので、例えば−眼しフレックスカメラ′:9゛
に多く採用されている。この方式は、例えば撮像光学系
レンズの中心を外れた位置を介する被写体像をそれぞれ
検出する為の複数の測距用光学系を構成し、これらの各
測距用光学系にてそれぞれ検出される被写体像の相関、
例えば注目点の位相差(ずれ)から被写体距離を計測す
るようにして実現される。またAF制御系と連動させ、
上記各測距用光学系にてそれぞれ検出される上記被写体
像間の位相的なずれが無くなるように撮像光学系レンズ
を進退駆動し、その金魚調節を行うように構成される。
On the other hand, the passive method basically measures the object distance by utilizing the fact that the correlation between the object images detected by different optical systems changes depending on the object distance. Flex camera': This is often used in 9-inch cameras. In this method, for example, a plurality of distance measuring optical systems are configured to respectively detect the subject image through a position off the center of the imaging optical system lens, and each of these distance measuring optical systems detects the object image. Correlation of subject images,
For example, this is realized by measuring the object distance from the phase difference (shift) of the point of interest. Also, in conjunction with the AF control system,
The lens of the imaging optical system is moved forward and backward so that the lens of the imaging optical system is adjusted so as to eliminate the phase shift between the subject images detected by each of the distance measuring optical systems.

ところが上述したパッシブ方式にあっては、被写体の性
質によっては被写体像間の相関、具体的には画像間の位
相的なずれか検出し難いことか多々ある。特に被写体輝
度が低く、所y7被写体か賠いような場合には被写体像
自体を高感度に検出することが難しくなるので、被写体
像間の相関を求めることが非常に困難となる等の問題が
ある。しかも−船釣には、撮像光学系レンズの中心を外
れた位置を介する被写体像をそれぞれ検出する為の複数
の測距用光学系を構成する必要がある為、その光学系が
複雑化することが否めない。
However, in the above-mentioned passive method, depending on the nature of the subject, it is often difficult to detect the correlation between the subject images, specifically, the phase shift between the images. In particular, when the subject brightness is low and the subject image is distorted, it becomes difficult to detect the subject image itself with high sensitivity, which causes problems such as it becomes extremely difficult to find the correlation between the subject images. be. Moreover, for boat fishing, it is necessary to configure multiple ranging optical systems to detect each object image through a position off the center of the imaging optical system lens, which makes the optical system complicated. I can't deny it.

ところで最近、CCD等の固体撮像素子を用いて被写体
像を電子的に撮像し、その電子スチル画像をフロッピー
ディスク等の記録媒体に記録し、これをTV受像機等を
用いて画像再生する電子スチルカメラが注目されている
。しかしてこの種の電子スチルカメラにAF制御機構を
組み込む場合、例えば上述した固体撮像素子と云う解像
度の高い受光部を備えていることから、これを前述した
測距用素子として用いてアクティブ方式、またはパッシ
ブ方式の測距装置を実現することが考えられる。
Incidentally, recently, electronic still images have been developed in which a subject image is electronically captured using a solid-state image sensor such as a CCD, the electronic still image is recorded on a recording medium such as a floppy disk, and the image is reproduced using a TV receiver or the like. Cameras are attracting attention. However, when incorporating an AF control mechanism into this type of electronic still camera, since it is equipped with a high-resolution light-receiving section, such as the solid-state image sensor mentioned above, it is used as the above-mentioned distance measuring element, and an active method is used. Alternatively, it is possible to realize a passive distance measuring device.

しかじ被写体撮像用の固体撮像索子を11Pj距用の受
光部として利用して被写体距離を=1測するには、例え
ば固体撮像素子の受光面に被写体像を結像する為の撮像
光学系レンズの光学的な状態(性質)によってその測距
条件が変化するので、幾つかのjll決ずべき課題か残
されている。例えば上記固体撮像索子を用いてパッシブ
方式の測距装置を実現しようとした場合、固体撮像索子
の撮像−領域をどのようにして複数の領域に分割し、こ
れらの各分割領域にどのようにして被写体像をそれぞれ
結像させるかと云う光学的な問題か生じる。しかもこの
ような光学系をその撮像光学系にどのようにして組み込
むかと云う問題もある。
In order to measure the object distance by using a solid-state imaging probe for imaging a subject as a light-receiving section for 11Pj distance, for example, an imaging optical system is required to form an object image on the light-receiving surface of a solid-state image sensor. Since the distance measurement conditions change depending on the optical state (properties) of the lens, there are still several issues that need to be resolved. For example, when trying to realize a passive distance measuring device using the above-mentioned solid-state imaging probe, how should the imaging area of the solid-state imaging probe be divided into multiple regions, and what should be done for each of these divided regions? There arises an optical problem of how to form the respective subject images. Moreover, there is also the problem of how to incorporate such an optical system into the imaging optical system.

また上述した固体撮像素子を用いてアクティブ方式の測
距装置を実現しようとした場合、撮像光学系レンズの設
定状態(フォーカシング位置やズーム倍率等)により被
写体による反射光の撮像面上における結像位置やそのず
れ量か大幅に食化するので、これを如何に補正して被写
体距離を正確に求めるかと云う問題がある。しかもその
撮像面領域が大きいので、被写体により反射された測距
用の光のみならす、被写体やその周囲の光成分も上記撮
像素子にて撮像入力されるので、これらの雑音成分を如
何にして排除して正確な測距を行うかと云う問題も残さ
れている。
Furthermore, when attempting to realize an active distance measuring device using the above-mentioned solid-state image sensor, the imaging position of the light reflected by the subject on the imaging surface depends on the settings of the imaging optical system lens (focusing position, zoom magnification, etc.). Since the distance and the amount of deviation thereof are greatly reduced, there is a problem of how to correct this and obtain the subject distance accurately. Moreover, since the imaging surface area is large, not only the distance measuring light reflected by the subject, but also the light components of the subject and its surroundings are captured and input into the image sensor, so how can these noise components be eliminated? There also remains the question of whether accurate distance measurement can be performed.

[発明が解決しようとする課題] このように撮像素子を用いて被写体を電子的に撮像する
電子スチルカメラにおいて、上記撮像素子を用いて被写
体距離を計i1+11する測距装置を実現しようとする
場合、例えばこの撮像素子の撮像面上に被写体像等を結
像する為の撮像光学系レンズの光学的な状態によってそ
の副化条件が大幅に変化する等の問題があり、これを如
何に克服するかと云う課題が残されている。
[Problems to be Solved by the Invention] In an electronic still camera that electronically images a subject using an image sensor as described above, when attempting to realize a distance measuring device that measures the distance to a subject using the image sensor. For example, there are problems such as the sub-conditions changing significantly depending on the optical condition of the imaging optical system lens for forming a subject image etc. on the imaging surface of this imaging device, and how can this be overcome? There are some issues that remain.

本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、被写体像を電子的に撮像する撮
像素子をを効に活用して被写体距離を高精度にm11定
することのできる実用性の高い0 測距装置を堤供することにある。
The present invention has been made in consideration of these circumstances, and its purpose is to determine the subject distance with high accuracy m11 by effectively utilizing an image sensor that electronically captures the subject image. The objective is to provide a highly practical zero distance measuring device that can be used to

[課題を角牟決するための手段] 本発明に係る1illl k’li装置は、撮像素子の
撮像面上に被写体像を結像する為の撮像光学系レンズか
ら所定の基線長を隔てた位置に、前記撮像光学系1ノン
ズを介して撮像しようとする被写体に向けてスポット光
を投射し、その反射光を前記撮像光学系レンズを介して
前記撮像素子に入射させる為の段射部を設けた構成を右
し、 前記撮像素子による被写体の撮像動作に先立って前記撮
像光学系レンズを予め定められた所定の焦点位置に位置
決めし、このようにして所定の黒点位置に位置決めされ
た撮像光学系レンズを介して前記投創部から投I・jさ
れたスポット光の前記被写体による反射光像を前記撮像
素子にて検出するようにする。そして前記撮像素子の撮
像面上における前記スポット光像の結像位置を求め、こ
のスポット光像の結像位置の情報に槌って前記撮像光学
系レンズから前記被写体までのがし離を算出するように
したことを特徴とするものである。
[Means for Resolving the Problem] The 1illll k'li device according to the present invention is arranged at a position separated by a predetermined baseline length from the imaging optical system lens for forming a subject image on the imaging surface of the imaging element. , a step section is provided for projecting a spot light toward a subject to be imaged through the imaging optical system 1 lens and making the reflected light enter the imaging element through the imaging optical system lens. The imaging optical system lens is positioned at a predetermined focal position prior to the imaging operation of the subject by the imaging element, and the imaging optical system lens is thus positioned at a predetermined sunspot position. The imaging device detects a reflected light image of the spot light I/j projected from the projection part through the object. Then, the imaging position of the spot light image on the imaging surface of the imaging element is determined, and the separation distance from the imaging optical system lens to the subject is calculated based on the information on the imaging position of the spot light image. It is characterized by the following.

1] 具体的には、例えば予め既知なる少なくとも2つの撮影
距離の情報と、これらの各撮影距離において被写体によ
り反Jetされるスポット光の撮像面上における結像位
置の情報とをそれぞれ記憶しておき、これらの記憶情報
と撮影MIif4が未知なる被写体により反則されるス
ポット光像前記撮像山上での結像位置の情報とに徒って
上記披写体の撮影距離を三角4!lj量注のIに<理に
従って距離を算出するようにしたことを特徴とするもの
である。
1] Specifically, for example, information on at least two photographing distances that are known in advance, and information on the imaging position on the imaging surface of the spot light reflected by the subject at each of these photographing distances are stored respectively. Then, based on these stored information and the information on the imaging position of the spot light image on the imaging mountain where the shooting MIif4 is distorted by the unknown object, the shooting distance of the object is set to 4! The feature is that the distance is calculated according to the principle <I of lj quantity note.

また前記撮像光学系レンズが撮影倍率呵変型のもの、所
謂ズームレンズである場合には、前記撮像素子による被
写体の撮像動作に先立って前記撮像光学系レンズを予め
定められた所定の撮影倍率に設定した上で上述した被写
体距離の口側を行わせ、その後、その撮影倍率を元に戻
した後に前記撮像光学系レンズの被写体に文1する合焦
調節を行わせるようにしたことを特徴とするものである
Furthermore, if the imaging optical system lens is of a type with a variable imaging magnification, that is, a so-called zoom lens, the imaging optical system lens is set to a predetermined imaging magnification prior to the imaging operation of the subject by the imaging device. The invention is characterized in that the above-mentioned subject distance is adjusted to the mouth side, and after that, the photographing magnification is returned to the original value, and then the focus adjustment as described in sentence 1 is performed on the subject of the imaging optical system lens. It is something.

更には前記スポット光の被写体にょる反射光像の結像位
置を求めるに際しては、スポット光の照射時に前記撮像
素子から求められる光像と、スポ 2 ット光の非照射特に前記撮像素子から求められる光像と
の差成分を求めることで雑音成分を排除するようにし、
更に上記光像の差成分のレベルが所定の閾値に満だt(
いときには前記スポット光魚射による光像の撮像時間を
長く設定し直して前記光像の差成分を求めた上で、スポ
ット光の結像位置を求めるようにしたことを特徴とする
ものである。
Furthermore, when determining the imaging position of the reflected light image of the subject of the spot light, the optical image determined from the image pickup device when the spot light is irradiated and the light image determined from the image pickup device when the spot light is not irradiated are determined. The noise component is eliminated by finding the difference component from the optical image that is generated.
Furthermore, if the level of the difference component of the optical image is equal to or less than a predetermined threshold value t(
When the camera is not in use, the imaging time of the light image by the spot light beam is reset to a longer time to determine the difference component of the light image, and then the imaging position of the spot light is determined. .

[作 用] このように構成された本装置によれば、撮像光学系レン
ズを所定の光学的条件に設定した上で、上記撮像光学系
レンズから所定の基線長を隔てた位置に設けられる投剃
部より被写体に向けて投射したスポット光の上記被写体
による反射光像を上記撮像光学系レンズを介して撮像素
子にて受光検出するので、被写体による反射光の撮像素
子の受光面上での結像位置と被写体距離との間に所定の
関係を見出すことが61能となり、被写体撮像用の撮像
素子を右動に用いて被写体距離を計測することが可能と
なる。
[Function] According to the present device configured as described above, after setting the imaging optical system lens to a predetermined optical condition, the projection lens provided at a position separated from the imaging optical system lens by a predetermined baseline length is set. Since the reflected light image of the spot light projected from the shaving part towards the subject is received and detected by the image sensor through the imaging optical system lens, the light reflected by the subject is formed on the light receiving surface of the image sensor. It becomes possible to find a predetermined relationship between the image position and the subject distance, and it becomes possible to measure the subject distance by using the image sensor for photographing the subject for rightward movement.

また少なくとも2つの被写体距離が既知なる被] 3 写体からの反射スポット光像の受光面」二での結像位置
の情報と、被写体距離が未知なる計測対象とする被写体
からの反射スポット光像の上把受光而」二での結像位置
の情報とに従って被写体距離を計算するので、非常に簡
易に、且つ精度良く被写体距離を計測することか可能と
なる。しかもこのような演算手法を採用することにより
、例えば撮像光学系レンズの光学的性質に合わせてその
計Mす条件(撮影倍率等)を変えた場合でも、被写体距
離を粘度良く算出することか可能となる。
In addition, at least two objects whose distances are known] 3. Information on the image formation position on the light receiving surface of the reflected spot light image from the subject, and the reflected spot light image from the subject to be measured whose subject distance is unknown. Since the distance to the object is calculated according to the information on the image forming position in the upper grasp light and the second step, it is possible to measure the distance to the object very simply and with high precision. Moreover, by adopting such a calculation method, it is possible to calculate the subject distance with good viscosity even when the calculation conditions (shooting magnification, etc.) are changed depending on the optical properties of the imaging optical system lens. becomes.

更には本発明にあ、っては、被写体にスポット光を段、
!1.t L、たときの被写体光像と、スポット光を投
射しない場合の被写体光像との差成分を求めてスポット
光の結像位置を検出するので、被写体からの不要な光成
分を効果的に除去して被写体距離の計測に用いるスポッ
ト光成分だけを正確に受光検出し、受光面」二での結像
位置を正確に求めることができる。しかも上記差成分の
レベルが低い場合には、撮像時間を長くすることによっ
て被写体光像の撮像レベルを高め、これによって上記差
成分] 4 で示されるスポット光像を確実に検出するようにするの
で、その検出精度を十分に高めて被写体距離を計測する
ことが可能となる。
Furthermore, according to the present invention, a spot light is applied to the subject,
! 1. Since the imaging position of the spot light is detected by calculating the difference component between the light image of the subject when t L, and the light image of the subject when no spotlight is projected, unnecessary light components from the subject can be effectively removed. Only the spot light component that is removed and used for measuring the object distance can be accurately received and detected, and the imaging position on the light-receiving surface 2 can be accurately determined. Furthermore, when the level of the difference component is low, the imaging level of the subject light image is increased by increasing the imaging time, thereby ensuring that the spot light image represented by the difference component] 4 is detected. , it becomes possible to measure the object distance with sufficiently high detection accuracy.

[実施例] 以下、図面を参照して本発明の実施例に係るill距装
置について説明する。
[Example] Hereinafter, an ill distance device according to an example of the present invention will be described with reference to the drawings.

本発明に係る測距装置は、CCD等の撮像素子を用いて
被写体を電子的に撮像する電子スチルカメラに組み込ま
れるものであって、上記撮像素子(イメージヤ)を測距
用の受光部として用いて実現される。
The distance measuring device according to the present invention is incorporated into an electronic still camera that electronically images a subject using an image sensor such as a CCD, and the image sensor is used as a light receiving section for distance measurement. It is realized using

第1図は実施例に係る測距装置の概略構成を示す図で、
 1は撮像用の光学系レンズである。この撮像用光学系
レンズ1は被写体像を撮像素子(イメージヤ)2の撮像
面上に結像するするもので、被写体に対する焦点調整の
為のフォーカシングレンズ系(F系)と被写体撮影倍率
を可変する為のズーミングレンズ系(Z系)とを備えて
いる。
FIG. 1 is a diagram showing a schematic configuration of a distance measuring device according to an embodiment,
1 is an optical system lens for imaging. This imaging optical system lens 1 forms a subject image onto the imaging surface of an image sensor (imager) 2, and includes a focusing lens system (F system) for adjusting the focus on the subject and a variable magnification for photographing the subject. It is equipped with a zooming lens system (Z system) for

電子スチルカメラは、上記撮像用光学系レンズlをレン
ズ駆動部3にて駆動して被写体に対する5 焦点合わせを行わせ、この撮像光学系レンズ1を介して
前記撮像素子2の受光面上に結像される被写体像を撮像
素子2にて電子的に撮像してその電子スチル画像信号を
得るものである。このようにして撮像素子2にて求めら
れる電子スチル画像信号は、カメラ系のビデオ信号処理
部(図示せず)に導かれて所定の信号処理が施され、フ
ロッピーディスク等に記録される。
The electronic still camera drives the imaging optical system lens 1 with a lens drive unit 3 to perform 5-focusing on the subject, and then focuses the image onto the light-receiving surface of the image sensor 2 via the imaging optical system lens 1. An image of a subject is electronically captured by an image sensor 2 to obtain an electronic still image signal. The electronic still image signal obtained by the image sensor 2 in this manner is guided to a video signal processing section (not shown) of the camera system, undergoes predetermined signal processing, and is recorded on a floppy disk or the like.

しかして上記撮像光学系レンズiから所定の基線長dを
隔てた位置には、前記撮像光学系レンズ1を介して撮像
しようとする被写体(図示せず)に対してスポット光を
投射する投射部4が設けられている。この投射部4は、
例えば発光器4aとこの発光器4aから発光出力される
光をスポット光として被写体に投射する投射レンズ4b
とからなり、投射部ドライバ5により駆動されて上記ス
ポット光を被写体に向けて投射する。このスポット光の
投射の向きは、後述するように前記撮像光学系レンズI
の光学的中心軸の方向に対して所定の角度θだけ傾けら
れ、上記光学的中心軸と交差する向6 さとして定められている。
At a position separated by a predetermined baseline length d from the imaging optical system lens 1, there is a projection unit that projects a spot light onto a subject (not shown) to be imaged via the imaging optical system lens 1. 4 is provided. This projection section 4 is
For example, a light emitter 4a and a projection lens 4b that projects the light emitted from the light emitter 4a onto a subject as spot light.
It is driven by a projection unit driver 5 to project the spot light toward the subject. The projection direction of this spot light is determined by the imaging optical system lens I as described later.
It is tilted at a predetermined angle θ with respect to the direction of the optical center axis of the lens, and is defined as a direction that intersects the optical center axis.

例えばCPtJを主体として構成されるシステムコント
ローラ6は、シャツタレリーズスイッチ等を備えた操作
部7からの指示を受けて動作し、先ずポジションセンサ
8にて検出される前記撮像光学系レンズ1の光学的状態
に従って前記レンズ駆動部3を起動して該撮像光学系レ
ンズlの光学的状態を予め定められている所定の状態に
設定する。
For example, the system controller 6 mainly composed of a CPtJ operates in response to instructions from an operation unit 7 equipped with a shirt release switch etc. The lens driving section 3 is activated according to the target state to set the optical state of the imaging optical system lens 1 to a predetermined state.

具体的には、後述するようにズーミングレンズ系(2系
)を駆動して撮像光学系レンズlの撮影倍率をそのレン
ズの光学的性質に応じて予め定められている倍率に設定
し、またフォーカシングレンズ系(F系)を駆動して撮
像光学系レンズ1の焦点位置を予め定められている位置
に設定する。
Specifically, as will be described later, the zooming lens system (system 2) is driven to set the imaging magnification of the imaging optical system lens l to a predetermined magnification according to the optical properties of that lens, and the focusing The lens system (F system) is driven to set the focal position of the imaging optical system lens 1 to a predetermined position.

このようにして撮像光学系レンズlの光学的条件を予め
定められている状態に設定した後、前記システムコント
ローラ6は前記投射部ドライバ5を起動して被写体に向
けてスポット光を投射する。
After setting the optical conditions of the imaging optical system lens l to a predetermined state in this way, the system controller 6 activates the projection unit driver 5 to project a spot light toward the subject.

そしてこのスポット光の被写体により反射された反射光
を前記撮像光学系レンズ1を介して撮像素7 子2にて受光検知し、その撮像信号を照度検出部9を介
してシステムコントローラ6の内部に取り込んでいる。
Then, the reflected light reflected by the object of this spot light is received and detected by the image sensor 7 through the imaging optical system lens 1, and the image signal is sent to the inside of the system controller 6 via the illuminance detection section 9. I'm taking it in.

システムコントローラ6は、このようにして検出される
前記被写体によるスポット光の反射光像からそのスポッ
ト光の前記撮像素子lの撮像面上における受光検出位置
を求め、E2FROMIOに予め格納されている情報に
従って前記撮像光学系レンズ1から被写体までの距#(
被写体ff1i # )を算出する。具体的には、シス
テムコントローラ6はスポット位置検出部6aを起動し
て前記撮像素子2から求められる電子スチル画像中のス
ポット光位置を求める。その後、システムコントローラ
6は距離演算部6bを起動し、前記スポット位置検出部
6aにて求められたスポット光の受光検出位置の情報と
、予め被写体距離が既知なる被写体について求められて
、前記E’ FROMIOに格納されている被写体距離
とスポット光の受光検出位置の情報とに従い、前記スポ
ット光の受光検出位置に相当する被写体距離を計算する
The system controller 6 determines the light reception detection position of the spot light on the imaging surface of the image sensor l from the reflected light image of the spot light detected by the subject, and according to the information stored in advance in E2FROMIO. The distance from the imaging optical system lens 1 to the subject #(
The subject ff1i #) is calculated. Specifically, the system controller 6 activates the spot position detection section 6a to determine the spot light position in the electronic still image determined from the image pickup device 2. Thereafter, the system controller 6 activates the distance calculating section 6b, and uses the information on the spot light reception detection position obtained by the spot position detection section 6a and the object distance obtained in advance for a known subject. A subject distance corresponding to the spot light reception detection position is calculated according to the subject distance stored in FROMIO and the information on the spot light reception detection position.

8 このように(2て被写体距離を計−1ll uた後、シ
ステムコントローラ6は前記レンズ駆動部3を起動して
前記撮像光学系レンズ1の撮影倍率をL赴した被写体距
離ス1測前の状態に戻し、その−1−で上述した如く計
fllllされた被写体距離に従って撮像光学系レンズ
1の黒点位置を被写体に対して金魚調節する。そして前
記撮像素子2を駆動し、撮像光学系レンズ1を介する被
写体の電子的な撮像動f「を行なわせる。この被写体の
fl、i子的な撮(象入力に際しては、被写体輝度に応
してその露光員調節か行われることは云うまでもない。
8 After measuring the subject distance (2) in this way, the system controller 6 starts the lens driving section 3 and adjusts the photographing magnification of the imaging optical system lens 1 to the subject distance before measurement. The position of the black spot of the imaging optical system lens 1 is adjusted with respect to the subject according to the total object distance as described above in -1-.Then, the imaging element 2 is driven, and the imaging optical system lens 1 is adjusted. It goes without saying that the exposure level is adjusted according to the brightness of the subject during electronic image capture of the subject. .

ここで上述した如く構成される411]距装置における
被写体距離の1lFI距原理について第52図を参照し
て説明する。
Here, the 1lFI distance principle of the subject distance in the 411] distance device configured as described above will be explained with reference to FIG.

禎2図は撮像光学系レンズ1.受光素J″−2,および
投射部4の光学的位置関係を示すものである。
Figure 2 shows the imaging optical system lens 1. It shows the optical positional relationship between the light receiving element J″-2 and the projection unit 4.

尚、ここでは撮像光学系レンズ1を1枚のレンズとして
等偏曲に示し、そのレンズ中心(主;、′入) 0を1
点で示しているが、撮像光学系レンズlか複数枚の復命
しンスからなり、前り主点と後ノj主点1つ とかイfでLする場合には、撮像光学系レンズ1の1〕
1j方側(被写体側)をその前方主点(主し\O)から
の系、撮像光・ツ系しンス1の後方側(撮像素」′側)
をその後方主点(主点○)からの系として1足えれば良
い。
In addition, here, the imaging optical system lens 1 is shown as one lens with equal polarization, and the lens center (main;, 'in) 0 is 1.
Although it is shown by a dot, when the imaging optical system lens L is composed of multiple reciprocating lenses, and there is one front principal point and one rear principal point, or L at i f, the imaging optical system lens 1 is 1]
1j side (subject side) is the system from its front principal point (principal point \O), and the imaging light and twin system is the rear side of the image sensor 1 (imaging element '' side).
It is enough to add 1 as a system from its backward principal point (principal point ○).

このような撮像光学系レンズ1の光学系に対し′C前記
ル躬部4は、上記撮像光学系[/シス1の上点○から所
定の基線長dを隔てた(装置Iから被写体に向けてスボ
ソト光を投η・1するように設けられる。このスボソト
光の投I・1の向きは、irL来−膜面こは萌記撮像光
学系しンス1の光軸方向と−1”?jになるように定め
られているか、ここではこの先軸方向から角度θたけ内
側に傾き、上記撮(像光学系レンズ1の光軸と交差する
方向にスポット光の投射かなされるように投荊部4の光
学系か定められている。尚、段剃部4は、必ずしち」二
連した位置Iに設りる必要はなく、」二足位置1を通る
前記スポラ光の投射軸上の位置に設ければ良いものであ
る。
For such an optical system of the imaging optical system lens 1, the guide section 4 is spaced a predetermined baseline length d from the upper point ○ of the imaging optical system [/system 1 (from the device I toward the subject). The direction of the projected light I1 is -1" relative to the optical axis direction of the imaging optical system 1 from the irL to the film surface. In this case, it is tilted inward by an angle θ from the front axis direction, and the spot light is projected in the direction intersecting the optical axis of the imaging optical system lens 1. The optical system of the section 4 is determined. Note that the step shaving section 4 does not necessarily have to be installed at two consecutive positions I, but on the projection axis of the spora light passing through the two positions 1. It is good if it is installed in the position.

また撮像素子2の撮像面は、前記撮像光学系し0 アズ1の主点Oから距離b(撮像光学系Iノノズ1の焦
点距離1以上てfにほぼ近い値; b z f  an
db≧r)を隔てた後方位置と!よるように定められて
いる。換−こ−ずれば、撮1象崇子2の撮像面と撮像光
学系レンズ1の主点Oとの距離がbとなる光学的条件に
て被写体距離の旧dlllか行われるようになっている
The imaging surface of the imaging element 2 is located at a distance b from the principal point O of the imaging optical system I nozzle 1 (a value that is equal to or greater than the focal length of the imaging optical system I nozzle 1 and approximately close to f; b z f an
db≧r) from the rear position! It is determined that With this conversion, the old dllll of the subject distance is carried out under the optical condition that the distance between the imaging plane of the photograph 1 and the principal point O of the imaging optical system lens 1 is b. .

しかして、撮像光学系レンズ1の主点○から距[にある
被写体に対してスポット光が投射され、その反射光か撮
像光学系レンズ1を介しC撮像索子2にて受光されると
すると、そのスポット光(象の撮像1工11上での受光
検出位置は、図中Pにて示すように被写体のスポット光
投射位置Rに対応する位置となる。換言すればPは直線
ROと撮像面との交点である。これに対して被写体距離
か無限大であるならば、被写体に投射されたスポソト光
の撮像素子2による受光位置は、前記スポ・ノド光の投
射方向に平行な前記主点Oを通る線上の点P〜となる。
Therefore, suppose that a spot light is projected onto a subject at a distance [from the principal point ○ of the imaging optical system lens 1, and the reflected light is received by the C imaging element 2 via the imaging optical system lens 1. , the spot light (light reception detection position on the elephant imaging 1 11 is a position corresponding to the spot light projection position R of the subject, as shown by P in the figure. In other words, P is the position between the straight line RO and the imaging position) On the other hand, if the subject distance is infinite, the light receiving position of the spot light projected onto the subject by the image sensor 2 is the point of intersection with the main plane parallel to the projection direction of the spot light. Point P~ on the line passing through point O.

ここて第2図において被写体平面をSRとして1 定義し、この被写体(V面S R上のレンズ光軸と交わ
る点をTとする。また撮像面トのレンズ光軸と交わる点
をCとすると、被写体u11離ρは長さ0T−C不含れ
、像面v1j離1〕ハ長さOC,2!線長(1は長さ0
1としてそれぞれ示される。
Here, in Fig. 2, the subject plane is defined as SR, and the point on this subject (V plane SR) that intersects with the lens optical axis is T. Also, the point that intersects with the lens optical axis on the imaging plane T is C. , object u11 distance ρ does not include length 0T-C, image plane v1j distance 1] C length OC, 2! line length (1 is length 0
1 respectively.

しかして被写体距離か無限大から上記化[j離gまで変
位したときの撮像面」二てのスボソト光1g!の受光検
出位置の変化Xに着l」すると、その変化mxは長さP
P、、て与えられ、t2’U E’dスポット光像の受
光面」二での拮像位置P、P−の当該受光面上の佳意の
越準位置からの距離をそれぞれl) 、  1.) 、
、、とすると、」二足変化量Xは x=PP−−p−p、− として算出することかi1J能となる。
However, from the subject distance to infinity, the above image [imaging surface when displaced from j distance to g] is 1 g of light! When the change in the light reception detection position reaches X, the change mx is the length P
P, , is given as t2'U E'd, and the distances of the antagonistic image positions P and P- on the light receiving surface 2 of the spot light image from the superior position on the light receiving surface are respectively l), 1. ),
, , then the bipedal change amount X can be calculated as x=PP--p-p,-.

ここで三fft 81+I m 4の原狸に1足えば、
その先′ツ′系における△OPP〜ど△OR3どは↓1
j似の関係(こあり、また△ocp=と△○TSも相似
の関係にある。このことから幾何学的に次のことを導く
ことができる。
Now, if you add 1 to the original raccoon of 3 fft 81 + I m 4,
Beyond that, △OPP~do△OR3 in the 'tsu' system↓1
There is a similar relationship between j and △ocp= and △○TS. From this, the following can be derived geometrically.

△OP P−の△○ R8 2 →  d / x = OS /○P−・・・(1)△
OCP−閃△OTS →  、Q  /b=O810P〜    ・・ (2
)これらの(1)、(2)式の右辺が等しいことからこ
れを整理すると 47 / b = d / x となり、これを被写体距離ρについて整理することによ
り、 (1−b −d ・(1/x)      −(3)と
して、予め既知なる基線長dと像面距離b、および撮像
面上で計測される変化量Xとから被写体距#tρを計算
することが可能となる。
△OP P-'s △○ R8 2 → d / x = OS /○P-... (1) △
OCP-Sen△OTS → , Q /b=O810P~... (2
) Since the right sides of equations (1) and (2) are equal, rearranging this results in 47/b = d/x, and rearranging this with respect to the subject distance ρ, we get (1-b-d ・(1 /x) - (3), it becomes possible to calculate the subject distance #tρ from the baseline length d and image plane distance b, which are known in advance, and the amount of change X measured on the imaging plane.

従って被写体距離が無限大であるときの撮像面上でのス
ポット光の結像位置P〜を予め調べておき、これを前記
E2FROMIOに格納しておく。
Therefore, the imaging position P~ of the spot light on the imaging plane when the subject distance is infinite is checked in advance and stored in the E2FROMIO.

モして測距時に求められるスポット光の結像位置Pと上
記E2PROM10に格納されている結像位置P−の情
報とからその結像位置の変化量Xを求めれば、これによ
って被写体距離gを計測することが可能となる。
If we calculate the amount of change X in the imaging position from the imaging position P of the spot light obtained during distance measurement and the information on the imaging position P- stored in the E2PROM 10, we can use this to determine the subject distance g. It becomes possible to measure.

3 地3図および第4図は上述した11111距原理に従っ
て被写体距離りを計測する実施例装置での処理手順の流
れとその動作タイミングとを示すものである。この測垣
j動作は、基本的には先ず撮像光学系レンズ1のフォー
カスレンズ系を所定の基準位置にリセットシ(ステップ
a)、そのズームレンズ系についても所定の撮影倍率に
リセットすることから行われる(ステップb)。
3. Figures 3 and 4 show the flow of the processing procedure and its operation timing in the embodiment device that measures the distance to a subject according to the 11111 distance principle described above. This gauging operation is basically performed by first resetting the focus lens system of the imaging optical system lens 1 to a predetermined reference position (step a), and then resetting the zoom lens system to a predetermined imaging magnification. (Step b).

このような準備処理を行った後、先ず前記投射部4から
スポット光を投射しない状態で前記撮像素子2による被
写体像の露光を行わせ(ステップc)、次のタイミング
で露光された被写体像を撮像素子2から読出す(ステッ
プd)。この撮像素子2から読出した被写体像について
は、システムコントローラ6の内部メモリに一旦記憶し
ておく。
After performing such preparatory processing, first, the image sensor 2 is caused to expose the subject image without projecting the spotlight from the projection unit 4 (step c), and at the next timing, the exposed subject image is exposed. Read from the image sensor 2 (step d). The subject image read from the image sensor 2 is temporarily stored in the internal memory of the system controller 6.

その後、前記投射部4を起動して被写体にスポット光を
投射しくステップe)、スポット光が投射されている被
写体光像の露光を行ない(ステップf)、上記スポット
光の投射を終γする(ステップg)。そしてこの2四目
に露光されたスポッ4 1・光投射時の被写体像を撮像素子2から読出しくステ
ップ11)、前記ステップbにてリセットされたズーム
レンズ系を元の撮像倍率に戻す(ステップi)。
Thereafter, the projection unit 4 is activated to project the spotlight onto the subject (step e), the subject light image onto which the spot light is projected is exposed (step f), and the projection of the spot light is terminated ( Step g). Then, read out the subject image at the time of light projection from the image sensor 2 (step 11), and return the zoom lens system reset in step b to the original imaging magnification (step 11). i).

これらの撮像素子2による被写体像の露光とその読出し
は、第4図のタイミング図に示すように、例えばスチル
画像信号処理系の垂直同期信号V 5yneに同期して
1フイ一ルド周期で丈長される。
As shown in the timing diagram of FIG. 4, the exposure of the subject image by these image sensors 2 and its readout are performed at one field period in synchronization with the vertical synchronization signal V5yne of the still image signal processing system, for example. be done.

しかる後、前記スポット位置演算部6aを起動して前記
撮像面上でのスポット光の受光位置を求める為の演算を
行う(ステップj)。この演算は、前述した如く求めら
れるスポット光投射時の被写体像、からスポット光を投
射しない状態での被写体像を差し引き、その差成分を求
めることによってなされる。この虜算によって背景を含
む被写体に固有な画像信号成分を相殺し、スポット光が
投射されている被写体部分の信号成分、つまりスポット
光の反射成分だけを検出し、撮像入力された被写体画像
(画面)上のスポット光位置を検出する。
Thereafter, the spot position calculation unit 6a is activated to perform calculation for determining the spot light receiving position on the imaging surface (step j). This calculation is performed by subtracting the object image when the spotlight is not projected from the object image when the spotlight is projected, which is determined as described above, and calculating the difference component. This calculation cancels out the image signal components specific to the subject including the background, detects only the signal components of the subject area on which the spotlight is projected, that is, the reflected components of the spot light, and detects the captured image of the subject (screen ) to detect the spot light position on the top.

その後、前記E2PROMIOから、予め求めら5 れている上述した測距演算に必要なデータを読出しくス
テップ11前述した第(3)式に槌って被写体距離りの
算出を行う(ステップD)。そしてこの演算により求め
られた被写体距離りの情報を前記レンズ駆動部3に与え
、前述した如くリセットされているフォーカシングレン
ズ系を被写体に対して合焦調節する(ステップ11 )
。つまり被写体距離りで示されるレンズ位置にフォーカ
シングレンズ系を移動させ、被写体に対して合焦させる
Thereafter, the data required for the above-mentioned distance measurement calculation, which has been obtained in advance, is read out from the E2PROMIO, and the object distance is calculated using the equation (3) described above (Step D). Then, information on the subject distance determined by this calculation is given to the lens driving section 3, and the focusing lens system, which has been reset as described above, is adjusted to focus on the subject (step 11).
. That is, the focusing lens system is moved to the lens position indicated by the distance to the subject, and the subject is brought into focus.

以上のようにして撮像光学系レンズ1をl1ll+距デ
ータに従って被写体に合焦させた後、前記撮像素子2を
駆動して被写体撮影の為の本露光を行わせ、これによっ
て得られる電子スチル画像をフロッピーディスク等に記
録する。
After the imaging optical system lens 1 is focused on the subject according to the l1ll+distance data as described above, the image sensor 2 is driven to perform main exposure for photographing the subject, and the electronic still image obtained thereby is Record on a floppy disk, etc.

尚、この処理手続きにおいては、スポット光を投射しな
いときの被写体の撮像と、スポット光の投射時における
被写体の撮像とを、前述したように垂直同期信号Vsy
ncに同期させて1フイ一ルド周期で行わせるようにし
たが、例えば第5図および第6図にその処理手続きと動
作タイミングとを6 示すように、第1の露光によって得られた被写体像の読
出し時にスポット光投射による被写体の露光動作を同時
に並列的に行わせ、これによって測距動作の処理時間の
短縮化を図ることも可能である。
In this processing procedure, as described above, the vertical synchronization signal Vsy is used to perform the imaging of the subject when the spotlight is not projected and the imaging of the subject when the spotlight is projected.
The processing procedure and operation timing are shown in Figs. 5 and 6, and the subject image obtained by the first exposure is It is also possible to perform the object exposure operation by spot light projection simultaneously and in parallel at the time of readout, thereby shortening the processing time of the distance measurement operation.

即ち、スポット光の非投力1状態で被写体を露光した後
(ステップc)、投削部4を起動してスポット光の投射
を開始させる(ステップn)。しかる後、上述した如く
露光された被写体像を撮像素子2から読出すとノ(に(
ステップo ) 、16J時にその撮像素子2にてスポ
ット光が投射されている被写体の露光を行なわせる(ス
テラプル)。その後、前記スポット光の投射を停止させ
(ステップq)、上記スポット光か投射されてた状態で
露光された被写体像の読出しを行なう(ステップll)
That is, after exposing the subject with the spotlight in a non-projection state of 1 (step c), the projection unit 4 is activated to start projecting the spotlight (step n). After that, when the exposed subject image is read out from the image sensor 2 as described above,
At step o), at 16J, the image sensor 2 is used to expose the subject onto which the spot light is projected (stellar pull). Thereafter, the projection of the spot light is stopped (step q), and the image of the subject exposed while the spot light is being projected is read out (step ll).
.

このようにして撮像素子2に対する駆動条件を変えるこ
とにより、第6図に示すようにその測距動作に要する処
理時間を前述した例に比較して1フィールド周期分短く
することが可能となり、その処理時間の短縮化を図るこ
とが可能となる。
By changing the driving conditions for the image sensor 2 in this way, as shown in FIG. This makes it possible to shorten processing time.

7 他方、先に示した第3図および第4図による例の場合に
は、読み出される第1の画像と第2の両像のフィールド
パリティが等しくなるので、両像の相関性に悪影響を与
えないと云う利点を勺゛シている。尚、上記パリティは
、通゛);9の2.コインターレース信号を前提に、そ
の画1象信号が奇数フィールドか偶数フィールドである
かの区別を示すものである。
7. On the other hand, in the case of the examples shown in FIGS. 3 and 4 shown above, the field parity of both the read out first image and second image is the same, which adversely affects the correlation between the two images. We are emphasizing the advantage that there is no such thing. Note that the above parity is generally defined as 9-2. Assuming that the coin interlace signal is used, this shows whether the one-picture signal is an odd field or an even field.

ところで被写体輝度が低い場合、つまり被写体が暗いよ
うな場合には、前述した1フイ一ルド期間の露光だけで
はその露光量か不足し、スポット光像を信号処理に十分
なるレベルの画像信号として検出てきないことがある。
By the way, when the brightness of the subject is low, that is, when the subject is dark, the exposure for one field period as described above is insufficient, and the spot light image is detected as an image signal at a level sufficient for signal processing. There are some things I can't do.

従ってこのような被写体か暗い状態での被写体距離の1
llll距に対処するべく、例えば第7園および第8囚
に示す処理手順に従ってスポット光像の検出処理を行な
うようにしても良い。
Therefore, for such a subject, the subject distance in dark conditions is 1
In order to deal with the llll distance, the spot light image detection process may be performed according to the processing procedures shown in the seventh and eighth cases, for example.

即ち、スポット光を投g=I L tよい状態ての被写
体像とスポット完投η・1時の被写体像をそれぞれ求め
たとき、即時にその画像間の差成分を求める(ス8 テップj)。そしてその差成分で示されるスポット光像
のレベルが、信号処理に必要な所定の検出レベルを上回
っているか否かを弁別しくステップr)、スポット光像
のレベルが所定の閾値に満たない場合には、再度被写体
像の露光・読出しを行なわせる。
That is, when the image of the subject when the spot light is cast g=I Lt in a good condition and the image of the subject when the spot is completely cast η·1 are obtained, the difference component between the images is immediately obtained (step j). Then, in step r), it is determined whether the level of the spot light image indicated by the difference component exceeds a predetermined detection level necessary for signal processing; causes the subject image to be exposed and read out again.

そしてこの(1f露光11,1fには、先の露光か]フ
ィールド周期に亘って行われたことから、例えばその露
光0間を3フイ一ルド周期に広げ、その露光量を増やす
。このような露光条件にて同様にしてスポット光を投射
しない状態での被写体像とスポット光投則時の被写体像
との差成分を求め、そのスポット光像のレベルが信号処
理に必要な所定の検出レベルを上回っているか否かを弁
別する。
Since this (1f exposure 11, 1f is the previous exposure) was carried out over a field period, for example, the exposure period between 0 and 1f is expanded to 3 field periods and the exposure amount is increased. Under the same exposure conditions, calculate the difference component between the subject image without spotlight projection and the subject image with spotlight projection, and determine whether the level of the spot light image is the predetermined detection level required for signal processing. Discriminate whether it exceeds or not.

尚、このようにして露光量を増やしてもスポット光の検
出レベルが所定の閾値に満たない場合には、例えば被写
体の露光時間を6フイ一ルド周期に広げ、同様にしてス
ポット光像の検出を行なう。
If the detection level of the spot light does not reach the predetermined threshold even after increasing the exposure amount in this way, for example, increase the exposure time of the subject to 6 fields and detect the spot light image in the same way. Do this.

このようにしても十分なるレベルのスポット光像が検出
できなかった場合には、例えばレリーズを9 0ツクする等して、測距不可能なことやAF制御ができ
ない旨を通知する。
If a spot light image of a sufficient level cannot be detected even after doing this, for example, the release button is pressed 90 degrees to notify that distance measurement is not possible or AF control cannot be performed.

この場合、スポット光像の検出に要する時間、即ち、第
1の露光(ステップc1.)開始からスポット位置演算
(ステップJ)の終了間での時間は、1フィールドの露
光でスポット光像か検出できた場合には5フイールド(
約80 m5ec) 、次の3フイールドの露光でスポ
ット光像が検1」」できた場へには14フイールド(約
230 m5ec) 、そして央に次の6フイールドの
露光でスポット光像が検出できる場合、つまり最長の条
件でも29フイールド(約480 m5ec)となる。
In this case, the time required to detect a spot light image, that is, the time from the start of the first exposure (step c1.) to the end of the spot position calculation (step J), is the time required to detect a spot light image with one field of exposure. If possible, 5 fields (
14 fields (approximately 230 m5ec), and in the center a spot light image can be detected by exposing the next 6 fields. In other words, even under the longest conditions, there are 29 fields (approximately 480 m5ec).

尚、第8図に示すタイミング図は、2同1」の3フイー
ルドの露光でスポット光像が検出てきた場合の例を示し
ている。
Incidentally, the timing diagram shown in FIG. 8 shows an example in which a spot light image is detected by exposure of three fields of "2 and 1".

このようにして被写体に対する露光量を可食してスポッ
ト光像を正確に、flっ確尖に検出するようにすること
で、被写体輝度が低い場合であっても、その被写体距離
を正確に開側し、被写体に対するフォーカンングレンズ
系の合焦調節を効果的0 に行なわせることが可能となる。
In this way, by adjusting the exposure amount to the subject and detecting the spot light image accurately and sharply, even when the subject brightness is low, the subject distance can be accurately determined to the open side. However, it becomes possible to effectively adjust the focus of the focusing lens system to the subject.

ところで上述した丈施例では、E2FROM10に被写
体距離が無限大のときのスポット光像の結像位置P〜の
情報を格納しておき、これを用いて被写体距離りを算出
するものとして説明した。
By the way, in the above-mentioned length embodiment, the E2FROM 10 stores information on the image forming position P~ of the spot light image when the subject distance is infinite, and this information is used to calculate the subject distance.

然し乍ら、実際的には予め被写体距離が既知なる2つの
被写体位置におけるスポット光像の結像位置の情報をE
2FROMIOに記憶しておき、これを用いて被写体距
離の算出を行なうようにした方が好ましい。この際、撮
像光学系レンズlの種々の光学的性質に従い、例えばレ
ンズ種別や撮影倍率等に応じて上記2つの被写体位置に
おけるスポット光像の結像位置の情報をそれぞれ格納し
ておくようにすれば、種々の撮像条件に効果的に対処し
た被写体距離の計測演算を行なうことが可能となる。
However, in practice, information on the imaging position of the spot light image at two subject positions whose subject distances are known in advance is
It is preferable to store it in 2FROMIO and use it to calculate the subject distance. At this time, information on the imaging position of the spot light image at the above two subject positions should be stored in accordance with the various optical properties of the imaging optical system lens l, for example, depending on the lens type, imaging magnification, etc. For example, it becomes possible to perform object distance measurement calculations that effectively deal with various imaging conditions.

即ち、第9図に前述した被写体距離を計測する為の前述
した光学系における複数の被写体距離ρ1..Q2.1
1xにある被写体での反射スポット光の撮像面上におけ
る結像位置PL、P2.PX1 の関係を示すように、これらの各スポット光の結像位置
PL、P2、Pxの基準位置p〜からの変位量xi、x
2.xは x  −px −p〜       ・・・(4)xi
 −pi −p〜       ・・・(5)x2=p
2−p〜       ・・・(6)としてそれぞれ与
えられる。ここで前述した第(3)式から求められる xLXρl =x2 Xl)2 =b◆dなる関係から
、 Nl  (pl−p−)−ρ2(p2−p〜)=0なる
関係を導き、これを無限大時のスポット光結像位置p−
について整理すれば、 p〜=(、Q2p2−J)Ipl)/(、Q2−、Ql
)・・・(7) となり、これを前記被写体距離Dxについての第(3)
式に代入して解くと、 ・・・(8)  2 なる関係があることが判る。
That is, in FIG. 9, a plurality of object distances ρ1. .. Q2.1
Image formation positions PL, P2. As shown in the relationship of PX1, the amount of displacement xi,
2. x is x −px −p~ (4)xi
-pi -p~...(5)x2=p
2-p~...(6) are given respectively. Here, from the relationship xLXρl = x2 Spot light imaging position p- at infinity
If we rearrange, p~=(,Q2p2-J)Ipl)/(,Q2-,Ql
)...(7) This is expressed as (3) regarding the subject distance Dx.
Substituting into the equation and solving it reveals the following relationship: (8) 2.

ここで被写体距離が既知なる距離ρ1に着目して上記第
(8)式を解くと、 が未知なる被写体によるスポット光の結像位置pXを計
測するだけで、その被写体距離11xを簡易に算出する
ことが可能となる。
Here, if we focus on the distance ρ1 where the subject distance is known and solve Equation (8) above, we can easily calculate the subject distance 11x by simply measuring the imaging position pX of the spot light from the unknown subject. becomes possible.

しかして基準となる被写体距離01..172を、例え
ば1m、2mとして定めれば、実際的にはが成立し、こ
れを整理すると なる関係が成立することが判る。
However, the reference subject distance is 01. .. If 172 is defined as, for example, 1 m and 2 m, it can be seen that the following actually holds true, and a relationship that organizes this holds true.

そこでこの第(9〉式を前記第(8)式に代入して定数
項b−dを消去すると、計測しようとしている被写体距
離Nxを算出するには として、撮像面上で計則されるスポット光像の結像位置
pi、p2.I)Xたけに従う計算を実行するだけで被
写体距離pXを算出することが可能となる。
Therefore, by substituting this equation (9>) into the above equation (8) and eliminating the constant term b-d, the spot measured on the imaging surface can be calculated as follows: It becomes possible to calculate the subject distance pX simply by performing calculations according to the imaging position pi, p2.I)X of the optical image.

尚、フォーカシングレンズ系の制御と対応の取り易い逆
数表現での被写体距離情報であるデイオプタ値Dxを ・・・(10) なる計算を行えば良いことが判る。つまり被写体距離が
ρ1.i)2であるときのスポット光の結像位置pi、
p2を予め求めておけば、被写体距離3 として直接的に算出するようにしても良いことは云うま
でもない。
It can be seen that the deopter value Dx, which is object distance information in reciprocal expression that is easy to correspond to the control of the focusing lens system, can be calculated as follows. In other words, the subject distance is ρ1. i) Imaging position pi of the spot light when 2,
It goes without saying that if p2 is determined in advance, it may be directly calculated as the subject distance 3.

ここで注目すべきところは、被写体距離Nx(またはデ
イオプタ値りりを算出する為の上述4 した各演算式は第(11)、(12)式にそれぞれ示す
ように、いずれもその分子・分母のデイメンジョンが等
しい点にある。このことは前述したスポット光像の結像
位置pl 、p2.pxの情報に任意の定数kを乗じて
ち、これから算出される被写体用MρX (またはデイ
オプタ値1)X)には何等壺化を17えないことを意味
する。つまり前記各結像(:1装置pl 、  I)2
.  I)Xを求める15の撮像面上での基準となる位
置が作意の位置であっても良いことのみならず、これを
21測する15の中位系も全く作意であっても良いこと
を意味する。
What should be noted here is that each of the above-mentioned calculation formulas for calculating the subject distance Nx (or deopter value) has its numerator and denominator as shown in equations (11) and (12), respectively. The dimensions are the same.This means that by multiplying the information on the spot light image formation position pl, p2.px by an arbitrary constant k, the object MρX (or diopter value 1 )X) means that it cannot be turned into a pot. That is, each of the above-mentioned imaging (:1 device pl, I)2
.. I) Not only may the reference position on the imaging plane of 15 for determining X be an arbitrary position, but also the intermediate system of 15 that measures this may be entirely arbitrary. It means that.

この粘果、」一連した如くして被写体距tltIUxを
算出するようにその演算アルボリストを設定すれば、撮
像素子2の撮像面」二でのスボ・ノI・光像の結像位置
をMSK単位系にて:l11+11することなしに、例
えばその画素ピッチの数や電子スチル画1象信号の走査
線上でのスポット光信号の検出タイミング(時間)′:
今として計測し、これを直接的に用いて簡易に被写体短
離Nxを算出するハの演算処理を実行することか1−i
J能となる。またこのようにして5 ffit 1111データを直接的に用いることが「l
iJ能となる7′5、その分、演算処理に誤差が入り込
む及素を低減し、演騨精度を晶めることか可能となる責
の効果か蚕せられる。
As a result, if the calculation algorithm is set to calculate the subject distance tltIUx in a series of steps, the imaging position of the sub-no I light image on the imaging surface of the image sensor 2 can be determined by MSK. In the unit system: Without calculating l11+11, for example, the number of pixel pitches or the detection timing (time) of a spot light signal on the scanning line of an electronic still image signal:
1-i
Becomes J Noh. In addition, using the 5 ffit 1111 data directly in this way
7'5, which increases the iJ performance, has the effect of reducing the number of errors introduced into the arithmetic processing and improving the accuracy of the calculation.

尚、上進した結像位置1)1.IJ2の4^報)をrめ
E’PROMl0fこ、1己1ゐさせておく(こは、例
えば7]三子スチルカメラが紹ろ立゛Cられた後、第1
0図こ示ず処理手順に従って基準となる彼写体距離DI
、ρ2でのスボッI・光粘像位i+ビニpl、p2を5
1測し7、これを前記E’FROMIOにセソトするよ
うにしておけば良い。
Note that the imaging position that has moved upward 1) 1. (For example, 7) After the Miko still camera is introduced and set up, the first
0 Figure not shown: Follow the processing procedure to determine the reference object distance DI.
, Subop I at ρ2, optical viscosity position i + vinyl pl, p2 is 5
All you have to do is measure 7 and transfer it to E'FROMIO.

この第10図に示すE2FROMl[lへのデータセッ
トの処理手続きについて説明すると、先ず電子スチルカ
メラに装着される撮像光学系レンズ1のフォーカシング
レンズ基を予め足められた丞準位置にリセットシ(ステ
ップA)、制御パラメタkを[コ]に初期、投置する(
ステップL)。この状態で上記撮像光・ツ゛系しンズi
のズーミング1ノンズ系を、上記制御パラメータにでj
b定される第1の撮影倍率位置にセット・シ(ステップ
c)、こ 6 の状態で予め定められた第1の被写体基準位置fiにチ
ャートをセントする(ステップD)。このチャーh (
基準被写体)をセットする第1−の被写体基準位置は、
例えば撮像光学系レンズ1の主点Oから被写体Mti#
ρ1か1 mとなる位置として定められる。このように
して1m0′)位置にセットされたチャートに対してス
ポット光像 述した処理手順に従ってその時のスポット光像の結像位
置Plkを求める(ステップE、F)。
To explain the processing procedure of the data set to the E2FROM l[l shown in FIG. A), initially set the control parameter k to [ko] (
Step L). In this state, the above imaging light/twin system lens i
The zooming 1 non-zero system is set to the above control parameters.
The chart is set at the predetermined first imaging magnification position (step c), and in this state, the chart is placed at the predetermined first subject reference position fi (step D). This char h (
The first subject reference position for setting the reference subject is:
For example, from the principal point O of the imaging optical system lens 1 to the subject Mti#
It is determined as the position where ρ1 or 1 m. In this way, the imaging position Plk of the spot light image at that time is determined according to the processing procedure described above for the chart set at the spot light image position (1m0') (steps E and F).

しかる後、前記チャー1・を第2の彼写体基準装置に、
例えば前記レンズの主、I、\0から2mの位置にセッ
トしくステップG)、同様にしてそのときのスポット光
像の結像位置P2kを求める(ステップG、H)。この
ようにして求められる上記各位置でのスポット光像の結
像立置P lk、  P 2kを前述したズーミングレ
ンズ系の撮影イε率に幻応(=Iけて管理し、前記制御
パラメータkをインクリメントして次の撮影倍率におけ
るスポット光像の結像位置の情報を同様にして求める(
ステップJ、K)。
After that, apply the chart 1 to a second photographic reference device,
For example, set the lens at a position 2 m from the main lens, I, \0 (step G), and similarly determine the imaging position P2k of the spot light image at that time (steps G, H). The image formation position Plk, P2k of the spot light image at each of the above-mentioned positions obtained in this way is managed according to the photographing rate ε of the zooming lens system described above (=I), and the control parameter k is incremented and the information on the imaging position of the spot light image at the next imaging magnification is obtained in the same way (
Steps J, K).

そしCpめ定められた複数の撮像倍率、j八での前記7 2つの被写体基準位置から求められるスボソ)・光像の
結像位置Plk  P2にの全ての1(に対応する各情
報を、当該撮像光学系レンズ1に関する被写体距離目測
の為の情報として前記E2FROM]Oに登録する(ス
テップL)。尚、フローチャー1・中の記号Vkは「任
意の(全ての)kに関して」を意味する。
Then, the plural imaging magnifications determined by Cp, the above-mentioned 7 at It is registered in the E2FROM]O as information for visually measuring the object distance regarding the imaging optical system lens 1 (step L).The symbol Vk in flowchart 1 means "for any (all) k". .

以上のようにしてE2FROMIOに、被写体距離ρX
の計算処理に必要な情報(スポット光の結像位置P l
k、  P 2kを撮像光学系レンズ1の光学的特性、
例えば種々の撮影倍率に対応イ・1けて登録しておき、
被写体距;雛の4I111I(!条件に応してこれらの
記憶データを選択的に用いて前述した計算処理を実行す
ることで、被写体距離Dxを簡易に、1]、つ粘度良く
求めることか一7’J能となる。
In the above manner, the subject distance ρX is added to E2FROMIO.
Information necessary for the calculation process (imaging position of the spot light P l
k, P 2k is the optical characteristic of the imaging optical system lens 1,
For example, if you register one digit to correspond to various shooting magnifications,
Subject distance: chick's 4I111I (!By selectively using these stored data according to the conditions and executing the calculation process described above, the subject distance Dx can be easily determined, 1], and with good viscosity. 7'J Noh.

ところで前述し7た撮像素−r−2の撮像面一]−にお
1するスポット光像のGA R位置PXの検出は次のよ
うにして行われる。
By the way, the detection of the GAR position PX of the spot light image placed on the imaging surface 1 of the above-mentioned image sensor -r-2 is performed as follows.

第11図は撮像素子2の水平走査ノj向に前述したスポ
ット光の投I、1部4を設け、被写体により反8 射されるスポット光像の結像位置か、その被写体距離の
変化に伴って上記水・1′、走査方向に変位するように
光学系を定めた場合のスポット光結像位置検出回路の禍
成例を示す図である。
In Fig. 11, the above-mentioned spot light projection I, 1 part 4 is provided in the horizontal scanning direction of the image sensor 2, and the image formation position of the spot light image reflected by the subject is changed depending on the change in the subject distance. FIG. 12 is a diagram showing an example of a failure of the spot light imaging position detection circuit when the optical system is set so as to be displaced in the scanning direction.

この検出回路は、プロセッサ11の制御の下でクロック
ジェネレータI2の動作を制御し、第12図に示すよう
にゲーティング信号Sνとサンプル信号S bとを生成
してA/D変換器13を駆動する。
This detection circuit controls the operation of the clock generator I2 under the control of the processor 11, generates the gating signal Sν and the sample signal Sb, and drives the A/D converter 13, as shown in FIG. do.

そして撮像素子2からの撮像画信号の読出し走査に関連
付けて、中央画面中央部分の1.走査線期間に亘って上
記撮像画信号をサンプリングしながらA/D変換し、こ
れをメモリ14に格納することで、第12図中斜線部で
示すスポット光像を含む画像信号を1ライン分抽出する
。そしてこのメモリ14に格納された1ライン分の画像
信号のレベルを前記プロセッサ11にて各サンプリング
点毎に比較判定し、ピークレベルを取るサンプリング点
nの情報をスポット光の結像位置として検出する如く構
成される。
In connection with the readout scan of the captured image signal from the image sensor 2, 1. By A/D converting the captured image signal while sampling it over a scanning line period and storing it in the memory 14, one line of image signals including the spot light image shown in the shaded area in FIG. 12 is extracted. do. Then, the processor 11 compares and determines the level of the image signal for one line stored in the memory 14 for each sampling point, and detects the information of the sampling point n that takes the peak level as the imaging position of the spotlight. It is composed as follows.

また或いは、撮像素子2の垂直走査方向に前述3つ したスポット光の投射部4を設け、被写体により反射さ
れるスポット光像の結像位置か、その被写体距離の変化
に伴って上記垂直走査方向に変位するように光学系を定
めた場合には、スポット光結像位置検出回路は箇13図
に示すように構成される。
Alternatively, the above-mentioned three spot light projection units 4 may be provided in the vertical scanning direction of the image sensor 2, and the imaging position of the spot light image reflected by the subject may be changed in the vertical scanning direction as the subject distance changes. When the optical system is determined so as to be displaced as follows, the spot light imaging position detection circuit is constructed as shown in FIG.

この場合には、プロセッサ21の制御の下でクロックジ
ェネレータ22を駆動し、ゲート回路23をゲートパル
スcpにて開閉制御して第14図に示すように各水平走
査線上の画面中央部の画像信号たけを抽出する。そして
このようにしてゲーティングされた画面中央部の画像信
号を積分器24を用いて積分し、これをA/D変換器2
5を介してA/D変換した後、その水平走査線に対応付
けてメモリの26に格納する。このような信号抽出処理
を撮像素子2の全画面について実行し、前記メモリ26
に画面中央部の信号成分の縦方向の信号系列を得る。
In this case, the clock generator 22 is driven under the control of the processor 21, and the gate circuit 23 is controlled to open and close using the gate pulse cp to generate image signals at the center of the screen on each horizontal scanning line, as shown in FIG. Extract bamboo. Then, the image signal at the center of the screen gated in this way is integrated using the integrator 24, and this is integrated by the A/D converter 2.
After A/D conversion via 5, the data is stored in memory 26 in association with the horizontal scanning line. Such signal extraction processing is executed for the entire screen of the image sensor 2, and the memory 26
The vertical signal sequence of the signal component at the center of the screen is obtained.

このようにしてメモリ26に格納された画面中央部の画
像信号のレベルを前記プロセッサ(1にて各ライン毎に
比較判定する。そしてピークレベルを取0 る水平走査ラインnの情報を求めれば、スポット光像が
結像している水平走査ラインの信号レベルが高くなるこ
とから、これをスポット光の結像位置として検出する。
In this way, the level of the image signal at the center of the screen stored in the memory 26 is compared and determined for each line by the processor (1).Then, information on the horizontal scanning line n where the peak level is taken is obtained. Since the signal level of the horizontal scanning line on which the spot light image is formed becomes high, this is detected as the image formation position of the spot light.

このように1.−1成されるスポット光粘像位置の検出
回路によれば、撮像素子2を走査して読み出される両像
信号を処理して抽出され、メモリ+4(2B)に格納さ
れる水平走査方向または垂直走査方向の信号系列ID(
n)l は簗15図に示すようになり、スポット光像が
結像している部分での信号レベルが他の部分より高くな
る。従ってこの信号系列(D(n)l中のピークレベル
を取る信号位置(サンプリング点 または水平走査ライ
ン)を求めるだけで、上記スポット光の結像位置を高精
度に求めることが可能となる。
In this way 1. According to the spot light viscous image position detection circuit formed by -1, the horizontal scanning direction or vertical Signal sequence ID in the scanning direction (
n)l is as shown in Figure 15, and the signal level in the part where the spot light image is formed is higher than in other parts. Therefore, by simply finding the signal position (sampling point or horizontal scanning line) at which the peak level in this signal sequence (D(n)l occurs), it is possible to find the imaging position of the spot light with high precision.

尚、スポット光像の検出は、前述したようにスポット光
を投射したときの被写体像と、スポット光を段f1.J
 Lないときの被写体像との差分を求めて背景的雑音成
分を除夫した上で行われる。従って実際的には、上述し
た如く構成される検出回路に1 てスポット光を投射したときの被写体像からの水平走査
方向(垂直走査方向)の信号系列Ml =(DI(n)
)と、スポット光を投射しない状態での被写体像からの
水平走査方向(垂直走査方向)の信号系列M2 = 1
D2(n)l とをそれぞれ求め、第16図に示すよう
な処理手順に従ってスポット光像の結像位置を求めるよ
うにすれば良い。
Incidentally, the detection of the spot light image is performed by detecting the subject image when the spot light is projected and the spot light at stage f1. J
This is done after finding the difference between the image of the subject when L is not present and removing background noise components. Therefore, in practice, the signal sequence in the horizontal scanning direction (vertical scanning direction) from the subject image when spot light is projected onto the detection circuit configured as described above is Ml = (DI(n)
), and the signal sequence M2 in the horizontal scanning direction (vertical scanning direction) from the subject image when no spot light is projected
D2(n)l, respectively, and the imaging position of the spot light image can be determined according to the processing procedure shown in FIG.

即ち、まず信号系列Ml = fDl(n)l と信号
系列M2= ID2(n))との差成分M3 = ID
3(n)1を求める(ステップP)。そしてその信号系
列M3 = (D3(n)l中の信号レベルか最大とな
る点n p  [D 3(n p)= maxD 3(
n)]を求める(ステップQ)。そしてこの最大信号レ
ベル値D3(n1))か所定の閾値Thを上回っている
か否かを判定しくステップR)、この閾値Thによる判
定条件が満たされない場合には、エラー処理として前述
したように被写体像に対する露光Il!1間を長く設定
し直して再度前記信号系列の抽出処理から繰り返し実行
する。
That is, first, the difference component M3 = ID between the signal sequence Ml = fDl(n)l and the signal sequence M2 = ID2(n))
3(n)1 is determined (step P). Then, the signal sequence M3 = (D3(n)l, the point n p [D 3(n p) = maxD 3(
n)] (step Q). Then, it is determined whether or not this maximum signal level value D3 (n1)) exceeds a predetermined threshold Th (step R). If the determination condition based on this threshold Th is not satisfied, as described above, error processing is performed to Exposure to the image Il! 1 interval is reset to a longer time, and the signal sequence extraction process is repeated again.

しかして閾値Thを上回る最大信号レベル値2 D3(np)が検出された場合には、その信号レベルが
最大となる点npの情報に従って、例えば第17図に示
すような補間演真の手法を導入してスポット光の結像位
置Pを求める(ステップS)。
If the maximum signal level value 2D3(np) exceeding the threshold Th is detected, the interpolation algorithm method as shown in FIG. Then, the imaging position P of the spot light is determined (step S).

即ち、上述した如く検出される15号レベルが最大とな
る点npは、前述したように所定のサンプリング間隔毎
に、或いは撮像素子2における所定の画素ピッチ毎に求
められるものであるから、必ずしもスポット光の結Ig
!位置を正確に示しているとは限らない。
That is, the point np at which the No. 15 level detected as described above is the maximum is determined at each predetermined sampling interval or at each predetermined pixel pitch in the image sensor 2, and therefore is not necessarily a spot point. light knot Ig
! It does not necessarily indicate the exact location.

そこで信号レベルが最大となる点n pが求められたと
き、実際の最大信号レベルの点か、上記→ノーンプリン
グ間隔または画素ピッチの172の誤差範囲内に存在す
ると推定し、隣接サンプリング点(隣接画素)np−]
、、jnl +1での信号レベルをそれぞれ求める。そ
してこれらの隣接サンプリング点(隣接画素)np−1
,np +1での信号レベルと前記信号レベルが最大と
なる点npでの信号レベルとの差をa、bとしてそれぞ
れ求め、3 なる補間演算を失行することで、禎1−7図に示すよう
にスポット光の実際の結像位置pを精疫良く求めるよう
にすれば良い。
Then, when the point np where the signal level is maximum is found, it is estimated that it exists at the actual maximum signal level or within the error range of 172 of the above → non-pulling interval or pixel pitch, and the adjacent sampling point (adjacent pixel)np-]
, , and the signal levels at jnl +1 are determined, respectively. And these adjacent sampling points (adjacent pixels) np-1
, np +1 and the signal level at the point np where the signal level is maximum are determined as a and b, respectively, and by apraxically performing the interpolation calculation 3, we obtain the difference shown in Figure 1-7. The actual imaging position p of the spot light may be determined with precision.

ところでスポット光像の検出処理において、撮像素r2
の出力か飽和した場合、前述した如く検出される1!号
系列M= fD(n)l が第18図(a)(b)に示
すように複数の最大伝号レベル点をI’、’fつことか
ある。
By the way, in the spot light image detection process, the image sensor r2
When the output of 1! is saturated, it is detected as described above. The signal sequence M=fD(n)l may have a plurality of maximum transmission level points I','f as shown in FIGS. 18(a) and (b).

また被写体に対して金魚調節しようとしている撮像光学
系レンズ1を通してスポット光像の検出を行っているこ
とから、」二足彼写体にχ・jする焦点か外れた状態で
当該被写体からのスポット光像の撮像か行われることか
一般的である。このような非合焦状態てスポット光像の
1ノ1目象を行った場合にも、そのスポット光像は所謂
ボケを生し、前述した如く検出される信号系列M= f
D(n))は第18図(a) (b)に示すように複数
の最大信号レベル点を持つことになる。
In addition, since the spot light image is detected through the imaging optical system lens 1, which is being adjusted to the subject, the spot light image from the subject is out of focus. It is common to capture optical images. Even when a spot light image is viewed one by one in such an out-of-focus state, the spot light image produces a so-called blur, and as described above, the detected signal sequence M= f
D(n)) has a plurality of maximum signal level points as shown in FIGS. 18(a) and 18(b).

 4 従ってこのような信号系列Mが検出された場合には、例
えばその信号レベルか所定の閾値を」二回る領域の最大
位置n pillaxlと最小位置n pfmJnlと
をそれぞれ求め、例えば a  −D  3(n  pfm jnl)   −D
  3(n  plminl  −1−〉b −D3(
n pimaxl)  −D3(n p1maxl+ 
1 )として、はぼフラッi・な信号レベル領域を示す
スポット光像の中心1立置をスポット完結1象1立置p
として求めるようにすれば良い。
4 Therefore, when such a signal sequence M is detected, for example, the maximum position npilaxl and the minimum position npfmJnl of the region where the signal level goes around twice a predetermined threshold value are determined, and, for example, a - D 3 ( n pfm jnl) -D
3(n plminl -1->b -D3(
n pimaxl) -D3(n p1maxl+
1), the center of the spot light image showing the flat signal level region is set as spot completion 1 image 1 vertical position p
All you have to do is ask for it.

以上、本発明に係る測距装置の基本的な構成とその作用
・効果について説明したが、実際的には次のようにして
光学系等の条件設定を行うようにすれば良い。この実際
的な設計思想について第19図を参照して説明する。
The basic configuration of the distance measuring device according to the present invention and its functions and effects have been described above, but in practice, the conditions of the optical system etc. may be set as follows. This practical design concept will be explained with reference to FIG. 19.

iul f?12対象とする被写体の最遠距離をgr、
最近距離を!INとし、撮像索子2の乱線長方向での有
効画面幅をWとし、前述した如くスポット光の投射方向
が撮像光学系レンズ1の光軸方向に9;j して角度θ
傾いているものとすると、上記最遠距離を、f7pから
最近距離をρ、に亘る&111距範囲での被写体による
スポット光の反11光像を、撮像素子2の撮像面」二で
パララックスを最小として検出するには、沁19図に示
すように最遠短離セ、において被写体により反射される
スポット光像Rrの結像位置と、最近l1ti離f)N
におい−C被写体により反射されるスポット光像RNの
結像位置とか、撮像素子2の中心Cに関して対象な位置
となるようにすれば良い。従って上記スポット光のJQ
 財の角度θについては、 なる条件が満たされるようにすれば良い。
iul f? 12 The farthest distance of the target object is gr,
Distance lately! IN, the effective screen width in the random line length direction of the imaging cable 2 is W, and as described above, the projection direction of the spot light is 9;j in the optical axis direction of the imaging optical system lens 1, and the angle θ is
Assuming that the object is tilted, the farthest distance described above is from f7p to the nearest distance ρ, and the inverse 11 light image of the spot light from the subject in the distance range of &111 is calculated by parallax on the imaging surface of image sensor 2 To detect it as the minimum, as shown in Fig.
The imaging position of the spot light image RN reflected by the odor-C object may be set to a symmetrical position with respect to the center C of the image sensor 2. Therefore, the JQ of the above spot light
Regarding the angle θ of the goods, it is sufficient to satisfy the following condition.

また被写体が上記最近距離(iNにあるとき、この被写
体によって環9・Jされるスポット光像を前記撮像素子
2の撮像面上に桔1象させる為には、UNの(立置に着
目して 5 6 なる関係を満たしている必要がある。同様にして被写体
が上記最遠距離MFにあるとき、この被写体によって反
射されるスポット光像を前記撮像素子2の撮像面上に結
像させる為には、Upの位置に着目して なる関係を満たしている必要がある。
In addition, when the subject is at the closest distance (iN), in order to make the spot light image circled by the subject visible on the imaging surface of the image sensor 2, it is necessary to pay attention to the vertical position of the UN. Similarly, when the object is at the farthest distance MF, in order to form a spot light image reflected by the object on the imaging surface of the image sensor 2. , it is necessary to satisfy the relationship formed by paying attention to the Up position.

征ってこれらの各条件をそれぞれ満足するようにその光
学的条件をそれぞれ定めるようにすれば良い。
Optical conditions may be determined so as to satisfy each of these conditions.

より具体的には、撮像素子2の有効画面サイズは、−膜
内な 1/2インチサイズの固体撮像索子における代表
的な数値を例にとれば、水平方向[6,4mm] 、垂
直方向[4,8mm]として与えられる。そこで投射部
4を設ける基線長の方向を撮像光学系レンズ1の上方部
、垂直方向として定め、その基線長dを[35+nm]
に設定するものとする。
More specifically, the effective screen size of the image sensor 2 is - Taking typical values for a 1/2-inch solid-state imaging device inside the membrane, the effective screen size is [6.4 mm] in the horizontal direction and [6.4 mm] in the vertical direction. It is given as [4,8mm]. Therefore, the direction of the base line length in which the projection section 4 is provided is determined as the upper part of the imaging optical system lens 1 in the vertical direction, and the base line length d is [35+nm]
shall be set to .

7 また撮像光学系レンズlとしては、焦点距離fか[10
〜30+nmlのズームレンズで、そのフォーカンング
範囲(NN−Llp)が[0,8〜5.0mlのものが
用いられるものとする。
7 Also, as the imaging optical system lens l, the focal length f or [10
It is assumed that a zoom lens of ~30+nml and a focusing range (NN-Llp) of [0.8~5.0ml] is used.

このような光学素子を用いる場合には、例えばその基準
フォーカス距il+1(測距IIjiにリセットするフ
ォーカシングレンズ系の位置)としては、例えば前記フ
ォーカンング範囲(ρN−ρF)の対数的な調和ψ点と
して =1400+n が選ばれる。また前述したスポット光の投剃角度θとし
ては上記禎(14)式から なる関係が成立するように設定すれば良いから、θ−j
an−0,0254=1.4530°= 1’ 27’
 12’に設定すれば良いことが判る。
When using such an optical element, for example, the reference focus distance il+1 (the position of the focusing lens system that is reset to the distance measurement IIji) is set to, for example, the logarithmic harmonic ψ of the focusing range (ρN-ρF). =1400+n is selected as a point. Furthermore, since the projection angle θ of the spot light described above may be set so that the relationship formed by the above equation (14) holds, θ−j
an-0,0254=1.4530°=1'27'
It turns out that it is sufficient to set it to 12'.

また実際には、スポット光像が撮像素子2の受8 光面上で確実に検出されるたけではなく、カメラの使い
勝手上、AFパララソクスの5′「容範囲を考慮する必
要があるので、前述した画面サイズW[−4,8ml1
1]に対して、その 1/4を画面有効幅Wとすれば w−(1/4 ) W=  1.2mmとして定めれば
良く、これに前述した角度θの組み立て設定誤差を見込
んで、 tanθ−0,025±0.005 を想定すると、前述した第(15)、(1G)式にそれ
ぞれ示す設計条件としては、θが最小とであるときの限
界条件(最近距111tDNでtanθ= 0.02)
では→  b ≦ 0.GX 800  ÷ (35−
800X O,02)≦25.29 を満足させれば良く、θが最大であるときの限界条件(
最遠距Mρ、でtanθ= 0.03)では 9 →  b ≦ 0.6X 5000÷ (5000X 
O,03−35)≦28.09 を満足させれば良ことになる。従って撮像距離b(た撮
影倍率を規定するレンズ焦点距sr>とじては、例えば
[25mm]以下に設定すれば良いことが導かれる。
In addition, in practice, it is not only necessary to ensure that the spot light image is detected on the light receiving surface of the image sensor 2, but also to consider the range of the AF parallax for ease of use of the camera. Screen size W[-4,8ml1
1], if we take 1/4 of that as the screen effective width W, it is sufficient to set it as w - (1/4) W = 1.2 mm, and taking into account the assembly setting error of the angle θ mentioned above, Assuming tan θ - 0,025 ± 0.005, the design conditions shown in Equations (15) and (1G) above are the limit condition when θ is the minimum (tan θ = 0 at nearest distance 111tDN). .02)
Then → b ≦ 0. GX 800 ÷ (35-
It is sufficient to satisfy 800X O,02)≦25.29, and the limit condition (
At the farthest distance Mρ, tanθ = 0.03), 9 → b ≦ 0.6X 5000÷ (5000X
O, 03-35)≦28.09. Therefore, it follows that the imaging distance b (lens focal length sr that defines the imaging magnification) may be set to, for example, [25 mm] or less.

ここで前述した撮像光学系レンズlのズーミング距離範
囲[10〜30mm]において、被写体距離のi1+1
1距時に成る限られた1点の撮影倍率だけにそのズーム
系をリセットし、a+++距終了後に元の撮影倍率に戻
して撮影動作を行うようにすると、そ撮影倍率の可変範
囲が非常に大きくなることか否めない。またこれに伴っ
てズーミングレンズ系を駆動する為の処理時間も長くな
ることか否めない。
Here, in the zooming distance range [10 to 30 mm] of the imaging optical system lens l mentioned above, the subject distance i1+1
If you reset the zoom system to only one limited shooting magnification at one focal point, and then return to the original shooting magnification after completing the a+++ range, the variable range of the shooting magnification becomes very large. I can't deny that it will happen. Additionally, it cannot be denied that the processing time required to drive the zooming lens system becomes longer.

従って上述したようにズーミング跳離範囲が[10〜3
0+nm] と広いような場合には、前述した測距の2
%の条件を満たしながら、複数の址準撮影倍弔点を定め
ておき、レンズ系の状態に応じてその1.1Jの1つを
選択して被写体距離の計測を行うようにすれば良い。例
えば上述した例にあっては、そ0 のズーミング距離範囲[10〜301]を■ 10 −
14.3 nun ■ 14.3〜20.5 mm ■ 20,5〜29.45(30) nvなる3つの範
囲に’Hi比的に分け、各距離範囲毎に基準撮影f8率
点を (])  112.0m m L7.2 ll1m ■ 24.6 mm として定めて被写体比離の計i1+11を行うようにす
れば良い。
Therefore, as mentioned above, the zooming jump range is [10 to 3
0+nm], if the range is as wide as
%, a plurality of standard photographic magnification points may be determined, and one of the 1.1 J points may be selected depending on the condition of the lens system to measure the object distance. For example, in the above example, the zooming distance range [10 to 301] of 0 is 10 -
14.3 nun ■ 14.3 ~ 20.5 mm ■ 20.5 ~ 29.45 (30) Divide into three ranges nv based on 'Hi ratio, and set the standard shooting f8 rate point for each distance range (] ) 112.0 mm L7.2 ll1 m ■ 24.6 mm The total distance to the subject may be determined as i1+11.

この場合、正確に等比関係を保つものとすると、上述し
た撮影倍率f = [29,45]以上の領域について
は、正確な測距計測の対象領域からはみ出すことになる
。しかし[29,45り30.00 ] と看做して、
これを上記■の制御対象範囲に含ませるものとすれば、
実際上、問題を招くことなく被写体距離の測距を行わせ
、AF制御に用いることが可能となる。
In this case, if the geometrical relationship is maintained accurately, the area above the above-described imaging magnification f = [29, 45] will protrude from the target area for accurate distance measurement. However, considering [29,45ri30.00],
If this is included in the scope of control mentioned in ■ above,
In practice, it becomes possible to measure the object distance without causing problems and use it for AF control.

尚、このようにして複数の址準撮影化率点を設1 定しておき、これを選択的に用いて被写体距離を計測す
るに際しては、例えば現在の撮影倍早点から最短位置に
ある基準撮影倍率点を選択するようにしても良いが、そ
のリセット・の向きを予め定めておき、テレ側、或いは
ワイド側の基準撮影倍率点にズーミングレンズ系をリセ
ットするようにしても良い。また複数の凰準撮影倍率点
の論定位置は、その仕様に応じて前述した条件を満たし
ながらに定めれば良いものであり、特に限定されるもの
ではない。
In addition, when setting a plurality of reference shooting rate points in this way and selectively using them to measure the subject distance, for example, the reference shooting point at the shortest position from the current shooting speed point can be set. Although a magnification point may be selected, the direction of the reset may be determined in advance, and the zooming lens system may be reset to the reference shooting magnification point on the tele side or wide side. Further, the positions of the plurality of sub-photographing magnification points may be determined according to the specifications while satisfying the above-mentioned conditions, and are not particularly limited.

更にこの県準撮影倍皐点の設定数を十分多くし、撮影し
ようとする撮影(宮中点に対する佑率誤差を実用上無視
し得るような設計とすれば、前述したズームレンズ系の
倍率復帰動作(フローチャートのステップjに対応)を
省略することか可能となり、より高速化を園ることか可
能となる。
Furthermore, if the number of settings for this prefectural semi-photographing magnification point is sufficiently large and the design is such that the magnification error with respect to the shooting point to be taken can be practically ignored, then the magnification return operation of the zoom lens system described above will be (corresponding to step j in the flowchart) can be omitted, making it possible to further speed up the process.

以上、本発明の実施例について説明したが、本発明はこ
れに限定されるものではない。例えばスポット光像を求
めるに際して連続する2フイールド、或いは連続する2
つの同一パリティフィール2 ドの画像信号を用いたが、必すしも2画像は連続してい
る必要はない。また同パリティフィールドの考え方は任
意のインターレース方式に拡張し得ることも自明である
。また処理対象とする画像の数ち2つに県る必要もない
。そしてこの際、複数のフィールド画像の露出値を等し
くするようにその露出制御を行えば良く、これによって
被写体の余分な1≦号成分を効果的に除去して制度の高
いスポット光像を求めることが可能となる。またスポラ
)・光像の検出処押や、その桔1象位置の撓出処伸のア
ルゴリズムは種々変形可能なものであり、要は本発明は
その要旨を逸脱しない範囲で種々変形して実施すること
ができる。
Although the embodiments of the present invention have been described above, the present invention is not limited thereto. For example, when obtaining a spot light image, two consecutive fields or two consecutive fields are used.
Although two image signals of the same parity field 2 were used, the two images do not necessarily have to be consecutive. It is also obvious that the concept of the parity field can be extended to any interlacing method. Further, there is no need to limit the number of images to be processed to two. At this time, it is only necessary to control the exposure so that the exposure values of the plurality of field images are equalized, thereby effectively removing the extra 1≦ component of the subject and obtaining a spot light image with high precision. becomes possible. Furthermore, the algorithm for detecting a light image (spora), and for ejecting the optical image can be modified in various ways, and in short, the present invention can be implemented in various ways without departing from the gist of the invention. be able to.

[発明の効果] 以上説明したように本発明によれば、被写体を撮像入力
するための撮像素子を有効に活用して被写体距離を効果
的に、しかも高精度に計測することができる。しかも撮
像素子に被写体像を結像する為の撮像光学系レンズの光
学的特性が種々変化する場合であっても、これに応じて
被写体短離を3 正確に検出することができる。この結果、電子スチルカ
メラにおけるff1ll距系の構成の大幅な簡易化を図
ることができ、また撮像光学系レンズから所定の基線長
を隔てた位置にスポット光の投射部を設けるたけで良い
ので、カメラデザイン上の問題についても効果的に回避
することができる等の上用上多大なる効果が奏せられる
[Effects of the Invention] As described above, according to the present invention, it is possible to effectively and highly accurately measure a distance to a subject by effectively utilizing an image sensor for capturing and inputting an image of a subject. Furthermore, even if the optical characteristics of the lens of the imaging optical system for forming the object image on the image sensor vary, the distance from the object can be accurately detected accordingly. As a result, the configuration of the ff1ll distance system in an electronic still camera can be greatly simplified, and it is only necessary to provide a spot light projection section at a position separated by a predetermined base line length from the imaging optical system lens. There are great practical effects, such as being able to effectively avoid camera design problems.

【図面の簡単な説明】[Brief explanation of drawings]

図は本発明の一失施例に係る測距装置について示すもの
で、昂1図は実施例装置の要部概略禍成図、第2図は実
施例装置の測距光学系の基本構成を示す図、第3図は4
1す組処理手続きの第コ−の例を示す図、第4図は第3
図に示すill+距処理手続きの動作タイミングを示す
図、第5図は測距処理手続きの第2の例を示す図、第6
図は第5図に示す測距処理手続きの動作タイミングを示
す図、第7図は測距処理手続ぎの第3の例を示す図、第
8図は第7図に示す測距処理手続きの動作タイミングを
示す図である。 また第9図は実施例装置における被写体距離の 4 71111距原理を説明する為の光学系を示す図、第1
0図は7Ill]距漬算に用いられる情報の記憶装置へ
のセット手順を示す図、第11図および第12図は埜線
長の向ぎを水中方向に定めた場合のスポット光像の結像
位置検出の第1の例を示す図、第13国および第14図
は星線長の向きを垂直方向に定めた場合のスポット光像
の結像位置検出の第1の例を示す図、第15図は検出さ
れた彼写体像の信号例を示す図、第16図はピークレベ
ル検出によるスポット光像の桔+S位置検出処FIlの
利を示す図、第17図は結16!I立置検出における袖
間処押の概念を示す図である。 そして第18図は一般的なスポット光像検出信号の例を
示す図で、第19図は実施例装置の設計条件を説明する
為の光学系を示す図である。 1・・・撮(象光学系レンズ、2・撮像素子(イメジャ
)、3・・・レンズ駆動部、4・・・投射部、5・・・
投射部ドライバ、 6・・・システムコントローラ、6
a・スポット位置清算部、6b・・・距離演算部、7・
・操作部、8・・・ポジションセンサ、9・・照度検出
部、5 10・・・ E2 FROM (メモリ)。
The figures show a distance measuring device according to an embodiment of the present invention, and FIG. 1 is a schematic diagram of the main parts of the device according to the embodiment, and FIG. The figure shown in Figure 3 is 4.
Figure 4 shows an example of the 1st code of the set processing procedure.
5 is a diagram showing the operation timing of the ill+distance processing procedure shown in FIG.
This figure shows the operation timing of the distance measurement procedure shown in FIG. 5, FIG. 7 shows the third example of the distance measurement procedure, and FIG. 8 shows the operation of the distance measurement procedure shown in FIG. FIG. 3 is a diagram showing timing. Furthermore, FIG. 9 is a diagram showing an optical system for explaining the principle of 4 71111 distance of subject distance in the embodiment device.
Figure 0 is 7Ill] Figures 11 and 12 show the formation of a spot light image when the direction of the line length is set in the underwater direction. Figures 13 and 14 are diagrams showing a first example of image position detection, and Figures 13 and 14 are diagrams showing a first example of spot light image formation position detection when the direction of the star line length is set in the vertical direction, FIG. 15 is a diagram showing an example of a signal of a detected photographic subject image, FIG. 16 is a diagram showing the advantage of the spot light image frame+S position detection process FIl by peak level detection, and FIG. 17 is a diagram showing the result of 16! It is a figure which shows the concept of a sleeve processing push in I standing detection. FIG. 18 is a diagram showing an example of a general spot light image detection signal, and FIG. 19 is a diagram showing an optical system for explaining the design conditions of the embodiment apparatus. 1... Photographing (elephant optical system lens), 2... Imaging element (imager), 3... Lens drive unit, 4... Projection unit, 5...
Projection unit driver, 6... system controller, 6
a. Spot position clearing unit, 6b... Distance calculation unit, 7.
・Operation unit, 8... Position sensor, 9... Illuminance detection unit, 5 10... E2 FROM (memory).

Claims (1)

【特許請求の範囲】 (1)撮像素子の撮像面上に被写体像を結像する為の撮
像光学系レンズと、この撮像光学系レンズから所定の基
線長を隔てた位置に設けられ、前記撮像光学系レンズを
介して撮像しようとする被写体に向けてスポット光を投
射する為の投射部とを備え、 前記撮像素子による被写体の撮像動作に先立って前記撮
像光学系レンズを予め定められた所定の焦点位置に位置
決めする手段と、この所定の焦点位置に位置決めされた
撮像光学系レンズを介して前記投射部から投射されたス
ポット光の前記被写体による反射光像を前記撮像素子に
て検出し、前記撮像素子の撮像面上における前記スポッ
ト光像の結像位置を求める手段と、このスポット光像の
結像位置の情報に従って前記撮像光学系レンズから前記
被写体までの距離を算出する手段と、この手段により算
出された距離情報に従って前記撮像光学系レンズを前記
被写体に対して合焦調節する手段とを具備したことを特
徴とする測距装置。 (2)被写体までの距離を算出する手段は、予め既知な
る少なくとも2つの撮影距離の情報と、これらの各撮影
距離において被写体により反射されるスポット光の撮像
面上における結像位置の情報とをそれぞれ記憶する手段
を備え、撮影距離が未知なる被写体により反射されるス
ポット光の前記撮像面上での結像位置の情報と前記記憶
手段に予め記憶されている上記各撮影距離の情報および
各撮影距離でのスポット光の結像位置の情報とに従って
上記被写体の撮影距離を算出することを特徴とする請求
項(1)に記載の測距装置。 (3)撮像素子の撮像面上に被写体像を結像する為の撮
像光学系レンズと、この撮像光学系レンズから所定の基
線長を隔てた位置に設けられ、前記撮像光学系レンズを
介して撮像しようとする被写体に向けてスポット光を投
射する為の投射部とを備え、 前記撮像素子による被写体の撮像動作に先立って前記撮
像光学系レンズを予め定められた所定の撮影倍率に設定
する手段と、この所定の撮影倍率に設定された撮像光学
系レンズを介して前記投射部から投射されたスポット光
の前記被写体による反射光像を前記撮像素子にて検出し
、前記撮像素子の撮像面上における前記スポット光像の
結像位置を求める手段と、この前記被写体により反射さ
れたスポット光の前記撮像面上における結像位置を求め
、この結像位置の情報に従って前記撮像光学系レンズか
ら前記被写体までの距離を算出する手段と、この手段に
より算出された距離情報に従って前記撮像光学系レンズ
を前記被写体に対して合焦調節する手段とを具備したこ
とを特徴とする測距装置。 (4)算出された距離情報に従う撮像光学系レンズの被
写体に対する合焦調節は、スポット光像の結像位置検出
時に所定の撮影倍率に設定された前記撮像光学系レンズ
の撮影倍率を元の撮影倍率に戻した後に行われることを
特徴とする請求項(3)に記載の測距装置。(5)被写
体までの距離を算出する手段は、撮像光学系レンズの所
定項目に関するデータを当該撮影光学系レンズに対応し
て保有する手段を備え、スポット光像の結像位置情報を
求めたときの前記撮像光学系レンズの撮像条件に応じた
データを前記保有手段から読出し、この保有データを用
いて前記被写体までの撮影距離を算出することを特徴と
する請求項(2)に記載の測距装置。 (6)スポット光の被写体による反射光像の結像位置を
求める手段は、スポット光の照射時に前記撮像素子から
求められる光像と、スポット光の非照射時に前記撮像素
子から求められる光像との差成分を求め、これらの光像
の差成分のレベルが所定の閾値を上回るときに上記差成
分が示すスポット光の前記撮像面上での結像位置を求め
るものであって、上記光像の差成分のレベルが所定の閾
値に満たないときには前記スポット光照射による光像の
撮像時間を長く設定し直して前記光像の差成分を求めて
行われることを特徴とする請求項(1)に記載の測距装
置。
[Scope of Claims] (1) An imaging optical system lens for forming a subject image on the imaging surface of an image sensor, and a lens provided at a position separated from the imaging optical system lens by a predetermined baseline length, a projection unit for projecting a spot light toward a subject to be imaged through an optical system lens; A means for positioning at a focal position, and an imaging optical system lens positioned at the predetermined focal position, the image sensing device detects a reflected light image of the spot light projected from the projection unit by the subject; means for determining the imaging position of the spot light image on the imaging surface of the imaging element; means for calculating the distance from the imaging optical system lens to the subject according to information on the imaging position of the spot light image; and this means A distance measuring device comprising means for adjusting the focus of the imaging optical system lens on the subject according to the distance information calculated by. (2) The means for calculating the distance to the subject includes information on at least two photographing distances known in advance and information on the imaging position on the imaging surface of the spot light reflected by the subject at each of these photographing distances. Information on the imaging position of the spot light reflected by a subject whose photographing distance is unknown on the imaging surface, information on the photographing distances stored in advance in the storage means, and each photographing distance. The distance measuring device according to claim 1, wherein the distance measuring device calculates the photographing distance of the object according to information on the imaging position of the spot light in terms of distance. (3) An imaging optical system lens for forming a subject image on the imaging surface of the imaging device, and a position separated from the imaging optical system lens by a predetermined base line length, and a projection unit for projecting a spot light toward a subject to be imaged, and means for setting the imaging optical system lens to a predetermined imaging magnification prior to the imaging operation of the subject by the imaging element. The reflected light image of the spot light projected from the projection unit by the subject is detected by the image sensor through the imaging optical system lens set to a predetermined imaging magnification, and the image is detected on the imaging surface of the image sensor. means for determining the imaging position of the spot light image on the imaging surface of the spot light reflected by the object; What is claimed is: 1. A distance measuring device comprising: means for calculating the distance to the subject; and means for adjusting the focus of the imaging optical system lens on the subject according to the distance information calculated by the means. (4) The focusing adjustment of the imaging optical system lens on the subject according to the calculated distance information is performed by adjusting the imaging magnification of the imaging optical system lens, which was set to a predetermined imaging magnification at the time of detecting the imaging position of the spot light image, to the original shooting magnification. The distance measuring device according to claim 3, characterized in that the distance measuring device is measured after returning to the magnification. (5) The means for calculating the distance to the subject includes a means for storing data regarding predetermined items of the imaging optical system lens corresponding to the imaging optical system lens, and when determining the imaging position information of the spot light image. The distance measuring device according to claim 2, wherein data corresponding to the imaging conditions of the imaging optical system lens is read from the holding means, and the shooting distance to the subject is calculated using this held data. Device. (6) The means for determining the imaging position of the reflected light image by the subject of the spot light is configured to determine the image formation position of the image of the reflected light from the subject when the spot light is irradiated, and the light image determined from the image sensor when the spot light is not irradiated. and, when the level of the difference component of these light images exceeds a predetermined threshold, the imaging position of the spot light indicated by the difference component on the imaging surface is determined, (1) When the level of the difference component of the light image is less than a predetermined threshold value, the imaging time of the light image by the spot light irradiation is reset to a longer time, and the difference component of the light image is determined. The distance measuring device described in .
JP1206896A 1989-08-11 1989-08-11 Range finder Pending JPH0371104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1206896A JPH0371104A (en) 1989-08-11 1989-08-11 Range finder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1206896A JPH0371104A (en) 1989-08-11 1989-08-11 Range finder

Publications (1)

Publication Number Publication Date
JPH0371104A true JPH0371104A (en) 1991-03-26

Family

ID=16530855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1206896A Pending JPH0371104A (en) 1989-08-11 1989-08-11 Range finder

Country Status (1)

Country Link
JP (1) JPH0371104A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008541161A (en) * 2005-05-11 2008-11-20 ソニー エリクソン モバイル コミュニケーションズ, エービー Digital camera with triangulation autofocus system and associated method
EP2172004A1 (en) * 2007-07-06 2010-04-07 Flir Systems AB Camera and method of calibrating a camera

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008541161A (en) * 2005-05-11 2008-11-20 ソニー エリクソン モバイル コミュニケーションズ, エービー Digital camera with triangulation autofocus system and associated method
EP2172004A1 (en) * 2007-07-06 2010-04-07 Flir Systems AB Camera and method of calibrating a camera
EP2172004A4 (en) * 2007-07-06 2013-01-02 Flir Systems Ab Camera and method of calibrating a camera

Similar Documents

Publication Publication Date Title
JP5388544B2 (en) Imaging apparatus and focus control method thereof
JP2015194706A5 (en)
US9681037B2 (en) Imaging apparatus and its control method and program
JP5274307B2 (en) Imaging device
US20120268613A1 (en) Image capturing apparatus and control method thereof
JP5618712B2 (en) Automatic focusing device and imaging device
JP2004240054A (en) Camera
JP2011017800A (en) Focus detection apparatus
JP2008309882A (en) Digital camera
JP5056168B2 (en) Focus adjustment device and imaging device
US9247124B2 (en) Imaging apparatus, semiconductor integrated circuit, and imaging method
JP5963552B2 (en) Imaging device
JP2017126035A (en) Imaging apparatus, control method, program, and storage medium
US20080080848A1 (en) Camera focusing system and method thereof
JP4560420B2 (en) Imaging device
JPH05181057A (en) Automatic focusing device
JPH0371104A (en) Range finder
JPH11344662A (en) Automatic focusing device
JP2008233205A (en) Range finder and imaging device
KR101026327B1 (en) Fast auto focusing device using multiple barrels and auto focusing method using the same
JP4085720B2 (en) Digital camera
JPH0618779A (en) Automatic focus detecting device
JP5018932B2 (en) Imaging device
JP2010122356A (en) Focus detector and imaging apparatus
JP2010186137A (en) Focus adjustment device and imaging apparatus