JP2003075715A - Range-finding device for camera - Google Patents
Range-finding device for cameraInfo
- Publication number
- JP2003075715A JP2003075715A JP2001266247A JP2001266247A JP2003075715A JP 2003075715 A JP2003075715 A JP 2003075715A JP 2001266247 A JP2001266247 A JP 2001266247A JP 2001266247 A JP2001266247 A JP 2001266247A JP 2003075715 A JP2003075715 A JP 2003075715A
- Authority
- JP
- Japan
- Prior art keywords
- area
- sensor array
- distance
- camera
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Studio Devices (AREA)
- Measurement Of Optical Distance (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、オートフォーカス
カメラの測距装置の改良に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to improvement of a distance measuring device for an autofocus camera.
【0002】[0002]
【従来の技術】カメラの測距装置には、大きく分けて、
カメラ側から被写体へ向けて光を投射して、被写体から
反射される反射信号光を利用して測距を行うアクティブ
タイプと、センサアレイによって被写体像信号を利用し
て測距を行うパッシブタイプとに分けられるが、近年で
は、上記センサアレイに、上記アクティブタイプのよう
な上記カメラ側から被写体への投射光による被写体から
の反射信号光を抽出する機能を持たせて、パッシブタイ
プでは測距しにくい低輝度や低コントラストの被写体を
も測距可能としたハイブリッドタイプも公知となってい
る。2. Description of the Related Art The distance measuring devices for cameras are roughly classified into
There are two types: an active type that projects light from the camera toward the subject and uses the reflected signal light that is reflected from the subject to perform distance measurement, and a passive type that performs distance measurement using the subject image signal by a sensor array. In recent years, the sensor array has a function of extracting reflected signal light from a subject by the projection light from the camera side to the subject as in the active type, and in the passive type, distance measurement is performed in recent years. A hybrid type is also known, which is capable of measuring a distance even for a difficult low-luminance or low-contrast subject.
【0003】また、上記センサアレイを利用した測距装
置において、写真画面内のより広い領域の測距を可能と
した技術が特許第3058184号公報等に開示されて
いる。Further, in a distance measuring device using the above sensor array, a technique capable of measuring a wider area within a photographic screen is disclosed in Japanese Patent No. 3058184.
【0004】この特許第3058184号公報に開示さ
れている測距装置によれば、写真画面内の複数の領域を
任意に指定して測距できるようになり、例えば、図2の
ように写真画面10の周辺部に主要被写体100が存在
するシーンでも正しいピント合わせが可能となる。According to the distance measuring device disclosed in Japanese Patent No. 3058184, it becomes possible to arbitrarily specify a plurality of areas within a photographic screen for distance measurement. For example, as shown in FIG. Correct focus can be achieved even in a scene in which the main subject 100 exists in the periphery of 10.
【0005】[0005]
【発明が解決しようとする課題】しかし、写真画面内の
多くの領域を同時に測距しようとすると、多くの画素を
持つセンサアレイが必要となる。多くの画素を持つセン
サアレイを使用すれば、当然、センサアレイの出力を記
憶するメモリ領域も大きくなってしまう。ところが、メ
モリ領域を多く有するマイコン等は非常に高価でカメラ
設計時の選定に大きな制約を生じてしまうものである。However, when trying to measure distances in many areas in a photographic screen at the same time, a sensor array having many pixels is required. If a sensor array having many pixels is used, naturally, the memory area for storing the output of the sensor array also becomes large. However, a microcomputer or the like having a large memory area is very expensive and causes a great limitation in selection when designing a camera.
【0006】本発明は、上記の事情に鑑みてなされたも
ので、センサアレイを利用して測距を行うカメラの測距
装置において、設計の自由度を損なわないような少ない
メモリ容量のマイコンを利用しつつ、高視野かつ高精度
のオートフォーカスが可能なカメラの測距装置を提供す
ることを目的とする。The present invention has been made in view of the above circumstances, and a microcomputer having a small memory capacity that does not impair the freedom of design in a distance measuring device for a camera that measures a distance using a sensor array. An object of the present invention is to provide a distance measuring device for a camera, which is capable of performing high-field-of-view and highly-accurate autofocus while using it.
【0007】[0007]
【課題を解決するための手段】上記の目的を達成するた
めに、本発明によるカメラの測距装置は、写真画面内の
像信号を検出する複数画素からなるセンサアレイと、上
記センサアレイの出力信号を記憶する上記センサアレイ
の画素数より少ない記憶領域を有するデジタル記憶手段
と、上記デジタル記憶手段の記憶内容により上記写真画
面内の被写体距離を算出する演算手段と、を有するカメ
ラの測距装置において、第1のタイミングで上記センサ
アレイの第1の領域における出力を上記デジタル記憶手
段に入力し、上記第1のタイミングに続く第2のタイミ
ングにおいて、上記センサアレイの第2の領域における
出力を、上記デジタル記憶手段に入力し、上記第1及び
第2の領域が互いに共通の領域を有することを特徴とす
る。In order to achieve the above object, a distance measuring device for a camera according to the present invention comprises a sensor array including a plurality of pixels for detecting an image signal in a photographic screen, and an output of the sensor array. A distance measuring device for a camera having digital storage means having a storage area smaller than the number of pixels of the sensor array for storing signals, and calculation means for calculating a subject distance in the photographic screen based on the stored contents of the digital storage means. At the first timing, the output from the first area of the sensor array is input to the digital storage means, and at the second timing subsequent to the first timing, the output from the second area of the sensor array is output. , The first and second areas have a common area.
【0008】即ち、本発明のカメラの測距装置によれ
ば、少ないメモリ領域に多くのセンサアレイ出力データ
を入力するために、画像の圧縮やデータの間引きを行わ
ず、1つのメモリ領域を繰り返して利用して、複数領域
の測距を行うことで、その複数領域の測距によって高視
野化を行うことができると同時に、複数回の測距によっ
て信頼性を高めて精度の良い測距を行うことができる。That is, according to the distance measuring apparatus for a camera of the present invention, in order to input a large amount of sensor array output data into a small memory area, image compression and data thinning are not performed, and one memory area is repeated. By using distance measurement in multiple areas by using the distance measurement, it is possible to increase the field of view by measuring the distance in multiple areas, and at the same time, improve the reliability and accuracy of distance measurement by measuring multiple times. It can be carried out.
【0009】[0009]
【発明の実施の形態】以下、図面を用いて本発明の実施
の形態を説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.
【0010】図1は本発明の一実施の形態に係るカメラ
の測距装置を搭載したAFカメラのブロック構成図であ
る。FIG. 1 is a block diagram of an AF camera equipped with a distance measuring device for a camera according to an embodiment of the present invention.
【0011】即ち、本発明の一実施の形態に係るカメラ
の測距装置は、演算制御回路(CPU)1と、受光レン
ズ2a,2bと、センサアレイ3a,3bと、A/D変
換部4と、スイッチ(SW)5と、で構成されている。
そして、このカメラの測距装置と、レンズドライブ(L
D)部7と、撮影レンズ8とでAF装置を構成してい
る。また、このカメラは、ストロボ9を備えている。That is, the distance measuring device for a camera according to one embodiment of the present invention comprises an arithmetic control circuit (CPU) 1, light receiving lenses 2a and 2b, sensor arrays 3a and 3b, and an A / D converter 4. And a switch (SW) 5.
Then, the distance measuring device of this camera and the lens drive (L
The D) unit 7 and the taking lens 8 constitute an AF device. The camera also has a strobe 9.
【0012】CPU1は、カメラ全体の動作制御及び各
種演算を行う制御回路であって、ワンチップマイコンで
構成されている。また、CPU1にはRAM6が内蔵さ
れていて、該CPU1における各種演算結果やセンサア
レイの各画素から出力されるデータ等を記憶できるよう
になっている。なお、このRAM6の詳細については後
述する。The CPU 1 is a control circuit for controlling the operation of the entire camera and performing various calculations, and is composed of a one-chip microcomputer. Further, the CPU 1 has a built-in RAM 6 so that various calculation results in the CPU 1 and data output from each pixel of the sensor array can be stored. The details of the RAM 6 will be described later.
【0013】受光レンズ2a,2bは、被写体100の
像をセンサアレイ3a,3bに結像させるためのレンズ
である。The light receiving lenses 2a and 2b are lenses for forming an image of the subject 100 on the sensor arrays 3a and 3b.
【0014】センサアレイ3a,3bは、それぞれ、複
数の画素を構成する受光センサ、例えばフォトダイオー
ド、を一次元に整列配置してなり、各フォトダイオード
は、上記受光レンズ2a,2bによって入射された被写
体像をその光強度に応じて光電変換する。更に、各フォ
トダイオードには、詳細は後述するように、積分コンデ
ンサ及び積分アンプ等からなる積分回路が接続されてお
り、CPU1の制御の下でこれら積分回路によって、上
記フォトダイオードによって光電変換された被写体像を
積分することで被写体の輝度分布を取得して、A/D変
換部4に出力するようになっている。Each of the sensor arrays 3a and 3b is formed by arranging a light receiving sensor, for example, a photodiode, which constitutes a plurality of pixels, in a one-dimensional array, and each photodiode is made incident by the light receiving lenses 2a and 2b. The subject image is photoelectrically converted according to its light intensity. Further, as will be described later in detail, each photodiode is connected with an integrating circuit composed of an integrating capacitor, an integrating amplifier and the like, and under the control of the CPU 1, these integrating circuits photoelectrically convert the photodiodes. The luminance distribution of the subject is acquired by integrating the subject image and output to the A / D conversion unit 4.
【0015】A/D変換部4は、上記センサアレイ3
a,3bから出力された被写体の輝度分布をデジタル信
号に変換してCPU1に出力する(以下、このA/D変
換された輝度分布を像データと記し、各画素に対応する
個々のデータを指す場合には画素データと記す。)。The A / D conversion section 4 includes the sensor array 3 described above.
The brightness distribution of the subject output from a and 3b is converted into a digital signal and output to the CPU 1 (hereinafter, this A / D converted brightness distribution is referred to as image data, and indicates individual data corresponding to each pixel. In the case described as pixel data.).
【0016】SW5は、撮影者のスイッチ操作に応じ
て、本一実施の形態の測距装置の動作を開始するための
スイッチである。SW5 is a switch for starting the operation of the distance measuring apparatus of the present embodiment in response to the switch operation of the photographer.
【0017】LD部7は、CPU1に接続されていて、
後述する距離算出演算の結果に基づいたCPU1の制御
により、撮影レンズ8の駆動を行う回路である。The LD section 7 is connected to the CPU 1,
This is a circuit for driving the taking lens 8 under the control of the CPU 1 based on the result of the distance calculation calculation described later.
【0018】撮影レンズ8は、被写体100の像を図示
しないフィルムに結像するためのレンズである。The taking lens 8 is a lens for forming an image of the subject 100 on a film (not shown).
【0019】以上、CPU1、受光レンズ2a,2b、
センサアレイ3a,3b、A/D変換部4、SW5で構
成される本一実施の形態に係る測距装置と、LD部7
と、撮影レンズ8とでAF装置を構成している。AF装
置は、測距装置で測定された被写体100の距離に基づ
いて撮影レンズ8の焦点調節を行うものである。As described above, the CPU 1, the light receiving lenses 2a and 2b,
The distance measuring device according to the present embodiment including the sensor arrays 3a and 3b, the A / D conversion unit 4, and the SW5, and the LD unit 7.
And the taking lens 8 constitute an AF device. The AF device adjusts the focus of the taking lens 8 based on the distance of the subject 100 measured by the distance measuring device.
【0020】ストロボ9は、場合に応じて露出時の補助
光として発光制御されるものであるが、この光を測距時
の補助光として用いることもできる。The strobe 9 is controlled to emit light as auxiliary light at the time of exposure depending on the case, but this light can also be used as auxiliary light at the time of distance measurement.
【0021】本一実施の形態では、撮影レンズ8のピン
トを正しく被写体100に合焦させるために2つの受光
レンズ2a,2bを介して被写体100の像をセンサア
レイ3a,3bに導き、2つのレンズ2a,2bによる
視差Bを利用して三角測距の原理に基づいて被写体まで
の距離Lの算出を行う。In the present embodiment, the image of the subject 100 is guided to the sensor arrays 3a and 3b through the two light receiving lenses 2a and 2b in order to correctly focus the subject lens 8 on the subject 100. The distance L to the subject is calculated based on the principle of triangulation using the parallax B of the lenses 2a and 2b.
【0022】このため、センサアレイ各画素を構成して
いるフォトダイオードの出力は、積分回路により積分さ
れた後、A/D変換部4を介してCPU1に入力され
る。従って、各画素データの大小はデジタル値の大小と
して、CPU1内のRAM6に記憶されることになる。For this reason, the output of the photodiode constituting each pixel of the sensor array is integrated by the integrating circuit and then input to the CPU 1 via the A / D conversion section 4. Therefore, the size of each pixel data is stored in the RAM 6 in the CPU 1 as the size of the digital value.
【0023】そして、CPU1は、2つの受光レンズ2
a,2bによる視差Bによって、被写体像のずれがセン
サアレイ3aとセンサアレイ3bとで相対位置(以下、
像ずれ量と記す。)xだけあると判断した時に、距離L
を
L=B・f/x
(但し、fは受光レンズの焦点距離)の式で算出する。The CPU 1 has two light receiving lenses 2
Due to the parallax B due to a and 2b, the displacement of the subject image is relative to the sensor array 3a and the sensor array 3b.
It is referred to as the image shift amount. ) When it is determined that there are only x, the distance L
Is calculated by the formula L = B · f / x (where f is the focal length of the light receiving lens).
【0024】また、CPU1には撮影者によるカメラの
測距動作開始指示を検出するSW5が接続されており、
このSW5のON操作をCPU1が検出することによっ
て、上記測距装置が作動し、上記距離Lの算出を行った
後、レンズドライブ(LD)部7を介して、撮影レンズ
8を算出した距離Lに応じて駆動制御するようになって
いる。Further, the CPU 1 is connected with a SW 5 for detecting an instruction to start the distance measuring operation of the camera by the photographer,
When the CPU 1 detects the ON operation of the SW 5, the distance measuring device operates, the distance L is calculated, and then the distance L calculated by the photographing lens 8 is calculated via the lens drive (LD) unit 7. The drive is controlled according to the.
【0025】次に、図3を用いて上記RAM6について
説明する。Next, the RAM 6 will be described with reference to FIG.
【0026】図3は、写真画面10内におけるセンサア
レイ3aのモニタ領域11と、センサアレイ3aからの
像データを記憶するRAM6の記憶領域を概念的に示す
図である。なお、図3には図示されていないが、RAM
6には、センサアレイ3bの像データを記憶するための
記憶領域も存在することは勿論である。つまり、RAM
6の実際の記憶領域は、図3に示す記憶領域の2倍とな
る。FIG. 3 is a view conceptually showing the monitor area 11 of the sensor array 3a in the photographic screen 10 and the storage area of the RAM 6 for storing the image data from the sensor array 3a. Although not shown in FIG. 3, a RAM
Of course, 6 also has a storage area for storing the image data of the sensor array 3b. That is, RAM
The actual storage area of 6 is twice the storage area shown in FIG.
【0027】また、図3の例はラインセンサを用いた例
であるが、本一実施の形態の測距装置をエリアセンサに
適用することもできることは勿論である。Further, the example of FIG. 3 is an example using a line sensor, but it goes without saying that the distance measuring apparatus of the present embodiment can be applied to an area sensor.
【0028】CPU1は、このRAM6のデータを利用
して、センサアレイ3a上における被写体像の位置とセ
ンサアレイ3b上における被写体像の位置とを比較す
る。しかしながら、本実施の形態では、同図に示すよう
に、RAM6としては、センサアレイの全画素による像
データを記憶できる記憶容量を備えるものは使用してい
ない。即ち、RAM6のアドレス1つにつき1つの画素
データが入るとすると、図3(A)中、Cの領域の像デ
ータをRAM6に記憶することはできるが、そのCの領
域における像データとその両隣の領域である領域L,R
における像データとを同時にRAM6に記憶することは
できない。勿論、これに対処するために、全ての領域を
カバーできるような大容量のメモリを用いることもでき
るが、このような大容量のメモリは高価であるので、望
ましくない。The CPU 1 uses the data in the RAM 6 to compare the position of the subject image on the sensor array 3a with the position of the subject image on the sensor array 3b. However, in the present embodiment, as shown in the figure, the RAM 6 does not have a storage capacity capable of storing the image data of all the pixels of the sensor array. That is, assuming that one pixel data is entered for each address of the RAM 6, the image data of the area C in FIG. 3A can be stored in the RAM 6, but the image data in the area C and both sides of the image data can be stored. Regions L and R which are regions of
It is impossible to simultaneously store the image data in the RAM 6 in the RAM 6. Of course, in order to deal with this, a large-capacity memory that can cover the entire area can be used, but such a large-capacity memory is expensive, which is not desirable.
【0029】そこで、少容量のメモリで上記L,C,R
の全ての領域を測距できるようにするための手法とし
て、図3(A)のように、まず、RAM6に記憶するこ
とができるCの領域のみで測距を行い、次に図3(B)
のように、残りのL,Rの領域をRAM6に入力しなお
して測距を行うというように、測距を2回に分けて行う
という方法が考えられる。このようにRAM6を繰り返
して使用することで、従来はメモリ容量の問題で、Cの
領域しか測距できなかったのをL,Rの領域も同時に測
距可能となり、例えば、被写体100が写真画面10の
端の位置に存在していたとしても正しくピント合わせを
行うことができるようになる。なお、測距の回数が2回
に限定されず、他の複数回であっても良いことは勿論で
ある。Therefore, the L, C, and R are stored in a small capacity memory.
As a method for enabling the distance measurement of all the areas in FIG. 3A, first, the distance measurement is performed only in the area C that can be stored in the RAM 6 as shown in FIG. )
As described above, it is conceivable that the distance measurement is performed twice, such that the remaining L and R areas are input again to the RAM 6 and distance measurement is performed. By repeatedly using the RAM 6 in this way, it is possible to measure the distances in the L and R regions at the same time, whereas the distance can be measured only in the C region due to the problem of the memory capacity in the related art. Even if it exists at the end position of 10, the focus can be correctly adjusted. Note that the number of times of distance measurement is not limited to two and may be other than two.
【0030】次に、上記像ずれ量xを算出する方法につ
いて、図4を参照して説明する。図4は、RAM6に記
憶されている2つのセンサアレイ3a,3bの像データ
を示す図である。ここで、図4(A)はセンサアレイ3
aの像データを示した図、図4(B)乃至図4(D)は
センサアレイ3bの像データを示した図である。また、
図4中の棒グラフの1つ1つの棒はRAM6の各アドレ
スに記憶されたセンサアレイの各画素データの例を示
し、棒グラフ上に記された数値は各画素データの大きさ
を示しているものとする。なお、これらの図は、図面の
簡単化のため、6アドレス分のみを示しているものであ
り、実際には、より多くの画素データによる比較が行わ
れるものである。Next, a method of calculating the image shift amount x will be described with reference to FIG. FIG. 4 is a diagram showing image data of the two sensor arrays 3a and 3b stored in the RAM 6. Here, FIG. 4A shows the sensor array 3
FIG. 4B is a diagram showing image data of a, and FIGS. 4B to 4D are diagrams showing image data of the sensor array 3b. Also,
Each bar of the bar graph in FIG. 4 shows an example of each pixel data of the sensor array stored in each address of the RAM 6, and the numerical value shown on the bar graph shows the size of each pixel data. And It should be noted that these figures show only six addresses for the sake of simplification of the drawing, and in reality, comparison is performed with more pixel data.
【0031】センサアレイ3aとセンサアレイ3bとの
像データの比較は、まず、図4(A)と図4(B)で画
素データの比較を行う。これらの画素データの比較は、
それぞれ対応するアドレス同士で行う。例えば、図4
(A)の大きさ30の画素データは、図4(B)の大き
さ25の画素データと比較されて、5の差が生じる。ま
た、図4(A)の大きさ25の画素データが記憶されて
いるアドレスでは、図4(B)の大きさ10の画素デー
タと比較されて15の差が生じる。このようにして、そ
の他のアドレスの画素データも同様にして比較を行う。To compare the image data of the sensor array 3a and the image data of the sensor array 3b, first, the pixel data are compared in FIGS. 4 (A) and 4 (B). The comparison of these pixel data is
The corresponding addresses are used together. For example, in FIG.
The pixel data of size 30 in (A) is compared with the pixel data of size 25 in FIG. 4 (B), and a difference of 5 occurs. Further, at the address where the pixel data of size 25 in FIG. 4 (A) is stored, there is a difference of 15 compared with the pixel data of size 10 in FIG. 4 (B). In this way, the pixel data of other addresses are similarly compared.
【0032】次に、図4(A)のセンサアレイ3aの像
データと、図4(C)のような状態としたセンサアレイ
3bの像データとを比較する。即ち、比較の際に、図4
(B)の像データから1アドレス分ずらして画素データ
を読み出して比較を行うことで、結果的に、この図4
(C)のような像データと比較したこととなる。なお、
比較の方法については前述したものと同様であり、図4
(A)の大きさ30の画素データは、図4(C)の大き
さ30の画素データと比較されて0となる。また、図4
(A)の大きさ25の画素データは、図4(C)の大き
さ25の画素データと比較されて、やはり0となる。そ
の他のアドレスの画素データも同様にして比較を行うと
その差は0となる。Next, the image data of the sensor array 3a in FIG. 4A and the image data of the sensor array 3b in the state as shown in FIG. 4C are compared. That is, at the time of comparison, FIG.
By shifting the pixel data from the image data of (B) by one address and reading the pixel data for comparison, as a result, as shown in FIG.
It is compared with the image data as shown in (C). In addition,
The method of comparison is the same as that described above.
The pixel data of size 30 in (A) is 0 when compared with the pixel data of size 30 in FIG. 4 (C). Also, FIG.
The pixel data of size 25 in (A) is also 0 when compared with the pixel data of size 25 in FIG. 4 (C). If pixel data at other addresses are compared in the same manner, the difference becomes zero.
【0033】次に、図4(A)のセンサアレイ3aの像
データと、図4(D)のような状態としたセンサアレイ
3bの像データとを比較する。即ち、比較の際に、図4
(B)の像データから2アドレス分ずらして画素データ
を読み出して比較を行うことで、結果的に、この図4
(D)のような像データと比較したこととなる。比較の
方法については前述したものと同様であり、図4(A)
の大きさ30の画素データは、図4(D)の大きさ20
の画素データと比較されて10の差が生じる。また、図
4(A)の大きさ25の画素データは、図4(D)の大
きさ30の画素データと比較されて5の差が生じる。そ
の他のアドレスの画素データも同様にして比較を行う。Next, the image data of the sensor array 3a in FIG. 4A and the image data of the sensor array 3b in the state as shown in FIG. 4D are compared. That is, at the time of comparison, FIG.
By shifting the pixel data by 2 addresses from the image data in (B) and reading the pixel data for comparison, as a result, the pixel data in FIG.
It is compared with the image data as shown in (D). The method of comparison is the same as that described above, and FIG.
Pixel data of size 30 corresponds to size 20 of FIG.
Compared with the pixel data of 10 to generate 10 differences. In addition, the pixel data of size 25 in FIG. 4A is compared with the pixel data of size 30 in FIG. Pixel data at other addresses are similarly compared.
【0034】これ以後も、センサアレイ3bの像データ
を1アドレスずつずらしながらセンサアレイ3aの像デ
ータとの比較を行っていく。また、図4(B)のセンサ
アレイ3bの像データを逆方向に1アドレスずつずらし
ながら、同様の比較を実行する。After that, the image data of the sensor array 3b is compared with the image data of the sensor array 3a while shifting the image data by one address. The same comparison is performed while shifting the image data of the sensor array 3b of FIG. 4B by one address in the reverse direction.
【0035】以上のようにして行った比較の結果、図4
(A)と図4(B)及び図4(D)の比較結果からは、
図4(B)、図4(D)のいずれの状態でも対応する位
置同士の画素データの差が大きく、センサアレイ3aと
センサアレイ3bの一致度が高いとは言えないことが分
かる。As a result of the comparison performed as described above, FIG.
From the comparison results of (A) and FIGS. 4 (B) and 4 (D),
It can be seen that the difference in pixel data between corresponding positions is large in both states of FIG. 4B and FIG. 4D, and it cannot be said that the degree of coincidence between the sensor array 3a and the sensor array 3b is high.
【0036】しかし、センサアレイ3aの像データと、
図4(C)のような状態のセンサアレイ3bの像データ
とを比較すると、2像が一致することが容易に判断でき
る。これは、図4(A)と図4(C)の各画素データの
差をとれば、全て0となることからも明らかである。However, the image data of the sensor array 3a,
When the image data of the sensor array 3b in the state as shown in FIG. 4C is compared, it can be easily determined that the two images match. This is also apparent from the fact that if the difference between the pixel data in FIGS. 4A and 4C is taken, all the values are 0.
【0037】このようにして、センサアレイ3aとセン
サアレイ3bとの像データの差分を求めることで、差分
が最も小さかったセンサアレイ3bの像データ(例では
図4(C))が何アドレスずらして得られたかが分かれ
ば、上記像ずれ量xを求めることができる。即ち、上記
のようにしてセンサアレイ3aの像データに対し、セン
サアレイ3bの像データを1アドレスずつ変えながら比
較を行い、センサアレイ3aの像データとセンサアレイ
3bの像データとの一致度が最も高くなったときの、最
初にセンサアレイ3aの像データと比較を行ったセンサ
アレイ3bの像データとの差のアドレスに相当する距離
により像ずれ量xを求めることができる。つまり、例の
ように、センサアレイの1つの画素の出力、即ち画素デ
ータは、RAM6の1つのアドレスにしか記憶できない
とすると、アドレスのずれはそのまま画素のずれとな
る。よって、予め各画素間の距離を決定しておくこと
で、アドレスのずれより上記像ずれ量xを求めることが
できる。(例では、図4(C)の時に像ずれ量xは、図
4(B)と図4(C)のアドレスの差、1アドレスに対
応する1画素分の距離となる。)なお、上記のようにし
て求めた像データの差分は相関係数と呼ばれ、2像の一
致度の程度を示す量である。即ち、これが小さいほど2
像の一致度が高いことが分かる。また、遠距離の被写体
と近距離の被写体が混在するようなシーンにおいては2
つのセンサアレイ3a,3bがモニタする像がアンバラ
ンスになって測距の結果が不正確となり、相関係数は大
きな値となる。By thus obtaining the difference between the image data of the sensor array 3a and the image data of the sensor array 3b, the address of the image data of the sensor array 3b having the smallest difference (FIG. 4C in the example) is shifted. The image shift amount x can be obtained by knowing whether or not the image shift amount is obtained. That is, as described above, the image data of the sensor array 3a is compared while changing the image data of the sensor array 3b by one address, and the degree of coincidence between the image data of the sensor array 3a and the image data of the sensor array 3b is determined. The image shift amount x can be obtained from the distance corresponding to the address of the difference between the image data of the sensor array 3a and the image data of the sensor array 3b that was first compared with the image data of the sensor array 3a when the image height becomes the highest. That is, as in the example, assuming that the output of one pixel of the sensor array, that is, the pixel data can be stored in only one address of the RAM 6, the address shift becomes the pixel shift as it is. Therefore, by determining the distance between each pixel in advance, the image shift amount x can be obtained from the shift of the address. (In the example, the image shift amount x in FIG. 4C is the difference between the addresses in FIGS. 4B and 4C, which is the distance for one pixel corresponding to one address.) The difference between the image data obtained as described above is called a correlation coefficient and is an amount indicating the degree of coincidence between the two images. That is, the smaller this is, the more 2
It can be seen that the agreement of the images is high. Also, in a scene in which a long-distance subject and a short-distance subject are mixed, 2
The images monitored by the two sensor arrays 3a and 3b become unbalanced and the result of distance measurement becomes inaccurate, resulting in a large correlation coefficient.
【0038】このような構成を前提として、本一実施の
形態では、図5(A)に示すように、まず、写真画面1
0内における両センサアレイ3a,3bのモニタ領域1
1の中央部領域Cと左側領域Lにおける像データをRA
M6に入力して、前述した像ずれ量を算出する演算及び
三角測距の原理から、領域L+Cにおける被写体の距離
を求め、次に図5(B)に示すように、中央部領域Cと
右側領域Rにおける像データをRAM6に入力しなおし
て、領域C+Rにおける被写体の距離を求めるような構
成をとっている。ここで、2回目の測距時にRAM6に
入力する領域C+Rにおいて、領域Cは上記1回目と共
通とし、領域Rを1回目の領域Lよりも狭くとることに
する。この理由については後述する。On the premise of such a configuration, in the present embodiment, as shown in FIG.
Monitor area 1 of both sensor arrays 3a and 3b within 0
The image data in the central area C and the left area L of 1 are RA
The distance to the subject in the area L + C is obtained from the calculation of the image shift amount and the principle of triangulation, which is input to M6, and then, as shown in FIG. The image data in the area R is input to the RAM 6 again, and the distance of the object in the area C + R is obtained. Here, in the area C + R input to the RAM 6 at the time of the second distance measurement, the area C is common to the first time and the area R is made narrower than the first time area L. The reason for this will be described later.
【0039】この領域L+C測距時とC+R測距時とい
う2つのタイミングで、A/D変換時における上記輝度
分布の積分条件が変化していれば、同じ画面中央部の領
域Cの輝度分布が、図5(C)及び図5(D)に示すよ
うに2種類取得できることになる。つまり、これらの輝
度分布のうち、測距データとしてよりふさわしい方を優
先してピント合わせに使ったり、得られた2つの測距デ
ータを平均化して中央部領域の測距における信頼性を向
上させることができる。なお、本一実施の形態における
RAM6のメモリ領域は、少なくとも中央部領域C+左
側領域Lが記憶できる程度でなければならないのは言う
までもないことである。If the integration condition of the brightness distribution at the time of A / D conversion is changed at two timings, that is, when measuring the area L + C and when measuring the distance C + R, the brightness distribution of the area C in the center of the screen is the same. , 2 types can be acquired as shown in FIG. 5 (C) and FIG. 5 (D). That is, of these luminance distributions, the one more suitable as the distance measurement data is preferentially used for focusing, or the two obtained distance measurement data are averaged to improve reliability in distance measurement in the central area. be able to. It is needless to say that the memory area of the RAM 6 in the present embodiment must be such that at least the central area C + the left area L can be stored.
【0040】このように少ない容量のメモリを用いて、
より広範囲の測距を可能としたので、図2の例のように
写真画面10の端に位置する主要被写体100を正しく
測距できるばかりでなく、図6(A)の例のように写真
画面10の中央に主要被写体100が存在しながら、逆
光ぎみであったり、輝度変化の大きなシーンにおいても
主要被写体100の輝度分布を正しく取得して、正確な
測距を行うことができる。By using a memory having such a small capacity,
Since a wider range can be measured, not only can the main subject 100 located at the edge of the photographic screen 10 be correctly measured as in the example of FIG. 2, but also the photographic screen as in the example of FIG. Even if the main subject 100 is present in the center of 10, the brightness distribution of the main subject 100 can be correctly acquired even in a scene where there is backlighting or a large change in brightness, and accurate distance measurement can be performed.
【0041】例えば、図6(A)のようなシーンでは、
画面左(L)側は暗く、画面右(R)側は明るいシーン
である。このとき、L側の被写体の輝度分布を正しく求
めようとすると、図6(B)のように中央部(C)の被
写体の輝度分布はオーバー気味(レベルが高すぎる。)
となる。また、R側の被写体の輝度分布を正しく求めよ
うとすると、図6(C)のようにL側の被写体の輝度分
布はアンダー気味(レベルが低すぎる。)となる。な
お、図6(B)及び図6(C)の横軸のセンサNo.と
は、両センサアレイ3a,3bの各画素に対して便宜上
ふった番号(例えば、左から1,2,3…)を示してい
るものである。For example, in the scene shown in FIG.
The left (L) side of the screen is dark and the right (R) side of the screen is bright. At this time, if the luminance distribution of the subject on the L side is correctly obtained, the luminance distribution of the subject in the central portion (C) tends to be overly high (the level is too high) as shown in FIG. 6B.
Becomes Further, if the luminance distribution of the R-side subject is to be obtained correctly, the luminance distribution of the L-side subject will be underexposed (the level is too low) as shown in FIG. 6C. In addition, the sensor No. on the horizontal axis in FIGS. Is a number (for example, 1, 2, 3 ... from the left) assigned to each pixel of both sensor arrays 3a and 3b for the sake of convenience.
【0042】しかし、中央部Cにおける輝度分布は図6
(B)と図6(C)のどちらが測距データとしてふさわ
しいかが状況によって異なるので、このように2回の測
距(像取得)を行った後で選べるようにしたり、2回の
測距結果を平均化して信頼性を高めるようにすることに
より、高精度のピント合わせを行うことができる。However, the brightness distribution in the central portion C is shown in FIG.
Depending on the situation, which of (B) and FIG. 6 (C) is suitable as the distance measurement data, it is possible to select after performing two distance measurements (image acquisition) in this way, or to perform two distance measurements. High-accuracy focusing can be performed by averaging the results and increasing the reliability.
【0043】更に、本一実施の形態では、1回目の測距
時に領域L+Cの像データをRAM6に入力し、その結
果から得られた測距データをRAM6の図5におけるD
の領域、即ち、領域Rを領域Lよりも狭くとったことに
よる領域L+Cと領域R+Cとの差に相当する領域に記
憶する。そのDの領域には、2回目の測距時、領域R+
Cの像データを入力するときに、何も入力しないように
して最終的に領域L,C,Rの各ポイントの測距結果を
比較判定できるような構成となっている。このようにす
れば、2回の測距時において、各領域における測距デー
タの遠近関係を考慮して、正しい距離にピント合わせを
することができる。Further, in the present embodiment, the image data of the area L + C is input to the RAM 6 at the time of the first distance measurement, and the distance measurement data obtained from the result is D of FIG.
, That is, the area corresponding to the difference between the area L + C and the area R + C due to the area R being narrower than the area L. In the area D, at the time of the second distance measurement, the area R +
When inputting the image data of C, nothing is input and finally the distance measurement results of the points of the regions L, C, and R can be compared and determined. By doing this, it is possible to focus on the correct distance in consideration of the perspective relationship of the distance measurement data in each area when the distance is measured twice.
【0044】次に、図7のフローチャートを参照して、
本一実施の形態に係るカメラの測距装置における測距動
作について説明する。Next, referring to the flowchart of FIG.
A distance measuring operation in the camera distance measuring device according to the embodiment will be described.
【0045】まず、CPU1は、センサアレイ3a及び
3bの各フォトダイオードにおける出力のうちL+Cの
領域についてのみ積分制御を行う(ステップS1)。First, the CPU 1 performs integral control only on the L + C region of the outputs from the photodiodes of the sensor arrays 3a and 3b (step S1).
【0046】ここで、図8を用いてフォトダイオード出
力の積分制御について説明する。Here, the integral control of the photodiode output will be described with reference to FIG.
【0047】つまり、この積分は、図8に示すように、
各画素を構成するフォトダイオード12から出力される
電流信号を、積分アンプ14によって積分コンデンサ1
3に充電することで行う。That is, this integration is as shown in FIG.
The current signal output from the photodiode 12 forming each pixel is integrated by the integration amplifier 14 into the integration capacitor 1
It is done by charging to 3.
【0048】まず、CPU1は、SW1及びSW2をO
Nして、積分コンデンサ13の電荷を初期化する。次
に、SW1をON、SW2をOFFすると各フォトダイ
オード12の出力の大小に応じた積分出力が得られるの
である。つまり、積分時間を長くすればフォトダイオー
ドの出力が小さくとも(暗いシーン等)大きな積分値が
得られ、積分時間を短くすればフォトダイオードの出力
が大きくとも(明るいシーン等)所定のダイナミックレ
ンジ内に各フォトダイオード出力の積分値、即ち、上記
輝度分布を収めることができる。First, the CPU 1 turns on SW1 and SW2.
Then, the charge of the integrating capacitor 13 is initialized. Next, when SW1 is turned on and SW2 is turned off, an integrated output corresponding to the magnitude of the output of each photodiode 12 is obtained. That is, if the integration time is extended, a large integrated value can be obtained even if the photodiode output is small (dark scene etc.), and if the integration time is shortened, the photodiode output is large (bright scene etc.) within a predetermined dynamic range. Can store the integrated value of each photodiode output, that is, the above luminance distribution.
【0049】このように、明るいシーンまたは暗いシー
ンによって積分時間を切換制御しなければならない。そ
こで、本一実施の形態においては、特に図示はしていな
いが、L+Cの領域において最大のフォトダイオード出
力を検出して、それを基準として積分時間を制御してい
る。つまり、隣同士の領域ではそれほど明るさに差がで
ず所定のレンジ内に輝度分布を収めることができるとし
て、L+Cの領域内において最大のフォトダイオード出
力が積分できる時間を積分時間として決定しているので
ある。In this way, the integration time must be switched and controlled depending on whether the scene is bright or dark. Therefore, in the present embodiment, although not particularly shown, the maximum photodiode output is detected in the region of L + C, and the integration time is controlled with this as a reference. In other words, assuming that there is not much difference in brightness between adjacent regions and the luminance distribution can be kept within a predetermined range, the time during which the maximum photodiode output can be integrated within the region L + C is determined as the integration time. Is there.
【0050】上記ステップS1の積分制御の後、アナロ
グ信号である輝度分布を上記A/D変換部4によってA
/D変換する(ステップS2)。次に、上記輝度分布を
デジタル信号に変換した像データをCPU1内部のRA
M6に記憶する(ステップS3)。そして、RAM6に
記憶された像データを読み出し、前述した像ずれ量xの
算出及び距離L算出を行う(ステップS4)。なお、こ
れらの演算は領域Cと領域Lとで個別に行う。After the integration control in step S1, the luminance distribution, which is an analog signal, is converted into A by the A / D conversion section 4.
/ D conversion is performed (step S2). Next, the image data obtained by converting the above luminance distribution into a digital signal is processed by RA in the CPU 1.
It is stored in M6 (step S3). Then, the image data stored in the RAM 6 is read out, and the image shift amount x and the distance L described above are calculated (step S4). It should be noted that these calculations are individually performed in the area C and the area L.
【0051】そして、このステップS4の演算によって
求めた、領域Lにおける距離LL、領域Cにおける距離
LC1と領域Lにおける相関係数SL、領域Cにおける
相関係数SC1をRAM6の領域Dに記憶する(ステッ
プS5)。このステップS5において相関係数をRAM
6に記憶するのは、信頼性の悪いポイントに誤ってピン
ト合わせされないように後のステップで信頼性の判定を
行う際に利用するためである。Then, the distance L L in the region L , the distance L C1 in the region C and the correlation coefficient S L in the region L , and the correlation coefficient S C1 in the region C obtained by the calculation in step S4 are used as the region D in the RAM 6 (Step S5). The correlation coefficient is stored in the RAM in step S5.
The reason for storing in No. 6 is for use in determining reliability in a later step so that a point with poor reliability is not accidentally focused.
【0052】次に、領域R+Cにおいて積分を行う(ス
テップS6)。この積分においては、領域R+Cにおい
て、最大のフォトダイオード出力を基準として積分時間
を決定している。このように、写真画面内の左右各領域
で最適な積分制御を行っているので、図6(A)のよう
に光の明暗がアンバランスなシーンにおいても正確な積
分制御を行える上に、少ないメモリ容量で広い範囲の測
距が可能となる。Next, integration is performed in the area R + C (step S6). In this integration, the integration time is determined based on the maximum photodiode output in the region R + C. In this way, since optimum integration control is performed in each of the left and right areas within the photographic screen, accurate integration control can be performed even in a scene where the light and darkness of light is unbalanced as shown in FIG. The memory capacity enables distance measurement over a wide range.
【0053】上記ステップS6の後、センサアレイ3
a,3bからの輝度分布を上記A/D変換部4でA/D
変換する(ステップS7)。そして、デジタル変換され
た輝度分布(像データ)をRAM6の領域D以外の領域
に記憶する(ステップS8)。これは、上記ステップS
5でRAM6の領域Dに記憶した距離値及び相関係数を
上書きして消去してしまわないようにするためである。
次に、上記ステップS8で記憶した像データを基に、前
述した像ずれ量xの算出及び距離L算出を行う(ステッ
プS9)。なお、これらの演算は領域Cと領域Rとで個
別に行う。After step S6, the sensor array 3
The brightness distributions from a and 3b are A / D converted by the A / D converter 4.
Convert (step S7). Then, the digitally converted luminance distribution (image data) is stored in an area other than the area D of the RAM 6 (step S8). This is the above step S
This is to prevent the distance value and the correlation coefficient stored in the area D of the RAM 6 in 5 from being overwritten and erased.
Next, based on the image data stored in step S8, the image shift amount x and the distance L described above are calculated (step S9). It should be noted that these calculations are individually performed in the area C and the area R.
【0054】そして、このステップS9の演算によって
求めた、領域Rにおける距離LR、領域Cにおける距離
LC2と領域Rにおける相関係数SR、領域Cにおける
相関係数SC2をRAM6の領域D以外の領域に記憶す
る(ステップS10)。即ち、上記ステップS8におい
て、上記像データを記憶した領域の一部をこれら距離及
び相関係数の記憶に使用するわけである。Then, the distance L R in the region R , the distance L C2 in the region C and the correlation coefficient S R in the region R , and the correlation coefficient S C2 in the region C, which are obtained by the calculation in step S9, are stored in the region D of the RAM 6. It is stored in an area other than (step S10). That is, in step S8, a part of the area storing the image data is used to store the distance and the correlation coefficient.
【0055】以後のステップは、2回の測距で得られた
2種類の中央部測距の結果から、より好ましい方を選ぶ
ステップである。まず、1回目の領域Cにおける相関係
数S C1と2回目の領域Cにおける相関係数SC2との
差をとったときに相関係数S C1の方がSC2よりも十
分大きいか否かの判定を行う(ステップS11)。S
C1がSC2よりも大きく、更にSC1とSC2との差
が十分大きい場合(予め決められた差分よりも大きい場
合)には2回目に測定した領域Cにおける距離L C2を
中央部の測距結果LCとする(ステップS12)。一
方、上記相関係数S C1がSC2よりも小さい場合、ま
たはSC1とSC2との差が小さい場合には、次のステ
ップS13に進む。なお、上記ステップS11の判定で
相関係数の差を十分大きいかとしているのは、2つの相
関係数にあまり差が無い場合には、両者の平均値をとっ
て中央部測距の信頼性を高めるためである。Subsequent steps were obtained by two distance measurements.
Select the more preferable one from the two types of central distance measurement results
It is a step. First, the phase relationship in the first region C
Number S C1And the correlation coefficient S in the second region CC2With
Correlation coefficient S when the difference is taken C1Is SC2Than ten
It is determined whether or not it is large (step S11). S
C1Is SC2Larger than SC1And SC2Difference from
Is large enough (if it is larger than the predetermined difference
The distance L in the region C measured the second time C2To
Distance measurement result L at the centerC(Step S12). one
On the other hand, the above correlation coefficient S C1Is SC2Less than
Or SC1And SC2If the difference between
Go to step S13. In addition, in the determination in step S11,
The reason why the difference in correlation coefficient is sufficiently large is that the two phases are
If there is not much difference in the number of relationships, take the average value of both.
This is to improve the reliability of central distance measurement.
【0056】次のステップS13では、2回目の領域C
における相関係数SC2と1回目の領域Cにおける相関
係数SC1との差をとったときに相関係数SC2の方が
相関係数SC1よりも十分大きいか否かの判定を行う
(ステップS13)。SC2がSC1よりも大きく、更
にSC2とSC1との差が十分大きい場合には1回目に
測定した距離LC1を中央部の測距結果LCとする(ス
テップS14)。一方、SC1とSC2との差が小さい
場合には、1回目に測定した距離LC1と2回目に測定
した距離LC2との平均値を中央部の測距結果LCとす
る(ステップS15)。In the next step S13, the second area C
It is determined whether or not sufficiently larger than the correlation coefficient S C1 better correlation coefficient S C2 when taking the difference between the correlation coefficient S C2 and first correlation coefficient S C1 in region C in (Step S13). S C2 is greater than S C1, further S difference between C2 and S C1 is a distance L C1 measured at the first time and distance measurement result L C of the central portion when large enough (step S14). On the other hand, when the difference between S C1 and S C2 is small, the average value of the distance L C1 measured at the first time and the distance L C2 measured at the second time is set as the distance measurement result L C of the central portion (step S15).
【0057】このようにすることで、主要被写体の存在
する確率の高い中央部の測距結果の高精度化が可能とな
る。By doing so, it is possible to improve the accuracy of the distance measurement result in the central portion where the main subject is highly likely to exist.
【0058】更に、以上のようにして求めた領域L,
C,Rに対応する測距結果LL,LC,LRのうちで、
相関係数が大きなものを信頼性が低いとして削除して
(ステップS16)、残った測距結果の中から、最も近
い距離を主要被写体がいる可能性が高い測距結果LPで
あるとして決定する(ステップS17)。そして、この
測距結果LPに応じてLD部7を介して撮影レンズ8を
駆動することで、図2のように写真画面10中央に主要
被写体100が存在しない場合でも、正しいピント合わ
せが可能となる。Further, the area L, obtained as described above,
Of the distance measurement results L L , L C , and L R corresponding to C and R,
The one with a large correlation coefficient is deleted as being unreliable (step S16), and the closest distance is determined from the remaining distance measurement results as the distance measurement result L P with a high possibility that the main subject is present. Yes (step S17). Then, by driving the photographing lens 8 through the LD unit 7 according to the distance measurement result L P, even when the main subject 100 in the photo screen 10 the center as shown in FIG. 2 is not present, allows the correct focusing is Becomes
【0059】また、2回目の像データを記憶するRAM
6のメモリ領域は、1回目のメモリ領域よりも狭くと
り、その差の部分(領域D)に1回目の測距時に算出し
た距離及び相関係数を記憶しておき、2回目の演算結果
と1回目に記憶した演算結果とを有効に活用して、最終
的なピント合わせ制御時に利用しているので、より信頼
性が高く、高精度の測距が可能となる。A RAM for storing the second image data
The memory area of 6 is made smaller than the memory area of the first time, and the distance and the correlation coefficient calculated at the time of the first distance measurement are stored in the difference portion (area D), and the result of the second operation is stored. Since the calculation result stored for the first time is effectively used for the final focus adjustment control, it is possible to achieve more reliable and highly accurate distance measurement.
【0060】以上説明したように本一実施の形態によれ
ば、少ないメモリ領域しか持たない廉価なCPU(マイ
コン)を利用しつつ、有効に広い範囲を測距可能とし、
主要被写体存在の確率が高い中央領域については信頼性
を十分考慮して、更に高精度の測距を可能とし、ピント
はずれの失敗がなく、廉価なカメラを提供できる。As described above, according to this embodiment, it is possible to effectively measure a wide range while using an inexpensive CPU (microcomputer) having a small memory area.
With respect to the central area where the main subject is highly likely to exist, reliability can be taken into consideration, distance measurement can be performed with higher accuracy, and a low-cost camera can be provided without failure in focusing.
【0061】以上一実施の形態に基づいて本発明を説明
したが、本発明は前述した一実施の形態に限定されるも
のではなく、本発明の要旨の範囲内で種々の変形や応用
が可能なことは勿論である。The present invention has been described above based on the embodiment, but the present invention is not limited to the above-mentioned embodiment, and various modifications and applications are possible within the scope of the gist of the present invention. Of course, of course.
【0062】例えば、領域L+Cの取り込みと領域R+
Cの取り込みの順番は、逆にしても良いのは言うまでも
ない。但し、そのときは領域Lを領域Rよりも狭くとる
ようにして取り込む。For example, taking in the area L + C and the area R +
It goes without saying that the order of capturing C may be reversed. However, in that case, the region L is taken in so as to be narrower than the region R.
【0063】[0063]
【発明の効果】以上詳述したように、本発明によれば、
メモリ容量の少ないマイコンを用いながら、写真画面内
の広い範囲を測距可能としつつ、より高精度の距離測定
を可能とするカメラの測距装置を提供することができ
る。As described in detail above, according to the present invention,
It is possible to provide a distance measuring device for a camera that can measure a wide range within a photographic screen while using a microcomputer with a small memory capacity and that can measure distance with higher accuracy.
【図1】本発明の一実施の形態に係るカメラの測距装置
のブロック構成図である。FIG. 1 is a block configuration diagram of a distance measuring device for a camera according to an embodiment of the present invention.
【図2】主要被写体が画面端に存在する例を示す図であ
る。FIG. 2 is a diagram showing an example in which a main subject is present at a screen edge.
【図3】写真画面内におけるセンサアレイのモニタ領域
とRAMのメモリ領域の関係を示す図である。FIG. 3 is a diagram showing a relationship between a monitor area of a sensor array and a memory area of a RAM in a photograph screen.
【図4】RAMに記憶された像データをグラフ化して示
した図である。FIG. 4 is a diagram showing a graph of image data stored in a RAM.
【図5】図5(A),図5(B)は本一実施の形態にお
ける像データの記憶方法を説明する図、図5(C)は1
回目測距時の領域Cにおける輝度分布の例を示す図、図
5(D)は2回目測距時の領域Cにおける輝度分布の例
を示す図である。5A and 5B are views for explaining a method of storing image data in the present embodiment, and FIG.
FIG. 5D is a diagram showing an example of the luminance distribution in the region C at the time of the second distance measurement, and FIG. 5D is a diagram showing an example of the luminance distribution in the region C at the time of the second distance measurement.
【図6】位置によって明るさが異なる被写体の例を示す
図である。FIG. 6 is a diagram showing an example of a subject whose brightness varies depending on a position.
【図7】本発明の一実施の形態に係るカメラの測距装置
における測距動作を説明するフローチャートを示す図で
ある。FIG. 7 is a diagram showing a flowchart for describing a distance measuring operation in the camera distance measuring device according to the embodiment of the present invention.
【図8】積分回路の回路図である。FIG. 8 is a circuit diagram of an integrating circuit.
1 演算制御回路(CPU) 2a 受光レンズa 2b 受光レンズb 3a センサアレイa 3b センサアレイb 4 A/D変換部 5 スイッチ(SW) 6 RAM 7 レンズドライブ(LD)部 8 撮影レンズ 9 ストロボ 12 フォトダイオード 13 積分コンデンサ 14 積分アンプ 1 Arithmetic control circuit (CPU) 2a Light receiving lens a 2b Light receiving lens b 3a Sensor array a 3b Sensor array b 4 A / D converter 5 switch (SW) 6 RAM 7 Lens drive (LD) section 8 shooting lens 9 Strobe 12 Photodiode 13 integrating capacitor 14 Integral amplifier
フロントページの続き Fターム(参考) 2F112 AC03 BA06 BA09 CA02 FA07 FA12 FA21 FA29 FA41 FA45 2H011 AA01 BA05 BB02 BB04 BB05 2H051 AA01 BB07 CB20 CE06 CE16 CE21 DA28 GB12 5C022 AB27 AC69 Continued front page F-term (reference) 2F112 AC03 BA06 BA09 CA02 FA07 FA12 FA21 FA29 FA41 FA45 2H011 AA01 BA05 BB02 BB04 BB05 2H051 AA01 BB07 CB20 CE06 CE16 CE21 DA28 GB12 5C022 AB27 AC69
Claims (4)
からなるセンサアレイと、 上記センサアレイの出力を記憶する、上記センサアレイ
の画素数より少ない記憶領域を有するデジタル記憶手段
と、 上記デジタル記憶手段の記憶内容により上記写真画面内
の被写体距離を算出する演算手段と、 を有するカメラの測距装置において、 第1のタイミングで上記センサアレイの第1の領域にお
ける出力を上記デジタル記憶手段に入力し、 上記第1のタイミングに続く第2のタイミングにおい
て、上記センサアレイの第2の領域における出力を、上
記デジタル記憶手段に入力し、 上記第1及び第2の領域が互いに共通の領域を有するこ
とを特徴とするカメラの測距装置。1. A sensor array composed of a plurality of pixels for detecting an image signal in a photographic screen, a digital storage means for storing an output of the sensor array, the digital storage means having a storage area smaller than the number of pixels of the sensor array, In a distance measuring device for a camera having: a calculating means for calculating a subject distance within the photographic screen based on the stored contents of the storing means, an output in a first area of the sensor array is stored in the digital storing means at a first timing. At the second timing following the first timing, the output of the second area of the sensor array is input to the digital storage means, and the first and second areas are set to a common area. A distance measuring device for a camera having.
位置し、 上記演算手段は、上記第1のタイミングにおいて算出し
た上記共通の領域における被写体距離と、上記第2のタ
イミングにおいて算出した上記共通の領域における被写
体距離との平均値を算出することを特徴とする請求項1
に記載のカメラの測距装置。2. The common area is located in the center of the photographic screen, and the computing means calculates the object distance in the common area calculated at the first timing and the object distance calculated at the second timing. An average value with a subject distance in a common area is calculated.
The distance measuring device for the camera described in.
レイの出力の積分結果を記憶するものであり、 上記第1及び第2のタイミングで上記デジタル記憶手段
に入力される上記センサアレイ出力の積分結果は、互い
に異なる積分条件で積分されていることを特徴とする請
求項1に記載のカメラの測距装置。3. The digital storage means stores the integration result of the output of the sensor array, and the integration result of the sensor array output input to the digital storage means at the first and second timings. 2. The camera distance measuring device according to claim 1, wherein are integrated under mutually different integration conditions.
小さく、 上記デジタル記憶手段が持つ記憶領域のうちの上記第1
の領域と上記第2の領域との差に相当する部分に、上記
第1の領域における出力に基づいて上記演算手段によっ
て算出された被写体距離が記憶されることを特徴とする
請求項1に記載のカメラの測距装置。4. The second area is smaller than the first area and is the first of the storage areas of the digital storage means.
2. The subject distance calculated by the calculating means based on the output in the first area is stored in a portion corresponding to the difference between the area and the second area. Range finder for camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001266247A JP2003075715A (en) | 2001-09-03 | 2001-09-03 | Range-finding device for camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001266247A JP2003075715A (en) | 2001-09-03 | 2001-09-03 | Range-finding device for camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003075715A true JP2003075715A (en) | 2003-03-12 |
Family
ID=19092577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001266247A Withdrawn JP2003075715A (en) | 2001-09-03 | 2001-09-03 | Range-finding device for camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003075715A (en) |
-
2001
- 2001-09-03 JP JP2001266247A patent/JP2003075715A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8576329B2 (en) | Focus detection apparatus and control method therefor | |
US6816199B1 (en) | Focus detecting device | |
US7405762B2 (en) | Camera having AF function | |
JP4963569B2 (en) | Imaging system and lens unit | |
JP5247663B2 (en) | Imaging device | |
JP2001004909A (en) | Camera having automatic focusing device | |
JPH07504279A (en) | Combined array of photometric and distance measuring elements | |
JP3585291B2 (en) | Automatic focusing device | |
US7283736B2 (en) | Imaging apparatus and imaging method | |
US7292279B2 (en) | Solid state image sensing device and photographing apparatus | |
US6532060B1 (en) | Distance measuring apparatus | |
JP2001091819A (en) | Range-finding device for camera | |
JP3761383B2 (en) | Automatic focusing device, camera, portable information input device, focusing position detection method, and computer-readable recording medium | |
JP3442426B2 (en) | Photoelectric conversion device | |
JP6960755B2 (en) | Imaging device and its control method, program, storage medium | |
JPH11122517A (en) | Image pickup device and storage medium read by computer | |
JP6941011B2 (en) | Imaging device and its control method, program, storage medium | |
JP4865275B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2001305422A (en) | Range finder | |
JP2003075715A (en) | Range-finding device for camera | |
JP2001033687A (en) | Focus detecting device | |
JP2000019386A (en) | Camera | |
JP4928236B2 (en) | Imaging apparatus and imaging system | |
JP6677336B2 (en) | Imaging device | |
JP7005313B2 (en) | Imaging device and its control method, program, storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081104 |