JP2001141981A - Range finder - Google Patents

Range finder

Info

Publication number
JP2001141981A
JP2001141981A JP32597299A JP32597299A JP2001141981A JP 2001141981 A JP2001141981 A JP 2001141981A JP 32597299 A JP32597299 A JP 32597299A JP 32597299 A JP32597299 A JP 32597299A JP 2001141981 A JP2001141981 A JP 2001141981A
Authority
JP
Japan
Prior art keywords
data
area
processing
distance measurement
main subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP32597299A
Other languages
Japanese (ja)
Inventor
Masataka Ide
昌孝 井出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP32597299A priority Critical patent/JP2001141981A/en
Priority to US09/712,868 priority patent/US6785469B1/en
Publication of JP2001141981A publication Critical patent/JP2001141981A/en
Priority to US10/690,206 priority patent/US7450171B2/en
Priority to US11/787,124 priority patent/US7750970B2/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that a CPU operating at high speed or a correlation operation device must be mounted to perform complicated processing in order to perform picture processing at high speed when distance measurement using a conventional artificial retina LSI having a parallax is applied for a camera, so that costs of individual parts increase and a range finder itself is possibly large-sized because of the increase of the number of parts, and it cannot be mounted on a small-sized and inexpensive device like a compact camera though being able to be mounted on a specific single-lens reflex camera or the like. SOLUTION: The range finder is provided with an AF area sensor, where an imaging device arranged so as to receive two images having as parallax ad a light reception signal processing circuit for pressing of a light reception signal of this imaging device are formed on the same semiconductor substrate, and detects a principal subject in a photographic picture on the basis of sensor data (outline data) integrated in the AF area sensor in the outline detection mode and sets a distance measurement area including this principal subject to perform operation for distance measurement.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等に利用可
能な測距装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring device usable for a camera or the like.

【0002】[0002]

【従来の技術】通常、カメラには、被写体に対して撮影
レンズのピントを合わせるために、撮影時に被写体まで
の距離を計測(測距)する測距装置が搭載されている。
2. Description of the Related Art In general, a camera is equipped with a distance measuring device for measuring (ranging) a distance to a subject at the time of photographing in order to focus a photographing lens on the subject.

【0003】この測距装置としては、被写体に赤外光を
投光して、その反射光により測距を行うアクティブ方式
と、被写体からの外光を積分して測距を行うパッシブ方
式とが知られている。これらの方式においては、外部か
らの光を受光して電気信号に変換する光電変換素子とし
て、一般的にラインセンサやエリアセンサが用いられて
いる。
As the distance measuring apparatus, there are an active method in which infrared light is projected on a subject and distance measurement is performed by reflected light, and a passive method in which external light from the object is integrated to measure distance. Are known. In these systems, a line sensor or an area sensor is generally used as a photoelectric conversion element that receives external light and converts it into an electric signal.

【0004】このエリアセンサを利用した画像処理装置
として、視差を有する様に配置された2つの受光領域を
有するエリアセンサと、このエリアセンサからの画像信
号に種々の情報処理を施す画像処理回路とが、同一IC
チップ上に実装された人工網膜LSI装置が知られてい
る。この画像処理回路は、エッジ強調(検出)、スムー
ジング、一次元射影等の処理を行う。
As an image processing apparatus using the area sensor, an area sensor having two light receiving regions arranged so as to have parallax, an image processing circuit for performing various information processing on image signals from the area sensor, and But the same IC
2. Description of the Related Art An artificial retinal LSI device mounted on a chip is known. This image processing circuit performs processes such as edge enhancement (detection), smoothing, and one-dimensional projection.

【0005】この人工網膜LSI装置としては、例え
ば、特開平8−178637号公報には、人工網膜LS
Iを採用した画像処理装置が開示されている。
[0005] For example, Japanese Patent Application Laid-Open No. 8-178637 discloses an artificial retinal LSI device.
An image processing apparatus employing I has been disclosed.

【0006】この画像処理装置は、入力画像から人工網
膜素子により画像の輪郭を抽出し、2つの画像の同じ高
さの走査線の輪郭情報の相関をシナプス結合演算回路を
用いた相関演算装置により高速に計算し、その相関の結
果を用いて物体までの距離計測や物体の移動検出などを
情報を求めるものである。
In this image processing apparatus, the contour of an image is extracted from an input image by an artificial retinal element, and the correlation between the contour information of the scanning lines of the same height in the two images is calculated by a correlation operation apparatus using a synapse connection operation circuit. The calculation is performed at high speed, and information such as distance measurement to the object and detection of the movement of the object is obtained using the result of the correlation.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記特
開平8−178637号公報に記載される画像処理装置
は、人工網膜LSIによる測距をカメラに適用しようと
すると、高速で画像処理を行うためには、複雑な処理を
行うための高速動作するCPUや相関演算装置を実装す
ることとなり、個々の部品コストが高く、また部品点数
も多くなるため、測距装置自体が大きくなる恐れがあ
る。
However, the image processing apparatus described in Japanese Patent Application Laid-Open No. Hei 8-178637 requires a high-speed image processing when a distance measurement using an artificial retinal LSI is applied to a camera. In this method, a high-speed CPU and a correlation operation device for performing complicated processing are mounted, and the cost of each component is high, and the number of components is large. Therefore, the distance measuring device itself may be large.

【0008】また、人工網膜LSIを搭載した2台のカ
メラを用いて2つの画像を取り込み、ステレオ法を原理
として、2像の相関関係に基づき、物体までの距離計測
即ち、測距を行っているため、装置自体が非常に大型と
なり、コストも高い。
Further, two images are captured using two cameras equipped with an artificial retinal LSI, and the distance to an object is measured, that is, the distance is measured based on the correlation between the two images based on the stereo method. Therefore, the device itself becomes very large and the cost is high.

【0009】そのため、特定の一眼レフレックスカメラ
等に搭載することができても、コンパクトカメラのよう
な小型で安価な機器に搭載することはできない。
Therefore, even if it can be mounted on a specific single-lens reflex camera or the like, it cannot be mounted on a small and inexpensive device such as a compact camera.

【0010】そこで本発明は、視差を有する2つの入力
画像を受光する撮像素子と、この撮像素子の受光信号か
ら被写体の輪郭データを生成する受光信号処理回路とが
同一半導体基板上に形成したAFエリアセンサを備え、
広範囲な測距領域を有し、主要被写体の検出を可能にす
るとともに、タイムラグの縮小、小型化低コスト化を可
能とする測距装置を提供することを目的とする。
Accordingly, the present invention provides an AF in which an image sensor for receiving two input images having parallax and a light receiving signal processing circuit for generating contour data of a subject from a light receiving signal of the image sensor are formed on the same semiconductor substrate. With an area sensor,
It is an object of the present invention to provide a distance measuring device having a wide range of distance measurement area, capable of detecting a main subject, reducing a time lag, reducing size, and reducing cost.

【0011】[0011]

【課題を解決するための手段】本発明は上記目的を達成
するために、視差を有する2つの光学系と、上記光学系
により結像される2像を撮像する撮像素子と、上記撮像
素子と同一半導体基板上に形成され、上記撮像素子の出
力に画像処理を行う処理手段と、上記処理手段の出力に
基づいて測距を行う測距手段とを備える測距装置を提供
する。
In order to achieve the above object, the present invention provides two optical systems having parallax, an image sensor for capturing two images formed by the optical system, and an image sensor. Provided is a distance measuring device that is formed on the same semiconductor substrate and includes a processing unit that performs image processing on an output of the image sensor and a distance measuring unit that performs distance measurement based on an output of the processing unit.

【0012】また、視差を有する2つの光学系と、上記
光学系により結像される2像を撮像する撮像素子と、上
記撮像素子と同一半導体基板上に形成され、上記撮像素
子の出力に画像処理を行う処理手段と、上記処理手段の
出力に基づいて主要被写体を検出する主要被写体検出手
段と、上記処理手段の出力と上記主要被写体検出手段の
出力とに基づいて測距を行う測距手段とを備える測距装
置を提供する。
[0012] Further, two optical systems having parallax, an image pickup device for picking up two images formed by the optical system, and an image formed on the same semiconductor substrate as the image pickup device, and an image output to the image pickup device. Processing means for performing processing; main subject detecting means for detecting a main subject based on the output of the processing means; and distance measuring means for measuring the distance based on the output of the processing means and the output of the main subject detecting means. And a distance measuring device comprising:

【0013】以上のような構成の測距装置は、視差を有
する2つの光学系により結像された2像を撮像素子で撮
像して同一半導体基板上の処理手段で撮像素子の受光信
号を処理して、センサデータ(輪郭データ)として主要
被写体検出手段に出力する。この主要被写体検出手段
は、センサデータに基づき、撮影画面内の主要被写体を
検出し、この主要被写体を含む測距エリアを設定して測
距演算を行い、搭載されるカメラのフォーカスレンズの
位置制御が行われる。
In the distance measuring apparatus having the above configuration, two images formed by two optical systems having parallax are picked up by the image pickup device, and the light receiving signal of the image pickup device is processed by the processing means on the same semiconductor substrate. Then, the data is output to the main subject detecting means as sensor data (contour data). The main subject detecting means detects a main subject in a shooting screen based on the sensor data, sets a ranging area including the main subject, performs a ranging calculation, and controls a position of a focus lens of a mounted camera. Is performed.

【0014】[0014]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0015】図1には、本発明の測距装置に係る第1の
実施形態として、測距装置を搭載したカメラの概略的な
構成例を示し説明する。
FIG. 1 shows a schematic configuration example of a camera equipped with a distance measuring device as a first embodiment of the distance measuring device of the present invention.

【0016】このカメラは、以下に述べる構成部位の制
御や演算処理を行うためのマイクロコンピュータからな
る制御部1と、測距に用いられるAFエリアセンサ2
と、フォーカスレンズ4を駆動するフォーカスレンズ駆
動部3と、フォーカスレンズ4の移動量に対応するパル
ス信号を発生するフォーカスレンズエンコーダ5と、測
光用受光素子6が生成した光電流信号を処理し測光結果
として出力する測光部7と、不図示のシャッタを駆動す
るシャッタ駆動部8と、撮影時の補助光若しくは測距動
作時のAF補助光としてストロボ発光部9を発光させる
ストロボ回路部10と、撮影画面に加えて本発明に関わ
る情報をファインダ画面にスーパーインポーズ表示する
ファインダ表示部11と、カメラの外装部に設けられて
フィルム駒数や撮影モード表示等を行うLCD等からな
るカメラ表示部12と、ファインダ表示部11及びカメ
ラ表示部12への表示を制御するための表示回路部13
と、ズームレンズ14を移動させて、ズーム動作(焦点
距離の変更)を行い、その焦点距離情報を制御部1に出
力するズームレンズ駆動部15と、フィルム装填のオー
トロード、1駒巻き上げ、巻き戻し等のフィルム給送を
行うフィルム給送部16と、カメラの姿勢(縦、横)を
検出する姿勢検出部21と、で構成される。
This camera has a control unit 1 comprising a microcomputer for controlling the components described below and performing arithmetic processing, and an AF area sensor 2 used for distance measurement.
A focus lens driving unit 3 for driving the focus lens 4; a focus lens encoder 5 for generating a pulse signal corresponding to the amount of movement of the focus lens 4; and a photometric signal by processing a photocurrent signal generated by the photometric light receiving element 6. A photometric unit 7 for outputting a result, a shutter driving unit 8 for driving a shutter (not shown), a strobe circuit unit 10 for emitting a strobe light unit 9 as auxiliary light for photographing or AF auxiliary light for distance measuring operation, A viewfinder display section 11 for superimposing and displaying information relating to the present invention on a viewfinder screen in addition to a shooting screen, and a camera display section including an LCD and the like provided on the exterior of the camera for displaying the number of film frames and a shooting mode. And a display circuit unit 13 for controlling display on the finder display unit 11 and the camera display unit 12.
Then, the zoom lens 14 is moved to perform a zoom operation (changing the focal length), and the focal length information is output to the control unit 1, and the automatic loading of film loading, one frame winding, winding are performed. It is composed of a film feeding section 16 for feeding the film such as returning the film, and an attitude detecting section 21 for detecting the attitude (vertical and horizontal) of the camera.

【0017】上記制御部1には、さらに、ファーストレ
リーズスイッチ(1RSW)17と、セカンドレリーズ
スイッチ(2RSW)18とが接続されており、1RS
W17のオンでAF、測光動作を行い、2RSW18の
オンで露出動作、フィルム巻き上げ動作を行う。
The controller 1 is further connected to a first release switch (1RSW) 17 and a second release switch (2RSW) 18,
When W17 is turned on, AF and photometry operations are performed, and when 2RSW18 is turned on, exposure operation and film winding operation are performed.

【0018】上記制御部1は、中央処理装置(CPU)
1aと、撮影に関する一連のシーケンスプログラムを記
憶するROM1bと、必要に応じた情報を書き換え可能
に記憶するRAM1cと、測光部7からの測光出力等の
アナログ信号をデジタル信号化するA/Dコンバータ1
dと、オートフォーカス(AF)や測光・露出演算等に
関するカメラ毎の補正データや後述する撮影画面内の主
要被写体を検出するための各種パラメータ等を記憶する
EEPROM1eとを備えている。
The control unit 1 includes a central processing unit (CPU)
1a, a ROM 1b for storing a series of sequence programs related to photographing, a RAM 1c for rewritably storing information as needed, and an A / D converter 1 for converting analog signals such as photometric output from the photometric unit 7 into digital signals.
d, and an EEPROM 1e for storing correction data for each camera relating to autofocus (AF), photometry and exposure calculation, and various parameters for detecting a main subject in a shooting screen described later.

【0019】上記AFエリアセンサ2は、撮像領域の水
平方向と垂直方向に、複数のフォトダイオード等を含む
画素ユニットが2次元的に配置された受光素子群2a
と、受光信号処理回路2bと、定常光除去部2cとから
構成される。この構成において、制御部1による積分動
作の制御により、後述する測距光学系により形成される
被写体像を撮像して、受光素子群2aへの入射光により
発生する電荷を画素毎の画素増幅回路により電圧に変換
するとともに増幅したセンサデータに変換し、上記定常
光除去部2cによりそのセンサデータから定常光成分を
除去して制御部1に出力する。
The AF area sensor 2 includes a light receiving element group 2a in which pixel units including a plurality of photodiodes and the like are two-dimensionally arranged in a horizontal direction and a vertical direction of an imaging area.
, A light receiving signal processing circuit 2b, and a stationary light removing unit 2c. In this configuration, under the control of the integration operation by the control unit 1, a subject image formed by a distance measuring optical system, which will be described later, is imaged, and charges generated by light incident on the light receiving element group 2a are converted into pixel amplification circuits for each pixel. The constant light removing unit 2c removes the steady light component from the sensor data and outputs it to the control unit 1.

【0020】そして制御部1では、入力されたセンサデ
ータに基づき演算された測距演算結果により、フォーカ
スレンズ駆動部3に駆動信号を出力し、フォーカスエン
コーダ5の出力をモニタしてフォーカスレンズ4の位置
制御を行う測距演算を行なう。図2に示すフローチャー
トを参照して、撮影におけるメインルーチンについて説
明する。不図示の電源SWがオンされるか電池が挿入さ
れると、制御部1が起動し、ROM1bに予め格納され
たシーケンスプログラムに従い動作を開始する。まず、
カメラ内の各ブロックを初期化した後、EEPROM1
eに格納されたオートフォーカス(AF)や測光等に関
する、調整及び補正データをRAM1cに展開する(ス
テップS1)。
The control unit 1 outputs a drive signal to the focus lens drive unit 3 based on the distance measurement calculation result calculated based on the input sensor data, monitors the output of the focus encoder 5 and monitors the output of the focus lens 4. A distance measurement operation for performing position control is performed. The main routine in shooting will be described with reference to the flowchart shown in FIG. When a power switch (not shown) is turned on or a battery is inserted, the control unit 1 starts up and starts operating according to a sequence program stored in the ROM 1b in advance. First,
After initializing each block in the camera,
The adjustment and correction data relating to auto focus (AF), photometry, and the like stored in e are developed in the RAM 1c (step S1).

【0021】次に、1RSW17がオンされたか否かを
判別する(ステップS2)。この判別で1RSW17が
オフのままであれば(NO)、他のスイッチ(1RSW
17,2RSW18以外)が操作されたか否かを判別す
る(ステップS3)。他のスイッチが操作されたならば
(YES)、そのスイッチ入力に応じた処理、例えば、
ZUSW19やZDSW20が操作されたならば、ズー
ムスレンズ14のアップ、ダウン動作を行い(ステップ
S4)、上記ステップS2に戻る。また、他のスイッチ
が何ら操作されなかった場合には(NO)、そのまま上
記ステップS2に戻り待機する。
Next, it is determined whether or not the 1RSW 17 has been turned on (step S2). If the 1RSW 17 remains off (NO) in this determination, another switch (1RSW 17)
Then, it is determined whether or not any of the buttons (other than 17, 2RSW 18) has been operated (step S3). If another switch is operated (YES), processing according to the switch input, for example,
When the ZUSW 19 or the ZDSW 20 is operated, the zoom lens 14 is moved up and down (step S4), and the process returns to step S2. If no other switch has been operated (NO), the process returns to step S2 and waits.

【0022】また上記ステップS2の判別において、1
RSW17がオンされたならば(YES)、測距を行い
(ステップS5)、さらに、測光・露出演算を行う(ス
テップS6)。この後、2RSW18がオンされたか否
かを判別する(ステップS7)。この判別において、2
RSW18がオンされると(YES)、シャッタ動作に
よりフィルムに露光する(ステップS8)。この露光終
了の後に、フィルムを1駒巻き上げし(ステップS
9)、上記ステップS2に戻り、次の撮影に待機する。
しかしステップS7で2RSW18がオンされなければ
(NO)、上記ステップS2に戻る。
In the determination in step S2, 1
If the RSW 17 is turned on (YES), distance measurement is performed (step S5), and photometry / exposure calculation is performed (step S6). Thereafter, it is determined whether or not the 2RSW 18 has been turned on (step S7). In this determination, 2
When the RSW 18 is turned on (YES), the film is exposed by the shutter operation (step S8). After the end of the exposure, the film is wound up by one frame (step S).
9) Return to step S2 and wait for the next photographing.
However, if the 2RSW 18 is not turned on in step S7 (NO), the process returns to step S2.

【0023】図3(a)、(b)は、外光パッシブ方式
による測距光学系の概念的な構成を示し、説明する。こ
の構成においては、AFエリアセンサ2の受光素子群2
aが配置された受光領域に測距用光を導き、被写体33
までの距離を測定するための受光レンズ31、32が基
線長Bを隔てて配置される。
FIGS. 3A and 3B show a conceptual configuration of a distance measuring optical system based on an external light passive system and will be described. In this configuration, the light receiving element group 2 of the AF area sensor 2
The distance measuring light is guided to the light receiving area where
The light receiving lenses 31 and 32 for measuring the distance to are arranged with a base line length B therebetween.

【0024】これらの受光レンズ31、32は、被写体
33の像を2像に分割して、AFエリアセンサ2の受光
素子群2aに結像させる。上記2像の相対的な位置差x
は、三角測距の原理によって、受光レンズの焦点距離f
と基線長Bとから、被写体距離Lは、以下の式による。 L=(B・f)/x 上記測距演算は、制御部1によって行われる。より具体
的には、AFエリアセンサ2の受光領域2aに、測距ブ
ロックを設定して2像に対応するセンサデータを用いて
相関演算を行い、上記2像の相対的な位置差xを検出す
る。
The light receiving lenses 31 and 32 divide the image of the subject 33 into two images and form an image on the light receiving element group 2a of the AF area sensor 2. Relative positional difference x between the two images
Is the focal length f of the light receiving lens according to the principle of triangulation.
And the base length B, the subject distance L is given by the following equation. L = (B · f) / x The distance calculation is performed by the control unit 1. More specifically, a distance measurement block is set in the light receiving area 2a of the AF area sensor 2, and a correlation operation is performed using sensor data corresponding to the two images to detect a relative positional difference x between the two images. I do.

【0025】図4は、前述したAFエリアセンサ2の具
体的な構成例を示し説明する。
FIG. 4 shows a specific configuration example of the AF area sensor 2 described above.

【0026】このAFエリアセンサ2は、図3(a)に
示したような上記受光レンズ31,32により結像され
た測距光を受光する画素領域(受光素子群2a内)3
4,35と、制御スキャナとして機能する垂直制御回路
(VC)36,37と、マルチプレクサとして機能する
水平制御回路(HC)38と、出力回路OC39と、制
御部1からの司令に基づいて、AFエリアセンサ2の動
作を制御する制御回路(SC)40とが、CMOSプロ
セスにより同一シリコン基板上に各々形成され、受光レ
ンズ31,32(図示せず)が一体的に実装されている
構成である。
The AF area sensor 2 has a pixel area (within the light receiving element group 2a) 3 for receiving the distance measuring light imaged by the light receiving lenses 31, 32 as shown in FIG.
4, 35, a vertical control circuit (VC) 36, 37 functioning as a control scanner, a horizontal control circuit (HC) 38 functioning as a multiplexer, an output circuit OC39, and an AF based on a command from the control unit 1. A control circuit (SC) 40 for controlling the operation of the area sensor 2 is formed on the same silicon substrate by a CMOS process, and light receiving lenses 31 and 32 (not shown) are integrally mounted. .

【0027】画素領域34,35内の各受光素子は、受
光部分であるフォトダイオードPDと、差動増幅回路S
Aと、リセットトランジスタRTとで構成され、感度制
御入力端子DP,DN、リセット端子RSは、垂直制御
回路36,37に接続される。各列共通に接続される出
力端子Nout は、水平制御回路38に接続している。こ
こで、感度制御入力端子DP,DNとリセット端子RS
は各行共通で接続されている。
Each light receiving element in each of the pixel regions 34 and 35 includes a photodiode PD as a light receiving portion and a differential amplifier S
A, and a reset transistor RT. Sensitivity control input terminals DP, DN, and a reset terminal RS are connected to vertical control circuits 36, 37. An output terminal Nout commonly connected to each column is connected to the horizontal control circuit 38. Here, the sensitivity control input terminals DP and DN and the reset terminal RS
Are connected in common in each row.

【0028】また、リセット端子RSは、PD電位を一
定電位にリセットするためのものである。リセットパル
スVrによって、一定電位にリセットされた後、読み出
しパルスが入力されるまでの電荷蓄積期間中に光強度に
準じた信号が蓄積され、入射する光量に応じて、その電
位が減少する。
The reset terminal RS is for resetting the PD potential to a constant potential. After being reset to a constant potential by the reset pulse Vr, a signal according to light intensity is accumulated during a charge accumulation period until a readout pulse is input, and the potential decreases according to the amount of incident light.

【0029】図5には、差動増幅回路SAの具体的な構
成例を示す。
FIG. 5 shows a specific configuration example of the differential amplifier circuit SA.

【0030】この差動増幅回路SAは、NMOSからな
るトランジスタTA,TP,TN,T0,TIによりカ
レントミラー接続を用いて構成される。そして、フォト
ダイオードPDとリセットトランジスタRTが直列接続
され、フォトダイオードPDのカソードは電流制御用ト
ランジスタTAのゲートに接続されている。
This differential amplifier circuit SA is configured by using current mirror connection by transistors TA, TP, TN, T0 and TI composed of NMOS. The photodiode PD and the reset transistor RT are connected in series, and the cathode of the photodiode PD is connected to the gate of the current control transistor TA.

【0031】各画素のフォトダイオードPDの電位は、
差動増幅回路SAの電流制御用トランジスタTAのゲー
トの動作により読み出される。感度制御端子DP,DN
に制御信号(VP,VN)を入力することによって、そ
れぞれフォトダイオードPDの電位に比例した正及び負
の電流出力がNout より得られる。
The potential of the photodiode PD of each pixel is
The data is read by the operation of the gate of the current control transistor TA of the differential amplifier SA. Sensitivity control terminals DP, DN
, A positive and negative current output proportional to the potential of the photodiode PD is obtained from Nout.

【0032】また感度制御端子DP,DNに電圧を印加
しなければ、その画素の電流出力は0となる。これは、
正の出力電流をコントロールする感度制御端子DPに”
1”、感度制御端子DNに”0”を与えて、トランジス
タTPをオンさせ、トランジスタT0をオフにする場
合、感度制御端子PDの電位に応じた電流がトランジス
タTA,TPを通して出力Nout より出力される。
If no voltage is applied to the sensitivity control terminals DP and DN, the current output of the pixel becomes zero. this is,
The sensitivity control terminal DP that controls the positive output current
When "1" is given to the sensitivity control terminal DN to turn on the transistor TP and turn off the transistor T0, a current corresponding to the potential of the sensitivity control terminal PD is output from the output Nout through the transistors TA and TP. You.

【0033】一方、負の出力電流をコントロールする感
度制御端子DNに”1”、感度制御端子DPに”0”を
与えてトランジスタTNをオンさせ、トランジスタTP
をオフにする場合、感度制御端子PDの電位に応じた電
流がトランジスタTA,TIに流れ、カレントミラーに
より折り返された後、トランジスタT0によってフォト
ダイオードPDの電位に応じた電流が出力Nout より吸
い込まれる。
On the other hand, "1" is given to the sensitivity control terminal DN for controlling the negative output current and "0" is given to the sensitivity control terminal DP to turn on the transistor TN, and the transistor TP
Is turned off, a current corresponding to the potential of the sensitivity control terminal PD flows through the transistors TA and TI, and after being turned back by the current mirror, a current corresponding to the potential of the photodiode PD is drawn from the output Nout by the transistor T0. .

【0034】ここで、同じ行の各画素からの出力端子N
out は互いに接続されているので、各画素からの電流出
力Nout は加算される。従って、後述する図6に示すよ
うに、3,4列目のパルスVPが、2,5列目にパルス
VNが印加された状態では、この4画素は、そこに入射
する画像情報に加重係数(−1,1,−1,1)をかけ
たフィルタリングを行ったのと同様な結果が得られる。
Here, the output terminal N from each pixel in the same row
out are connected to each other, the current output Nout from each pixel is added. Accordingly, as shown in FIG. 6, which will be described later, in a state where the pulse VP in the third and fourth columns is applied and the pulse VN in the second and fifth columns, the four pixels are added to the image information incident thereon by a weighting factor. A result similar to that obtained by performing filtering with (−1, 1, −1, 1) is obtained.

【0035】上記電流出力Nout は、水平制御回路38
により走査選択されて出力回路39より電圧出力に変換
されて出力され、制御部1内のADコンバータ1dに入
力される。感度制御信号ベクトルをS、入力画像情報の
2次元マトリクスWとすると、出力と同時にW・Sの相
関信号が得られる。
The current output Nout is supplied to the horizontal control circuit 38.
Is selected by scanning, is converted into a voltage output from the output circuit 39, is output, and is input to the AD converter 1d in the control unit 1. Assuming that the sensitivity control signal vector is S and the two-dimensional matrix W of the input image information, a correlation signal of WS is obtained at the same time as the output.

【0036】垂直制御回路36,37により感度制御デ
ータが転送されるため、感度制御信号Sは順次1ビット
ずつシフトしていく。
Since the sensitivity control data is transferred by the vertical control circuits 36 and 37, the sensitivity control signal S is sequentially shifted one bit at a time.

【0037】その結果、VP,VNとして様々なパルス
電圧を垂直制御回路36,37に加え、走査することに
より単なる画像検出から画像輪郭の検出、解像度可変、
2次元情報を1次元に圧縮することなどの画像処理を行
うことができる。
As a result, various pulse voltages as VP and VN are applied to the vertical control circuits 36 and 37, and scanning is performed.
Image processing such as compressing two-dimensional information into one dimension can be performed.

【0038】例えば、感度制御信号ベクトルSをS
(1,0,0、…、0)としてこれをシフトしていく
と、つまり、S(0,1,0、…、0)、S(0,0,
1、…、0)…とすると正画像(通常の画像)が得られ
る。また、S(1、−1,0、…、0)をシフトしてい
けば水平方向の隣接する画素間の差が求められ、水平方
向の輪郭抽出ができる。
For example, the sensitivity control signal vector S is expressed as S
(1, 0, 0,..., 0), that is, S (0, 1, 0,..., 0), S (0, 0,
1,..., 0), a normal image (normal image) is obtained. If S (1, -1, 0,..., 0) is shifted, the difference between adjacent pixels in the horizontal direction is obtained, and horizontal contour extraction can be performed.

【0039】あるいは、S(1,1,0、…、0)をシ
フトしていけば、2画素のデータが加算された出力が得
られ、解像度を変化させることができる。S(1,1,
1,0、…、0)であれば3画素加算となり、解像度を
可変させることができる。
Alternatively, if S (1, 1, 0,..., 0) is shifted, an output obtained by adding data of two pixels is obtained, and the resolution can be changed. S (1,1,
1, 0,..., 0), three pixels are added, and the resolution can be varied.

【0040】S(1,1,1、…、1)の場合は、水平
方向の出力信号が加算されて1次元射影データが得られ
る。感度制御信号は、制御部1からの司令により、制御
部40が設定する。
In the case of S (1, 1, 1,..., 1), the output signals in the horizontal direction are added to obtain one-dimensional projection data. The control unit 40 sets the sensitivity control signal in accordance with a command from the control unit 1.

【0041】以下、具体的な輪郭検出の動作について説
明する。図6(a),(b)は、概念的なAFエリアセ
ンサ2と入力画像の関係を示している。AFエリアセン
サ2に入射する光は、図6に示すように右上の領域に照
射され、左下の影の部分には照射されていない。
Hereinafter, a specific outline detection operation will be described. 6A and 6B show a conceptual relationship between the AF area sensor 2 and an input image. The light incident on the AF area sensor 2 irradiates the upper right area as shown in FIG. 6 and does not irradiate the lower left shadow area.

【0042】この構成において、感度制御信号として1
行目に電圧”1”,2行目に電圧”−1”を入力する
と、S(1、−1,0、…、0)、1行目と2行目で感
度可変素子に照射された光が同じ部分では列方向で出力
が加算され、出力は”0”となる(1,3〜5行目)。
In this configuration, 1 is used as the sensitivity control signal.
When a voltage “1” is input to the row and a voltage “−1” is input to the second row, S (1, −1, 0,..., 0) is applied to the sensitivity variable element in the first and second rows. In the same light portion, outputs are added in the column direction, and the output becomes "0" (first, third to fifth rows).

【0043】また1行目と2行目で光の強度が変化して
いる部分のみ”0”でない出力”1”が現れる(2行目
の出力)。すなわち輪郭の検出が行われる。
Further, an output "1" which is not "0" appears only in a portion where the light intensity is changed between the first row and the second row (output of the second row). That is, contour detection is performed.

【0044】次に、印加する電圧(感度制御信号)を図
6(a)の下方にずらし、図6(b)のように、2行目
に電圧”1”を、3行目に電圧”−1”を加える。この
場合、2行目と3行目で感度可変素子に照射された光が
同じ部分では列方向で出力が加算され、出力は”0”と
なる(1,2,4,5行目)。また、2行目と3行目で
光の強度が変化している部分のみ”0”でない出力”
1”が現れる(3行目の出力)。
Next, the applied voltage (sensitivity control signal) is shifted downward in FIG. 6A, and as shown in FIG. 6B, the voltage “1” is set in the second row and the voltage “1” is set in the third row. Add -1 ". In this case, outputs are added in the column direction at the same portion of the light irradiated to the sensitivity variable element in the second and third rows, and the output becomes "0" (first, second, fourth, and fifth rows). In addition, only the portion where the light intensity is changed between the second and third rows is “output that is not“ 0 ””.
1 "appears (output of the third row).

【0045】以上のように走査を繰り返して制御信号電
圧を順にずらして印加していき、その時の出力信号を配
列すると、図6(c)に示すような行列が形成される。
As described above, the scanning is repeated and the control signal voltages are sequentially shifted and applied, and when the output signals at that time are arranged, a matrix as shown in FIG. 6C is formed.

【0046】このように走査線1本分の輪郭を同時に、
且つ並列に検出することができ、輪郭情報に関する行列
を得ることができる。
Thus, the outline of one scanning line is simultaneously
In addition, detection can be performed in parallel, and a matrix relating to contour information can be obtained.

【0047】図7は、撮影画面におけるワイド端とテレ
端の画面の大きさと測距領域との関係を示す図である。
FIG. 7 is a diagram showing the relationship between the size of the screen at the wide-angle end and the telephoto end in the shooting screen and the distance measurement area.

【0048】本実施形態では、外光測距方式を採用して
いるため、ズームによる撮影画面と測距領域との間に
は、パララックスが存在する。
In this embodiment, since the external light distance measuring method is employed, there is a parallax between the photographing screen by zooming and the distance measuring area.

【0049】そのため、撮影光学系の焦点距離情報(ズ
ーム情報)に応じて測距に使用する領域を限定する。こ
のような焦点距離の変化に応じた測距エリア位置補正デ
ータは、EEPROM1eに予め記憶されており、制御
部1の初期化とともにRAM1dに読み出されて展開さ
れている。
Therefore, the area used for distance measurement is limited according to the focal length information (zoom information) of the photographing optical system. The distance measurement area position correction data corresponding to such a change in the focal length is stored in the EEPROM 1e in advance, and is read out and expanded in the RAM 1d when the control unit 1 is initialized.

【0050】ズームレンズ駆動部によるズーム動作に応
じて、この補正データを参照して、AFエリアセンサ2
の受光領域内の測距動作に使用する測距領域を決定す
る。そして、この測距領域範囲内のセンサデータにより
測距演算を行う。
According to the zoom operation by the zoom lens driving unit, the AF area sensor 2 is referred to by referring to the correction data.
The distance measuring area used for the distance measuring operation within the light receiving area is determined. Then, a distance measurement calculation is performed using the sensor data within the range of the distance measurement area.

【0051】また、制御部1はAFエリアセンサ2に対
して、この測距領域内に対応する積分制御用ピークモニ
タを発生するように制御信号を出力する。そして、AF
エリアセンサ2は、指定された測距エリアの範囲内のピ
ーク信号を制御部1に出力する。制御部1は、このモニ
タ信号を参照して積分量が所定のレベルとなるように、
制御する。
Further, the control section 1 outputs a control signal to the AF area sensor 2 so as to generate a peak monitor for integration control corresponding to the AF area sensor 2. And AF
The area sensor 2 outputs a peak signal within the range of the designated ranging area to the control unit 1. The control unit 1 refers to this monitor signal so that the integration amount becomes a predetermined level.
Control.

【0052】このようにして、撮影画面外に被写体の影
響を受けないようにしている。また、センサデータの読
み出し時にも、上記撮影画面に対応する測距領域補正デ
ータを参照して、不要な撮影画面外のセンサデータは読
みとばしてRAM1cに格納しない。あるいはAFエリ
アセンサ2に読み出し範囲設定信号を出力して、設定さ
れた範囲内のセンサデータだけ出力するようにする。
In this way, the influence of the subject outside the photographing screen is prevented. Also at the time of reading the sensor data, unnecessary sensor data outside the shooting screen is skipped and stored in the RAM 1c with reference to the distance measurement area correction data corresponding to the shooting screen. Alternatively, a read range setting signal is output to the AF area sensor 2 so that only the sensor data within the set range is output.

【0053】図8に示すフローチャートを参照して、本
実施形態の測距装置におけるAFルーチンについて説明
する。まず、カメラに備えられた操作部を操作して、A
Fエリアセンサ2における輪郭検出モードを設定する
(ステップS11)。
With reference to the flowchart shown in FIG. 8, the AF routine in the distance measuring apparatus according to the present embodiment will be described. First, operating the operation unit provided in the camera, A
The contour detection mode in the F area sensor 2 is set (step S11).

【0054】そして、制御部1からAFエリアセンサ2
に積分制御信号を出力して、積分動作を行わせる(ステ
ップS12)。AFエリアセンサ2から所定範囲内のピ
ーク(最も明るい画素)出力に対応するモニタ信号が出
力される。このモニタ信号を参照しながら、AFエリア
センサ2の受光部2aの受光量が適正となるように積分
時間を調節する。そして、所定の積分されたセンサデー
タ(輪郭データ)は、制御部1からの読み出し用クロッ
ク信号に応じて、AFエリアセンサ2から読み出され、
ADコンバータ1dでAD変換された後、RAM1cに
格納される。
Then, the controller 1 sends the AF area sensor 2
To output an integration control signal to perform an integration operation (step S12). A monitor signal corresponding to a peak (brightest pixel) output within a predetermined range is output from the AF area sensor 2. While referring to this monitor signal, the integration time is adjusted so that the amount of light received by the light receiving section 2a of the AF area sensor 2 becomes appropriate. Then, predetermined integrated sensor data (contour data) is read from the AF area sensor 2 in accordance with a read clock signal from the control unit 1, and
After the AD conversion by the AD converter 1d, the data is stored in the RAM 1c.

【0055】次に、中央処理装置1aにおいて、主要被
写体を抽出する処理を行う(ステップS13)。ここで
抽出されたものが主要被写体か否かを判定して(ステッ
プS14)、その主要被写体を含む測距エリアを設定
し、測距演算を行う(ステップS15)。
Next, the central processing unit 1a performs a process of extracting a main subject (step S13). It is determined whether or not the extracted object is a main subject (step S14), a ranging area including the main subject is set, and a ranging calculation is performed (step S15).

【0056】この測距演算により、得られた測距データ
に基づいて、フォーカスレンズ駆動部3によるフォーカ
スレンズ4の駆動を行う(ステップS16)。
The focus lens 4 is driven by the focus lens drive unit 3 based on the distance measurement data obtained by the distance measurement calculation (step S16).

【0057】図9に示すフローチャートを参照して、主
要被写体の検出ルーチンについて説明する。このルーチ
ンでは、例えば、主要被写体として人物を想定し、その
人物を検出する手順について説明する。尚、AFエリア
センサ2により2つの画像が得られるが、主要被写体の
検出に使用する画像データ(センサデータ)は、いずれ
か一方の画像でもよいし、両方の画像を使用してもよ
い。
The main subject detection routine will be described with reference to the flowchart shown in FIG. In this routine, for example, a procedure for assuming a person as a main subject and detecting the person will be described. Note that two images are obtained by the AF area sensor 2, and the image data (sensor data) used for detecting the main subject may be either one of the images or both images.

【0058】AFエリアセンサ2のセンサデータは、制
御部1内のRAM1cに格納されており、このセンサデ
ータに基づいて、以下の処理を行う。
The sensor data of the AF area sensor 2 is stored in the RAM 1c in the control section 1, and the following processing is performed based on the sensor data.

【0059】まず、読み出したセンサデータに平滑化処
理を施す(ステップS21)。この平滑化処理は、画像
中のランダムノイズを除去する処理で、フィルタ処理や
フーリェ変換によって除去する(ステップS21)。こ
のランダムノイズは、AFエリアセンサ2自体が有する
ランダムノイズや、AFエリアセンサ2の電源電圧変動
等の外的ノイズにより発生する。
First, a smoothing process is performed on the read sensor data (step S21). This smoothing process is a process for removing random noise in an image, and is performed by filtering or Fourier transform (step S21). This random noise is generated by random noise of the AF area sensor 2 itself or external noise such as power supply voltage fluctuation of the AF area sensor 2.

【0060】次に、2値化処理画像に対して閾値処理に
より、ある値以下の部分を抽出して2値画像を求める
(ステップS22)。
Next, a part below a certain value is extracted from the binarized image by threshold processing to obtain a binary image (step S22).

【0061】ここで、この平滑化処理は、画像内に混入
するランダムノイズを除去する処理である。この処理に
は種々の方法があるが、例えば、近傍領域内の画素値の
中央値(メディアン)を求めるメディアンフィルタや、
近傍領域を小領域に分け、小領域毎に分散を求めて分散
が最小の小領域を求め、その平均値を出力するエッジ保
存フィルタ等が有効である。上記メディアンフィルタ
は、画像のエッジがなまってしまう副作用があるが、エ
ッジ保存フィルタはエッジがなまらないのでより有効で
ある。また、その他に、フーリェ変換を用いた方法もあ
る。
Here, the smoothing process is a process for removing random noise mixed in the image. There are various methods for this processing. For example, a median filter for finding a median (median) of pixel values in a neighboring region,
An edge preserving filter or the like that divides the neighboring area into small areas, obtains the variance for each small area, finds the small area having the smallest variance, and outputs the average value thereof is effective. The median filter has a side effect of dulling the edge of the image, but the edge preserving filter is more effective because the edge is not dull. In addition, there is a method using Fourier transform.

【0062】その後、この2値画像に中央処理装置1a
で、ラベリング及び図形融合処理を施し(ステップS2
3)、細線化処理エッジに対応するある幅を有する図形
を得る(ステップS24)。この図形に細線化アルゴリ
ズムを適用して、線幅を約1にする。
Thereafter, the central processing unit 1 a
To perform labeling and figure fusion processing (step S2).
3) A graphic having a certain width corresponding to the thinning processing edge is obtained (step S24). The line width is reduced to about 1 by applying a thinning algorithm to this figure.

【0063】そして、後述する形状判定処理により画像
の形状を判別して、主要被写体を抽出する(ステップS
25)。
Then, the shape of the image is determined by a shape determination process described later, and a main subject is extracted (step S).
25).

【0064】次に図10に示すフローチャートを参照し
て、2値化処理(閾値処理)について説明する。まず、
画像内の各輝度を示す画素値の出現頻度を表わすヒスト
グラムを作成する(ステップS31)。
Next, the binarization processing (threshold processing) will be described with reference to the flowchart shown in FIG. First,
A histogram representing the frequency of appearance of pixel values representing each luminance in the image is created (step S31).

【0065】次に、閾値設定を行う(ステップS3
2)。この閾値の設定は、閾値設定処理ヒストグラムに
基づいて閾値を決定するが、この方法には種々の方法が
あり、例えば、モード法を用いた場合には、図11
(a)に示すような例であれば、頻度が最小の輝度値を
閾値(スレッシュレベル)とし、その2値化処理を行う
(ステップS33)。
Next, a threshold value is set (step S3).
2). This threshold is set based on a threshold setting processing histogram. There are various methods, for example, in the case where the mode method is used, FIG.
In the example shown in (a), the luminance value with the lowest frequency is set as a threshold (threshold level), and the binarization process is performed (step S33).

【0066】上記閾値設定の他の方法としては、取り出
す図形の面積がある程度わかっている時に有効なp−タ
イル法、図形の境界部分に閾値がくるように定める微分
ヒストグラム法、濃度値の集合を2つのクラスに分けた
時のクラス間の分離が最もよくなるようにパラメータt
を求める判別分析法、画像位置に床じて閾値を変化させ
る可変閾値法等の方法がある。これらの方法を、状況に
応じて適宜選択して使用する。
Other methods for setting the threshold include a p-tile method effective when the area of the figure to be extracted is known to some extent, a differential histogram method in which a threshold is set at the boundary of the figure, and a set of density values. The parameter t is set so that the separation between the classes when divided into two classes is the best.
, And a variable threshold method that changes the threshold value depending on the image position. These methods are appropriately selected and used depending on the situation.

【0067】例えば、ヒストグラムの形状を判別して、
明確な最小値が存在するか否か判定し、明確な場合はモ
ード法を採用する。一方、不明確な場合は、判別分析法
を採用する。このようにヒストグラムの形状判別を行
い、その結果に応じて閾値設定方法を変更する。
For example, by determining the shape of the histogram,
It is determined whether there is a clear minimum value, and if so, the modal method is adopted. On the other hand, when it is not clear, a discriminant analysis method is adopted. Thus, the shape of the histogram is determined, and the threshold setting method is changed according to the result.

【0068】このヒストグラムの形状判別方法について
は、図11(b)に示すように例えば、極値(谷)であ
り且つ頻度最小値a,2番目に小さい値bを求め、その
差b−aを判定値dthと比較して、所定値dthより大き
い場合は、最小値aの輝度値を閾値として採用する。一
方、所定値以下の場合は、画像位置に応じて閾値を変化
させる可変閾値法を採用する。図12に示すフローチャ
ートを参照して、閾値設定処理について説明する。
In the histogram shape discrimination method, as shown in FIG. 11B, for example, an extreme value (valley), a minimum frequency value a, and a second smallest value b are obtained, and the difference b−a Is compared with the determination value dth, and when it is larger than the predetermined value dth, the luminance value of the minimum value a is adopted as the threshold value. On the other hand, if the value is equal to or less than the predetermined value, a variable threshold method of changing the threshold according to the image position is employed. The threshold value setting processing will be described with reference to the flowchart shown in FIG.

【0069】まず、最小値a,2番目に小さい頻度bを
求める(ステップS41)。次に、差分(b−a)が所
定の判定値dthよりも大きいか否かを判定する(ステッ
プS42)。
First, the minimum value a and the second lowest frequency b are obtained (step S41). Next, it is determined whether the difference (ba) is larger than a predetermined determination value dth (step S42).

【0070】この判定において、差分(b−a)が判定
値dthより大きい場合は(YES)、最小値aに対応す
る輝度値Baを閾値として採用する(ステップS4
3)。しかし、差分(b−a)が判定値dth以下の場合
は(NO)、可変閾値法を採用する(ステップS4
4)。
In this judgment, if the difference (ba) is larger than the judgment value dth (YES), the luminance value Ba corresponding to the minimum value a is adopted as the threshold (step S4).
3). However, when the difference (ba) is equal to or smaller than the determination value dth (NO), the variable threshold method is adopted (step S4).
4).

【0071】本実施形態によれば、撮影画面全体に対応
する画像での2値化の場合は、最初にモード法により閾
値を設定して、2値化処理を行う。そして、2値化画像
を評価した結果が良好ではない場合は画像を複数のブロ
ックに分割して、分割ブロック無にヒストグラムを作成
し、改めて分割ブロック毎に閾値を設定するようにして
もよい。
According to the present embodiment, in the case of binarization of an image corresponding to the entire photographing screen, first, a threshold value is set by a mode method and binarization processing is performed. If the result of evaluating the binarized image is not good, the image may be divided into a plurality of blocks, a histogram may be created without any divided blocks, and a threshold may be set again for each divided block.

【0072】次に、ラベリング及び図形融合処理につい
て説明する。画像中で同じ輝度値の画素が互いに連結し
ている連結部分の群に対して、ラベリングを行う。つま
り、図14(b)に示すように、異なる連結部分に対し
て異なるラベル1〜3を貼り付けて区別して領域(連結
領域)を分離する。
Next, labeling and figure fusion processing will be described. Labeling is performed on a group of connected portions where pixels having the same luminance value are connected to each other in the image. That is, as shown in FIG. 14B, different labels 1 to 3 are attached to different connection portions to separate and separate regions (connection regions).

【0073】また、図形融合処理では、画像に含まれて
いる穴のような面積の小さい図形や点状の図形は、本質
的に有効でないばかりか、ノイズとして後の処理に悪影
響を及ぼす可能性があるのため、除去する必要がある。
これは、元の図形を膨らませたり縮めたりして、ノイズ
成分の除去を行う。
Further, in the graphic fusion processing, a graphic having a small area such as a hole or a point-like graphic included in an image is not only essentially ineffective, but may have a bad influence on subsequent processing as noise. Need to be removed.
This removes noise components by expanding or reducing the original figure.

【0074】次に、細線化について説明する。Next, thinning will be described.

【0075】この細線化は、得られた2値画像を対象と
して、その中に含まれる各々の連結領域に対して連結性
を損なうことなく、線幅1の線図形まで細める処理であ
る。任意の太さの線状の図形において、その幅方向の画
素を順次取り除くことにより線図形の中心線を求める。
The thinning is a process of narrowing the obtained binary image to a line figure having a line width of 1 without deteriorating the connectivity to each of the connected regions included therein. In a linear graphic having an arbitrary thickness, the center line of the linear graphic is obtained by sequentially removing pixels in the width direction.

【0076】形状判定連結領域の面積は、その連結領域
に属する画素の個数であり、周囲長は連結領域のまわり
の境界に位置する画素の個数である。但し、斜め方向は
水平、垂直方向に対して√2倍に補正する。画像の形状
を判定するために、以下の係数eが使用される。
The area of the shape determination connection region is the number of pixels belonging to the connection region, and the perimeter is the number of pixels located at the boundary around the connection region. However, the angle in the diagonal direction is corrected to √2 times the horizontal and vertical directions. The following coefficient e is used to determine the shape of the image.

【0077】e=(周囲長)^2/(面積) eは、形状が円形の時に最小値を示し、形状が複雑にな
るほど大きい値を示す。人物の顔は、ほぼ円形に近いと
考えられるので、上記eと所定値とを比較して対称画像
が人物の顔か否かを判定する。上記連結領域面積も所定
値と比較して、対称画像人物の顔か否かを判定する。
E = (perimeter) ^ 2 / (area) e indicates a minimum value when the shape is circular, and indicates a larger value as the shape becomes more complicated. Since the person's face is considered to be almost circular, it is determined whether or not the symmetric image is a person's face by comparing the above e with a predetermined value. The area of the connected area is also compared with a predetermined value to determine whether or not the face is a symmetric image person.

【0078】また、形状判定に先立ち、面積を所定範囲
の値と比較して所定範囲以外の場合は、人物ではない画
像と判別して、形状判定処理を行わないようにしてもよ
い。このように演算量を減少させて、AFタイムラグを
縮小させることができる。
Prior to the shape determination, if the area is outside the predetermined range by comparing the area with the value of the predetermined range, it may be determined that the image is not a person and the shape determination process is not performed. In this way, the amount of calculation can be reduced, and the AF time lag can be reduced.

【0079】図13に示すフローチャートを参照して、
形状判定処理について説明する。まず、抽出領域がある
か判別し、抽出領域がない場合は(NO)、リターンす
る(ステップS51)。しかし、抽出領域がある場合に
は(YES)、抽出領域の面積Sを求め、所定範囲内か
否かを判別する(ステップS52)。
Referring to the flowchart shown in FIG.
The shape determination processing will be described. First, it is determined whether or not there is an extraction area. If there is no extraction area (NO), the process returns (step S51). However, if there is an extraction area (YES), the area S of the extraction area is determined, and it is determined whether or not the area is within a predetermined range (step S52).

【0080】この判定で、抽出領域面積Sが所定範囲外
の場合(NO)、人物以外の被写体と判定し(ステップ
S53)、リターンする。しかし、所定範囲内の場合は
(YES)、形状判定値eを算出して、この形状判定値
eが所定範囲内か否かを判別する(ステップS54)。
この判定で形状判定値eが所定範囲内であれば(YE
S)、人物であると判定する(ステップS55)。しか
し、形状判定値eが所定範囲外であれば(NO)、上記
ステップS53に移行して、物以外の被写体と判定す
る。
If the extraction area S is out of the predetermined range (NO), it is determined that the subject is a person other than a person (step S53), and the process returns. However, if it is within the predetermined range (YES), the shape determination value e is calculated, and it is determined whether or not the shape determination value e is within the predetermined range (step S54).
If the shape determination value e is within the predetermined range in this determination (YE
S), it is determined that the person is a person (step S55). However, if the shape determination value e is out of the predetermined range (NO), the process proceeds to step S53, and it is determined that the subject is other than an object.

【0081】次に、全抽出領域について形状判定したか
否かを判別し(ステップS56)、終了している場合は
(YES)、リターンする。一方、終了していない場合
は(NO)、次の抽出領域を設定して(ステップS5
7)、上記ステップS52に戻り繰り返し実行する。
Next, it is determined whether or not the shape has been determined for all the extraction regions (step S56). If the determination has been completed (YES), the process returns. On the other hand, if not completed (NO), the next extraction area is set (step S5).
7) Return to step S52 and execute repeatedly.

【0082】図14(a)は、人物判定における撮影シ
ーン撮影画面を示し、同図(b)は、2値化処理後の輪
郭データを示し、同図(c)は、撮影シーン撮影画面に
おける低解像度データを示し、同図(d)は、撮影シー
ン撮影画面における低解像度輪郭データを示している。
FIG. 14A shows a photographing scene photographing screen in a person determination, FIG. 14B shows contour data after binarization processing, and FIG. 14C shows the photographing scene photographing screen. FIG. 4D shows low-resolution contour data on a photographing scene photographing screen.

【0083】この撮影シーン撮影画面は、対応するAF
エリアセンサ2の画像領域であり、被写体として人物が
含まれている。このAFエリアセンサ2から出力された
輪郭データに対して、2値化処理を行う。この処理によ
り図14(b)に示すようなエッジ部分(輪郭)53の
み、抽出された画像となる。これらの抽出エリアには、
ラベリング処理により、それぞれラベル1〜3がつけら
れている。そして、人物の顔と判定されたラベル3領域
が抽出され、この人物判定領域ラベル3を含む測距エリ
ア51を設定する。そして、測距エリア51内の輪郭デ
ータ(2値化処理前)に基づいて測距演算を行う。
This shooting scene shooting screen has a corresponding AF
This is an image area of the area sensor 2 and includes a person as a subject. The outline data output from the AF area sensor 2 is subjected to binarization processing. By this processing, only the edge portion (contour) 53 as shown in FIG. 14B becomes an extracted image. These extraction areas include:
Labels 1 to 3 are respectively attached by labeling processing. Then, a label 3 area determined to be a person's face is extracted, and a distance measurement area 51 including the person determination area label 3 is set. Then, the distance measurement calculation is performed based on the contour data (before the binarization processing) in the distance measurement area 51.

【0084】このように輪郭データは、AFエリアセン
サ2内に設けられた回路で処理されるため、他の差分処
理等の演算処理合と比較して、非常に高速に輪郭データ
が得られ、タイムラグが少ない測距装置が実現できる。
As described above, since the contour data is processed by the circuit provided in the AF area sensor 2, the contour data can be obtained at a very high speed as compared with other arithmetic processing such as difference processing. A distance measuring device with a small time lag can be realized.

【0085】次に図15に示すフローチャートを参照し
て、本発明の測距装置に係る第2の実施形態について説
明する。本実施形態は、前述した第1の実施形態と同等
の構成であるため、構成に対する説明は省略し、異なっ
ている測距ルーチンについて説明する。
Next, a second embodiment according to the distance measuring apparatus of the present invention will be described with reference to the flowchart shown in FIG. This embodiment has a configuration equivalent to that of the above-described first embodiment, and a description of the configuration will be omitted, and a different distance measurement routine will be described.

【0086】まず、カメラに備えられた操作部を操作し
て、AFエリアセンサ2におけるy射影検出モードを設
定する(ステップS61)。そして、制御部1からAF
エリアセンサ2に積分制御信号を出力して、積分動作を
行わせる(ステップS62)。 AFエリアセンサ2か
ら所定範囲内のピーク(最も明るい画素)出力に対応す
るモニタ信号が出力される。このモニタ信号を参照しな
がら、AFエリアセンサ2受光部の受光量が適正となる
ように積分時間を調節する。
First, the operation unit provided in the camera is operated to set the y projection detection mode in the AF area sensor 2 (step S61). Then, the controller 1 sends the AF
An integration control signal is output to the area sensor 2 to perform an integration operation (step S62). A monitor signal corresponding to a peak (brightest pixel) output within a predetermined range is output from the AF area sensor 2. While referring to the monitor signal, the integration time is adjusted so that the light receiving amount of the AF area sensor 2 light receiving unit becomes appropriate.

【0087】そして、図16に示すように、所定の積分
されたセンサデータ(y射影データ)は、制御部1から
の読み出し用クロック信号に応じて、AFエリアセンサ
2から読み出され、ADコンバータ1dでAD変換され
た後、RAM1cに格納される(ステップS63)。
Then, as shown in FIG. 16, predetermined integrated sensor data (y projection data) is read from the AF area sensor 2 in accordance with a read clock signal from the control unit 1, and is subjected to an AD converter. After the AD conversion in 1d, it is stored in the RAM 1c (step S63).

【0088】また同様にして、AFエリアセンサ2に対
してx射影検出モードを設定し(ステップS64)、制
御部1からAFエリアセンサ2に積分制御信号を出力し
て、積分動作を行わせる(ステップS65)。そして図
16に示すように、所定の積分されたセンサデータ(x
射影データ)は、制御部1からの読み出し用クロック信
号に応じて、AFエリアセンサ2から読み出され、AD
コンバータ1dでAD変換された後、RAM1cに格納
される(ステップS66)。
Similarly, the x projection detection mode is set for the AF area sensor 2 (step S64), and the control unit 1 outputs an integration control signal to the AF area sensor 2 to perform the integration operation (step S64). Step S65). Then, as shown in FIG. 16, predetermined integrated sensor data (x
The projection data) is read from the AF area sensor 2 in accordance with the read clock signal from the
After the AD conversion by the converter 1d, it is stored in the RAM 1c (step S66).

【0089】次に、主要被写体を抽出する処理を行う
(ステップS67)。AFエリアセンサ2に対しては、
ノーマルモードを設定する(ステップS68)。検出し
た主要被写体位置のモニタ信号に基づいて積分制御を行
う(ステップS69)。そして、AFエリアセンサ2よ
り、通常センサデータ(ノーマルモードのデータ)を読
み出す(ステップS70)。この時、全画素のデータを
読み出す必要はなく、主要被写体位置周辺のデータだけ
読み出せばよい。
Next, a process of extracting a main subject is performed (step S67). For the AF area sensor 2,
The normal mode is set (step S68). Integral control is performed based on the detected monitor signal of the main subject position (step S69). Then, normal sensor data (normal mode data) is read from the AF area sensor 2 (step S70). At this time, it is not necessary to read out the data of all the pixels, but only the data around the main subject position.

【0090】次に、抽出された主要被写体位置を含む測
距エリアを設定し、測距エリア内について測距演算を行
い(ステップS71)、得られた測距データに基づい
て、フォーカシンクレンズ駆動を行う(ステップS7
2)。
Next, a distance measurement area including the extracted main subject position is set, and a distance measurement operation is performed within the distance measurement area (step S71). Based on the obtained distance measurement data, a focus sync lens drive is performed. (Step S7)
2).

【0091】図16は、図15に示すAFルーチンによ
る撮影画面と射影出力の関係を示す図であり、射影出力
による主要被写体検出について説明する。前述したよう
に、x射影出力は、通常画素出力(通常センサデータ)
をx方向に加算したデータであり、y射影出力はy方向
に加算したデータである。なお画面の長辺方向をX、短
辺方向をyとしている。
FIG. 16 is a diagram showing the relationship between the shooting screen and the projection output by the AF routine shown in FIG. 15, and the main subject detection by the projection output will be described. As described above, the x projection output is the normal pixel output (normal sensor data)
Are added in the x direction, and the y projection output is data added in the y direction. Note that the long side direction of the screen is X and the short side direction is y.

【0092】図16に示すように、背景52が暗く、主
要被写体56が明るい場合は、主要被写体56の存在す
る領域の射影出力が大きくなる。前述したステップS6
7においては、主要被写体領域としてx,y方向のそれ
ぞれ所定の判定値Sx,Syを越える範囲を含む領域
を、測距エリア54として設定する。
As shown in FIG. 16, when the background 52 is dark and the main subject 56 is bright, the projected output of the area where the main subject 56 exists is large. Step S6 described above
In step 7, an area including a range exceeding predetermined determination values Sx and Sy in the x and y directions as a main subject area is set as the distance measurement area 54.

【0093】そして、上記ステップS69においては、
測距エリア54内の画素に対応する領域にモニタ範囲を
設定するように、制御部1からAFエリアセンサ2に司
令を出力する。この領域のモニタ信号に基づいて積分動
作を行うことにより、人物判定領域である測距エリア5
4に対して最適な通常センサデータが得られ高精度な測
距演算が可能である。また逆光シーンの時には、積分制
御エリア55に示すように、主要被写体範囲より小さい
領域として設定して、積分制御を行うことにより、高輝
度背景の影響を受けて人物判定領域のセンサデータがっ
ぶれてしまうのを防止することができる。
Then, in step S69,
The control unit 1 outputs a command to the AF area sensor 2 so as to set a monitor range in an area corresponding to a pixel in the distance measurement area 54. By performing an integration operation based on the monitor signal in this area, the distance measurement area 5 which is a person determination area is obtained.
Thus, it is possible to obtain the optimum normal sensor data for 4 and to perform a highly accurate distance measurement calculation. In the case of a backlight scene, as shown in the integral control area 55, by setting the area smaller than the main subject range and performing the integral control, the sensor data in the person determination area is affected by the high luminance background and is blurred. Can be prevented.

【0094】次に図17に示すフローチャートを参照し
て、本発明の測距装置に係る第3の実施形態について説
明する。本実施形態は、前述した第1の実施形態と同等
の構成であり、図8に示したAFルーチンにおいて、主
要被写体以外の背景シーンについても輪郭検出を行うこ
とを防止したAFルーチンの変形例である。
Next, a third embodiment according to the distance measuring apparatus of the present invention will be described with reference to the flowchart shown in FIG. This embodiment has a configuration equivalent to that of the above-described first embodiment, and is a modified example of the AF routine shown in FIG. 8, in which the contour detection is also performed on a background scene other than the main subject. is there.

【0095】まず、カメラに備えられた操作部を操作し
て、AFエリアセンサ2における輪郭検出モードを設定
する(ステップS81)。そして、制御部1からAFエ
リアセンサ2に積分制御信号を出力して、プリ発光・定
常光除去積分動作を行わせる(ステップS82)。これ
は、図18(a)に示すような撮影シーンに対して、図
8で説明したAFルーチンを適用すると、主要被写体5
6以外の背景シーンについても輪郭検出がなされる場合
があり、余計な処理が発生しタイムラグが大きくなる可
能性がある。これを解決するためにストロボ9による複
数回のプリ発光を行いながら、AFエリアセンサ2の定
常光除去積分を行う。プリ発光による被写体からの反射
光量は近距離被写体の方が大きいので、反射光量のピー
クで積分制御すれば、反射光量が小さい遠距離被写体の
出力は除去され、図18(b)に示すような輪郭データ
が得られる。
First, the operation section provided in the camera is operated to set the contour detection mode in the AF area sensor 2 (step S81). Then, the control unit 1 outputs an integration control signal to the AF area sensor 2 to perform the pre-emission / stationary light removal integration operation (step S82). This is because when the AF routine described with reference to FIG. 8 is applied to a shooting scene as shown in FIG.
Contour detection may be performed on background scenes other than 6, which may result in extra processing and a large time lag. In order to solve this, the stationary light removal integration of the AF area sensor 2 is performed while performing the multiple pre-emissions by the strobe 9. Since the amount of reflected light from the subject due to the pre-emission is greater for a short-distance subject, if integration control is performed at the peak of the reflected light quantity, the output of a long-distance subject with a small reflected light quantity is removed, as shown in FIG. Contour data is obtained.

【0096】その後、所定積分されたセンサデータ(輪
郭データ)は、制御部1からの読み出し用クロック信号
に応じて、AFエリアセンサ2から読み出され、ADコ
ンバータ1dでAD変換された後、RAM1cに格納さ
れる。
Thereafter, the sensor data (contour data) obtained by predetermined integration is read from the AF area sensor 2 in accordance with the read clock signal from the control section 1, and is subjected to A / D conversion by the A / D converter 1d and then to the RAM 1c. Is stored in

【0097】次に、中央処理装置1aにおいて、主要被
写体を抽出する処理を行う(ステップS83)。ここで
抽出された主要被写体を判定する(ステップS84)、
上記輪郭データの主要被写体位置に基づくエリアについ
て測距演算を行う(ステップS85)。この測距演算に
おいては、背景の影響を除去することができ、より正確
でタイムラグの小さい主要被写体検出および測距が可能
である。
Next, in the central processing unit 1a, a process of extracting a main subject is performed (step S83). The main subject extracted here is determined (step S84).
Distance measurement calculation is performed for an area based on the main subject position in the contour data (step S85). In this distance measurement operation, the influence of the background can be removed, and more accurate detection of the main subject with a small time lag and distance measurement can be performed.

【0098】そして得られた測距データに基づいて、フ
ォーカスレンズ駆動部3によるフォーカスレンズ4の駆
動を行う(ステップS86)。
Then, the focus lens 4 is driven by the focus lens driving section 3 based on the obtained distance measurement data (step S86).

【0099】以上の実施形態によれば、図18(a)に
示すような主要被写体56の周辺に被写体となり得る物
体57が存在する撮影シーンにおいても、主要被写体の
みに輪郭検出を行い、余計な処理を防止し、タイムラグ
が大きくなることを防止することができる。図18
(b)は、同図(a)の撮影シーンにおけるプリ発光・
定常光除去積分による輪郭データを示している。
According to the above embodiment, even in a photographing scene in which an object 57 which can be a subject exists around the main subject 56 as shown in FIG. Processing can be prevented, and a time lag can be prevented from increasing. FIG.
(B) shows the pre-flash in the shooting scene shown in FIG.
3 shows contour data obtained by stationary light removal integration.

【0100】次に図19に示すフローチャートを参照し
て、本発明の測距装置に係る第4の実施形態について説
明する。本実施形態は、前述した第2の実施形態と同等
の構成であり、図15に示したAFルーチンにおいて、
輝度の高い背景シーンについても射影検出を行うことを
防止したAFルーチンの変形例である。
Next, a fourth embodiment according to the distance measuring apparatus of the present invention will be described with reference to the flowchart shown in FIG. This embodiment has a configuration equivalent to that of the above-described second embodiment. In the AF routine shown in FIG.
It is a modified example of the AF routine that prevents projection detection even for a background scene with high luminance.

【0101】まず、カメラに備えられた操作部を操作し
て、AFエリアセンサ2におけるy射影検出モードを設
定する(ステップS91)。そして、制御部1からAF
エリアセンサ2に積分制御信号を出力して、プリ発光・
定常光除去積分動作を行わせる(ステップS92)。
First, the operation unit provided in the camera is operated to set the y projection detection mode in the AF area sensor 2 (step S91). Then, the controller 1 sends the AF
An integral control signal is output to the area sensor 2 to perform pre-flash /
A stationary light removal integration operation is performed (step S92).

【0102】これは、図20に示すような撮影シーンに
対して、図15に示したAFルーチンを適用すると、主
要被写体56以外の輝度の高い背景シーンについても射
影検出がなされて、主要被写体の検出が妨げられたり、
余計な処理が発生してタイムラグが大きくなる問題があ
る。
This is because, when the AF routine shown in FIG. 15 is applied to a photographic scene as shown in FIG. 20, projection detection is performed also on a background scene having a high luminance other than the main subject 56, and the main subject 56 is detected. Detection is hindered,
There is a problem that extra processing occurs and a time lag increases.

【0103】これを解決するために以下の処理を行う。The following processing is performed to solve this.

【0104】つまり、ストロボ9によるプリ発光を行い
ながら、最初にAFエリアセンサ2の定常光除去積分を
行う。プリ発光による被写体からの反射光量は、近距離
被写体の方が大きくなるので、反射光量のピークで積分
制御すれば、反射光量が小さい遠距離被写体の出力は除
去される。従って、図20に示すSy射影データ(Sx
射影データ)が得られ、背景の影響を除去することがで
き、より正確でタイムラグの小さい測距が可能である。
That is, while pre-emission is performed by the strobe light 9, first, stationary light removal integration of the AF area sensor 2 is performed. Since the amount of reflected light from the subject due to the pre-emission becomes larger for a short-distance subject, if integration control is performed at the peak of the reflected light amount, the output of a long-distance subject with a small reflected light amount is removed. Therefore, the Sy projection data (Sx
Projection data), the influence of the background can be removed, and more accurate distance measurement with a small time lag can be performed.

【0105】そして、所定の積分されたセンサデータ
(y射影データ)は、制御部1からの読み出し用クロッ
ク信号に応じて、AFエリアセンサ2から読み出され、
ADコンバータ1dでAD変換された後、RAM1cに
格納される(ステップS93)。
The predetermined integrated sensor data (y projection data) is read from the AF area sensor 2 in accordance with the read clock signal from the control unit 1.
After being AD-converted by the AD converter 1d, it is stored in the RAM 1c (step S93).

【0106】次に、主要被写体を検出する処理を行い
(ステップS94)、主要被写体が検出されたか否かを
判定する(ステップS95)。この判定において、検出
されれば(YES)、x射影モードによる処理を省略し
て、AFエリアセンサ2に対しては、ノーマルモードを
設定する(ステップS96)。これは、y射影データの
みにより背景シーンが除去されるので、y射影データだ
けで主要被写体が検出されれば、次のx射影モードによ
る処理を省略でき、積分時間等のタイムラグが短縮でき
る。
Next, a process of detecting a main subject is performed (step S94), and it is determined whether a main subject has been detected (step S95). In this determination, if it is detected (YES), the process in the x projection mode is omitted, and the normal mode is set for the AF area sensor 2 (step S96). Since the background scene is removed only by the y projection data, if the main subject is detected only by the y projection data, the processing in the next x projection mode can be omitted, and the time lag such as the integration time can be reduced.

【0107】そしてノーマルモードにおいて、検出した
主要被写体位置のモニタ信号に基づいて積分制御を行う
(ステップS97)。そして、AFエリアセンサ2よ
り、通常センサデータ(ノーマルモードのデータ)を読
み出す(ステップS98)。この時、全画素のデータを
読み出す必要はなく、主要被写体位置周辺のデータだけ
読み出せばよい。
Then, in the normal mode, integration control is performed based on the monitor signal of the detected main subject position (step S97). Then, normal sensor data (normal mode data) is read from the AF area sensor 2 (step S98). At this time, it is not necessary to read out the data of all the pixels, but only the data around the main subject position.

【0108】次に、抽出された主要被写体位置を含む測
距エリア54を設定し、測距エリア内について測距演算
を行い(ステップS99)、得られた測距データに基づ
いて、フォーカシンクレンズ駆動を行う(ステップS1
00)。
Next, a distance measurement area 54 including the extracted main subject position is set, and a distance measurement operation is performed within the distance measurement area (step S99). Based on the obtained distance measurement data, a focus sync lens is set. Drive (Step S1)
00).

【0109】一方、上記ステップS95において、主要
被写体が検出されたなかった場合(NO)、同様に操作
により、AFエリアセンサ2におけるx射影検出モード
を設定する(ステップS101)。そして、プリ発光・
定常光除去積分動作を行わせる(ステップS102)。
On the other hand, if the main subject is not detected in step S95 (NO), the x projection detection mode in the AF area sensor 2 is set by the same operation (step S101). And pre-flash
A stationary light removal integration operation is performed (step S102).

【0110】そして、所定の積分されたセンサデータ
(x射影データ)は、AFエリアセンサ2から読み出さ
れ、ADコンバータ1dでAD変換された後、RAM1
cに格納される(ステップS103)。
The predetermined integrated sensor data (x projection data) is read out from the AF area sensor 2 and subjected to AD conversion by the AD converter 1d.
c (step S103).

【0111】次に、主要被写体を検出する処理を行い
(ステップS104)、主要被写体が検出されたか否か
を判定する(ステップS105)。この判定において、
検出されれば(YES)、y射影データ及びx射影デー
タの両方を使用すれば主要被写体検出ができることを示
しており、上記ステップS96に移行する。しかし、主
要被写体検出ができない場合は(NO)、まず、AFエ
リアセンサ2をノーマルモードに設定する(ステップS
106)。
Next, processing for detecting the main subject is performed (step S104), and it is determined whether or not the main subject has been detected (step S105). In this determination,
If it is detected (YES), it indicates that the main subject can be detected by using both the y projection data and the x projection data, and the flow shifts to step S96. However, if the main subject cannot be detected (NO), first, the AF area sensor 2 is set to the normal mode (step S).
106).

【0112】そして、ブロック毎に積分制御を行う(ス
テップS107)。この積分は、図21に示すように、
撮影画面(若しくは、撮影画面に対応するAFセンサの
受光部)に対応するAFエリアセンサ2の画素領域を複
数のブロック(E1,E2、…)に分割して、ブロック
毎のモニタ信号を参照しつつ、積分制御を行う。
Then, integral control is performed for each block (step S107). This integral is, as shown in FIG.
The pixel area of the AF area sensor 2 corresponding to the shooting screen (or the light receiving unit of the AF sensor corresponding to the shooting screen) is divided into a plurality of blocks (E1, E2,...), And a monitor signal for each block is referred to. While performing integral control.

【0113】次に、制御部1の制御によりAFエリアセ
ンサ2からセンサデータの読み出しを行い(ステップS
108)、順次、ブロック毎に測距演算を行い(ステッ
プS109)、得られた測距データの中から好適する測
距データを決定する(ステップS110)。この測距デ
ータは、検出可能なブロックの測距結果のうち最至近測
距データを選択し採用する。このようにx,y射影デー
タにより主要被写体検出ができない場合は、全画面につ
いて測距を行い、所定のアルゴリズム(最至近選択、平
均等)に基づいて測距データを作成する。
Next, sensor data is read from the AF area sensor 2 under the control of the control section 1 (step S).
108) Then, a distance measurement operation is sequentially performed for each block (step S109), and suitable distance measurement data is determined from the obtained distance measurement data (step S110). As the distance measurement data, the closest distance measurement data is selected and adopted from the distance measurement results of the detectable blocks. As described above, when the main subject cannot be detected by the x, y projection data, distance measurement is performed on the entire screen, and distance measurement data is created based on a predetermined algorithm (closest selection, average, etc.).

【0114】そして、上記ステップS100に移行し
て、決定された測距データに基づいて、フォーカシング
レンズ駆動を行う。
Then, the flow shifts to step S100, where the focusing lens is driven based on the determined distance measurement data.

【0115】以上説明した本実施形態によれば、図20
に示すような主要被写体以外にも被写体となり得る輝度
の高い物体が存在する撮影シーンに対しても主要被写体
のみに射影検出を行い、余計な処理を防止し、タイムラ
グが大きくなることを防止できる。
According to the present embodiment described above, FIG.
The projection detection is performed only on the main subject even in a shooting scene in which there is a high-luminance object that can be a subject other than the main subject as shown in (1), unnecessary processing can be prevented, and the time lag can be prevented from increasing.

【0116】図22に示すフローチャートを参照して、
本発明の測距装置に係る第5の実施形態について説明す
る。
Referring to the flowchart shown in FIG.
A fifth embodiment according to the distance measuring apparatus of the present invention will be described.

【0117】まず、カメラに備えられた操作部を操作し
て、AFエリアセンサ2における低解像度モードを設定
する(ステップS111)。そして、制御部1から指令
により積分制御を行う(ステップS112)。
First, a low resolution mode in the AF area sensor 2 is set by operating the operation unit provided in the camera (step S111). Then, integral control is performed according to a command from the control unit 1 (step S112).

【0118】そして、所定の積分されたセンサデータ
(低解像度データ)は、制御部1からの読み出し用クロ
ック信号に応じて、AFエリアセンサ2から読み出さ
れ、ADコンバータ1dでAD変換された後、RAM1
cに格納される(ステップS113)。格納されたセン
サデータは、例えば、図14(a)に示す撮影シーンに
おける同図(c)に示すような低解像度データである。
The predetermined integrated sensor data (low-resolution data) is read from the AF area sensor 2 in accordance with the read clock signal from the control section 1, and is subjected to AD conversion by the AD converter 1d. , RAM1
c (step S113). The stored sensor data is, for example, low-resolution data as shown in FIG. 14C in the shooting scene shown in FIG.

【0119】次に、上記低解像度データに基づいて主要
被写体検出を行う(ステップS114)。
Next, a main subject is detected based on the low resolution data (step S114).

【0120】次にAFエリアセンサ2に対して、高解像
度モード(ノーマルモード)を設定する(ステップS1
15)。検出した主要被写体位置のモニタ信号に基づい
て積分制御を行う(ステップS116)。そして、AF
エリアセンサ2より、センサデータ(高解像度データ)
を読み出す(ステップS117)。
Next, a high resolution mode (normal mode) is set for the AF area sensor 2 (step S1).
15). Integral control is performed based on the monitor signal of the detected main subject position (step S116). And AF
Sensor data (high-resolution data) from area sensor 2
Is read (step S117).

【0121】次に、抽出された主要被写体位置を含む測
距エリアを設定し、測距エリア内について測距演算を行
い(ステップS118)、得られた測距データに基づい
て、フォーカシンクレンズ駆動を行う(ステップS11
9)。
Next, a distance measurement area including the extracted main subject position is set, a distance measurement operation is performed within the distance measurement area (step S118), and a focus sync lens drive is performed based on the obtained distance measurement data. (Step S11)
9).

【0122】次に図23に示すフローチャートを参照し
て、上記ステップS114における主要被写体検出につ
いて説明する。
Next, the main subject detection in step S114 will be described with reference to the flowchart shown in FIG.

【0123】この主要被写体検出は、前述した図9のフ
ローチャートで説明した主要被写体検出とは同様なルー
チンであるが、低解像度センサデータに対して差分処理
を行う点が異なっている。
This main subject detection is the same routine as the main subject detection described in the flowchart of FIG. 9 described above, except that difference processing is performed on low-resolution sensor data.

【0124】主要被写体検出において、AFエリアセン
サ2のセンサデータは、制御部1内のRAM1cに格納
されており、このセンサデータに基づいて、以下の処理
を行う。
In detecting the main subject, the sensor data of the AF area sensor 2 is stored in the RAM 1c in the control section 1, and the following processing is performed based on the sensor data.

【0125】まず、読み出したセンサデータに平滑化処
理を施す(ステップS121)。この平滑化処理は、画
像中のランダムノイズを除去する処理で、フィルタ処理
やフーリェ変換によって除去する。
First, a smoothing process is performed on the read sensor data (step S121). This smoothing process is a process for removing random noise in an image, and is performed by filtering or Fourier transform.

【0126】次に、得られた低解像度データに対して差
分処理を行う(ステップS123)。この差分処理は、
エッジ検出を行う処理であり、エッジの候補領域とその
強度が与えられる。
Next, a difference process is performed on the obtained low-resolution data (step S123). This difference processing
This is a process of performing edge detection, in which an edge candidate region and its strength are given.

【0127】このエッジ検出処理は、図24に示すよう
なセンサデータs(i,j)について、以下のような処理を
行うことによりエッジ検出が行われる。
In the edge detection processing, the edge detection is performed by performing the following processing on the sensor data s (i, j) as shown in FIG.

【0128】1次微分オペレータによる方法では、x方
向の微分およびy方向の微分をそれぞれ以下に式により
計算する。
In the method using the first derivative operator, the derivative in the x direction and the derivative in the y direction are calculated by the following equations.

【0129】 Δxs(i,j)=s(i,j)−s(i-1,j) △ys(i,j)=s(i,j)−s(i,j-1) その結果、図25(a)に示すようなデータが得られ
る。
Δxs (i, j) = s (i, j) −s (i−1, j) Δys (i, j) = s (i, j) −s (i, j−1) , Data as shown in FIG.

【0130】また、2次微分オペレータによる方法では
以下の式によ・り求められる。
In the method using the second derivative operator, the value is obtained by the following equation.

【0131】 △^2xs(i,j)=s(i-1,j)−2s(i,j)−s(i+1,j) △^2ys(i,j)=s(i-1,j)−2s(i,j)−s(i,j+1) 2次微分オペレータの一種であるラプラシアン・オペレ
ータは、エッジの肩の部分を強調するので、正の領域か
ら負の領域に移行する。そして、図25(b)に示す様
に、”0”になる部分を求めることによってエッジが求
められる。
Δ ^ 2xs (i, j) = s (i−1, j) −2s (i, j) −s (i + 1, j) Δ ^ 2ys (i, j) = s (i−1 , j) -2s (i, j) -s (i, j + 1) The Laplacian operator, which is a kind of the second derivative operator, emphasizes the shoulder portion of the edge. Transition. Then, as shown in FIG. 25B, an edge is obtained by obtaining a portion that becomes "0".

【0132】具体的な処理方法としては、空間フィルタ
テーブル(重みテーブル)との積和演算を行う。図26
(a)〜(d)には、空間フィルタテーブルの例を示
す。
As a specific processing method, a product-sum operation with a spatial filter table (weight table) is performed. FIG.
(A) to (d) show examples of the spatial filter table.

【0133】図26(a)、(b)は、1次微分オペレ
ータ(横、縦方向)を示し、同図(c)は、ラプラシア
ンオペレータを示し、同図(d)は、ソーベルオペレー
タ(x方向、y方向の1次微分、絶対値変換、加算)を
示す。
FIGS. 26 (a) and 26 (b) show a primary differential operator (horizontal and vertical directions), FIG. 26 (c) shows a Laplacian operator, and FIG. 26 (d) shows a Sobel operator ( x-direction, y-direction first derivative, absolute value conversion, addition).

【0134】以下に、演算式を示す。The following shows the arithmetic expression.

【0135】[0135]

【数1】 (Equation 1)

【0136】尚、S(x,y):処理前データ、S’(x,y):
処理後データ、W(x,y):空間フィルタ、n:定数を示
している。
S (x, y): data before processing, S '(x, y):
Data after processing, W (x, y): spatial filter, n: constant.

【0137】このような空間フィルタを、状況に応じて
適宜選択して使用する。全画像について差分処理をする
場合は、比較的演算が簡単で高速な1次微分オペレー
タ、ラプラシアンオペレータを使用する。
Such a spatial filter is appropriately selected and used according to the situation. When the difference processing is performed on all the images, a first-order differential operator and a Laplacian operator, which are relatively simple and fast to operate, are used.

【0138】一方、撮影画面内の一部の画像に関して差
分処理を行う場合は、演算がやや複雑で演算時間が長く
なるが効果は大きいソーベルオペレータを選択して使用
する。
On the other hand, when performing the difference processing on a part of the images in the photographing screen, a sobel operator is selected and used, which has a relatively complicated operation and a long operation time but has a large effect.

【0139】また、低輝度でAFエリアセンサ2の積分
時間が長い場合は、1次微分オペレータまたはラプラシ
アンオペレータを使用し、一方高輝度で積分時間が小さ
い場合は、ソーベルオペレータを使用することによりA
Fタイムラグとしてのバランスをとってもよい。
When the integration time of the AF area sensor 2 is low at low brightness, the first derivative operator or the Laplacian operator is used. On the other hand, when the integration time is high at low brightness, the Sobel operator is used. A
The balance as the F time lag may be taken.

【0140】このように低解像度データに対して差分処
理により輪郭検出を行う。
As described above, the contour detection is performed on the low resolution data by the difference processing.

【0141】次に、図9のステップS23と同様にし
て、差分処理画像に対して閾値処理により、ある値以下
の部分を抽出して2値画像を求める(ステップS12
3)。
Next, in the same manner as in step S23 of FIG. 9, the difference processing image is subjected to threshold processing to extract a portion equal to or less than a certain value to obtain a binary image (step S12).
3).

【0142】その後、この2値画像に中央処理装置1a
で、ラベリング及び図形融合処理を施し(ステップS1
24)、細線化処理エッジに対応するある幅を有する図
形を得る(ステップS125)。この図形に細線化アル
ゴリズムを適用して、線幅を約1にする。
Thereafter, the central processing unit 1 a
To perform labeling and figure fusion processing (step S1).
24), a figure having a certain width corresponding to the thinning processing edge is obtained (step S125). The line width is reduced to about 1 by applying a thinning algorithm to this figure.

【0143】そして、後述する形状判定処理により画像
の形状を判別して、主要被写体を抽出する(ステップS
126)。
Then, the shape of the image is determined by a shape determination process described later, and a main subject is extracted (step S).
126).

【0144】このように低解像度モードにより高速に低
解像度データが得られるので、加算等の演算処理により
低解像度にする場合よりも高速な処理が可能である。
Since low-resolution data can be obtained at a high speed in the low-resolution mode in this manner, processing at a higher speed than in the case of lowering the resolution by arithmetic processing such as addition can be performed.

【0145】また主要被写体検出は低解像度データによ
りデータ数を減らして検出するので、高速な主要被写体
検出処理が可能である。さらに測距演算は、高解像度デ
ータに基づいて実行するので、高精度な測距が可能であ
る。
Since the main subject is detected by reducing the number of data based on low-resolution data, high-speed main subject detection processing is possible. Further, since the distance measurement calculation is performed based on high-resolution data, highly accurate distance measurement can be performed.

【0146】図27に示すフローチャートを参照して、
本発明の測距装置に係る第6の実施形態について説明す
る。
Referring to the flowchart shown in FIG.
A sixth embodiment according to the distance measuring apparatus of the present invention will be described.

【0147】本実施形態は、図22において通常の積分
をプリ発光・定常光除去積分に変更したものであり、低
解像度モードにおいても、ストロボ9をプリ発光させな
がら定常光除去して積分動作を行うので、近距離にない
背景被写体の影響を除去することができ、より高精度な
主要被写体検出が可能である。
In this embodiment, the normal integration in FIG. 22 is changed to the pre-emission / steady light removal integration. Even in the low resolution mode, the strobe 9 is pre-emitted and the steady light is removed to perform the integration operation. As a result, the influence of the background subject not at a short distance can be removed, and the main subject can be detected with higher accuracy.

【0148】まず、カメラに備えられた操作部を操作し
て、AFエリアセンサ2における低解像度モードを設定
する(ステップS131)。そして、制御部1から指令
によりストロボ9をプリ発光させながら定常光除去して
積分動作させるプリ発光・定常光除去積分制御を行う
(ステップS132)。
First, a low resolution mode in the AF area sensor 2 is set by operating the operation unit provided in the camera (step S131). Then, in accordance with a command from the control unit 1, pre-flash / steady-light removal integration control is performed in which the strobe light 9 is pre-flashed and stationary light is removed and integration operation is performed (step S132).

【0149】そして、所定の積分されたセンサデータ
(低解像度データ)は、制御部1からの読み出し用クロ
ック信号に応じて、AFエリアセンサ2から読み出さ
れ、ADコンバータ1dでAD変換された後、RAM1
cに格納される(ステップS133)。
The predetermined integrated sensor data (low-resolution data) is read from the AF area sensor 2 in accordance with the read clock signal from the control unit 1, and is subjected to AD conversion by the AD converter 1d. , RAM1
c (step S133).

【0150】次に、上記低解像度データに基づいて主要
被写体検出を行う(ステップS134)。測距時には、
AFエリアセンサ2に対して、高解像度モードを設定す
る(ステップS135)。そして、検出した主要被写体
が低コントラストか否かを判定し(ステップS13
6)、低コントラストでなかった場合は(YES)、主
要被写体位置に基づいて、ストロボ9をプリ発光させな
がら、定常光除去積分動作を行う(ステップS13
7)。
Next, a main subject is detected based on the low resolution data (step S134). During ranging,
The high resolution mode is set for the AF area sensor 2 (step S135). Then, it is determined whether or not the detected main subject has low contrast (step S13).
6) If the contrast is not low (YES), the steady light removal integration operation is performed based on the main subject position while pre-flashing the strobe 9 (step S13).
7).

【0151】その後、主要被写体位置のモニタ信号に基
づいて通常積分制御を行い(ステップS138)、AF
エリアセンサ2よりセンサデータ(高解像度データ)を
読み出す(ステップS139)。また、上記ステップS
136の判定で、低コントラストであった場合は(N
O)、ステップS139にそのまま移行する。
Thereafter, normal integration control is performed based on the monitor signal of the main subject position (step S138), and AF is performed.
The sensor data (high-resolution data) is read from the area sensor 2 (step S139). In addition, the above step S
If it is determined in 136 that the contrast is low, (N
O), the process directly proceeds to step S139.

【0152】次に、抽出された主要被写体位置を含む測
距エリアを設定し、測距エリア内について測距演算を行
い(ステップS140)、得られた測距データに基づい
て、フォーカシングレンズ駆動を行う(ステップS14
1)。
Next, a distance measurement area including the extracted main subject position is set, a distance measurement operation is performed within the distance measurement area (step S140), and the focusing lens is driven based on the obtained distance measurement data. (Step S14)
1).

【0153】このように主要被写体検出により主要被写
体の状況を判別し、その状況に応じて積分モード(通常
積分、プリ発光・定常光除去積分)を変更するため、主
要被写体に合った積分動作を行うことができ、検出能力
が向上する。
As described above, the situation of the main subject is determined by detecting the main subject, and the integration mode (normal integration, pre-emission / steady light removal integration) is changed according to the situation. And the detection capability is improved.

【0154】図28に示すフローチャートを参照して、
本発明の測距装置に係る第7の実施形態について説明す
る。
Referring to the flowchart shown in FIG.
A seventh embodiment according to the distance measuring apparatus of the present invention will be described.

【0155】本実施形態は、AFエリアセンサ2を低解
像度・輪郭モードに設定し、得られた低解像度・輪郭デ
ータを用いて主要被写体検出を行うものである。
In the present embodiment, the AF area sensor 2 is set to the low resolution / contour mode, and the main subject is detected using the obtained low resolution / contour data.

【0156】まず、カメラに備えられた操作部を操作し
て、AFエリアセンサ2を低解像度・輪郭検出モードを
設定する(ステップS151)。そして、制御部1から
AFエリアセンサ2に積分制御信号を出力して、積分動
作を行わせる(ステップS152)。
First, the operation section provided in the camera is operated to set the AF area sensor 2 to the low resolution / contour detection mode (step S151). Then, the control unit 1 outputs an integration control signal to the AF area sensor 2 to perform an integration operation (step S152).

【0157】そして、所定の積分されたセンサデータ
(低解像度・輪郭データ)は、制御部1からの読み出し
用クロック信号に応じて、AFエリアセンサ2から読み
出され、ADコンバータ1dでAD変換された後、RA
M1cに格納される(ステップS153)。格納された
センサデータは、例えば、図14(a)に示す撮影シー
ンにおける同図(c)に示すような低解像度データであ
る。
The predetermined integrated sensor data (low-resolution / outline data) is read from the AF area sensor 2 in accordance with the read clock signal from the control unit 1, and is subjected to AD conversion by the AD converter 1d. After, RA
It is stored in M1c (step S153). The stored sensor data is, for example, low-resolution data as shown in FIG. 14C in the shooting scene shown in FIG.

【0158】次に、低解像度・輪郭データに基づいて主
要被写体を検出する処理を行う(ステップS154)。
測距時には、AFエリアセンサ2に対して、高解像度・
輪郭モードを設定する(ステップS155)。
Next, a process for detecting a main subject based on the low resolution / contour data is performed (step S154).
At the time of distance measurement, a high resolution and
The contour mode is set (step S155).

【0159】その後、主要被写体位置に基づいて積分制
御を行い(ステップS156)、AFエリアセンサ2よ
りセンサデータ(高解像度データ)を読み出す(ステッ
プS157)。次に、抽出された主要被写体位置を含む
測距エリアを設定し、測距エリア内について測距演算を
行い(ステップS158)、得られた測距データに基づ
いて、フォーカシングレンズ駆動を行う(ステップS1
59)。
Thereafter, integration control is performed based on the main subject position (step S156), and sensor data (high-resolution data) is read from the AF area sensor 2 (step S157). Next, a distance measurement area including the extracted main subject position is set, a distance measurement operation is performed within the distance measurement area (step S158), and a focusing lens is driven based on the obtained distance measurement data (step S158). S1
59).

【0160】このように低解像度モードにより高速に低
解像度データが得られるので、加算等の演算処理により
低解像度にする場合よりも高速な処理が可能である。ま
た主要被写体検出は、低解像度データによりデータ数を
減らして検出するので、高速な主要被写体検出処理が可
能である。
As described above, low-resolution data can be obtained at high speed in the low-resolution mode, so that higher-speed processing can be performed as compared with the case of lowering the resolution by arithmetic processing such as addition. The main subject is detected by reducing the number of data based on low-resolution data, so that high-speed main subject detection processing can be performed.

【0161】さらに、輪郭モードにより高速に輪郭デー
タが得られるので、差分等の演算処理により輪郭データ
を得る場合よりも高速な処理が可能である。また主要被
写体検出は、輪郭データにより検出するので、高精度な
主要被写体検出処理が可能である。測距演算は、高解像
度・輪郭データに基づいて実行するので、高精度な測距
が可能である。
Furthermore, since contour data can be obtained at high speed in the contour mode, processing can be performed at a higher speed than when contour data is obtained by arithmetic processing such as a difference. In addition, since the main subject is detected based on the contour data, highly accurate main subject detection processing is possible. Since the distance measurement calculation is performed based on the high resolution / contour data, highly accurate distance measurement is possible.

【0162】以上の実施形態について説明したが、本明
細書には以下のような発明も含まれている。
Although the above embodiments have been described, the present invention includes the following inventions.

【0163】(1)視差を有するように結像された2つ
の像を撮像し、適正受光量によるセンサデータを積分す
るAFエリアセンサと、上記AFエリアセンサと同一半
導体基板上に形成され、上記AFエリアセンサからのセ
ンサデータから輪郭データを生成する受光信号処理回路
と、上記受光信号処理回路から出力された輪郭データか
ら撮影画面内の主要被写体を検出し、上記被写体像を含
む測距エリアを撮影画面内に設定する制御部と、を具備
し、上記制御部が設定した測距エリア内を測距して、測
距演算を行う測距装置である。
(1) An AF area sensor that captures two images formed so as to have parallax and integrates sensor data based on an appropriate amount of received light, and an AF area sensor formed on the same semiconductor substrate as the AF area sensor. A light-receiving signal processing circuit that generates contour data from sensor data from the AF area sensor; a main subject in a shooting screen is detected from the contour data output from the light-receiving signal processing circuit; And a control unit configured to set within a shooting screen, and perform a distance measurement operation by measuring a distance within a distance measurement area set by the control unit.

【0164】(2)上記AFエリアセンサは、前方に配
置された2つの受光レンズにより結像された視差を有す
る測距光をそれぞれ受光する受光素子群がマトリックス
配列された画素領域と、上記制御部の司令により画素領
域の各受光素子から蓄積された測距光の光量を走査して
出力させる水平・垂直制御回路と、上記水平・垂直制御
回路からの出力信号を所定増幅する出力回路と、上記制
御部からの司令に基づいて、受光蓄積及び出力動作を制
御するセンサ制御回路と、がCMOSプロセスにより同
一シリコン基板上に各々形成される上記(1)項に記載
の測距装置である。
(2) The AF area sensor includes a pixel area in which light receiving element groups for receiving distance measuring light having parallax formed by two light receiving lenses disposed in front thereof are arranged in a matrix, and A horizontal / vertical control circuit for scanning and outputting the amount of distance measurement light accumulated from each light receiving element in the pixel area by the command of the unit, an output circuit for amplifying a predetermined output signal from the horizontal / vertical control circuit, The distance measuring apparatus according to the above mode (1), wherein the sensor control circuit for controlling the light receiving accumulation and the output operation based on a command from the control unit is formed on the same silicon substrate by a CMOS process.

【0165】(3)上記AFエリアセンサの水平・垂直
制御回路は、マトリックス配列された受光素子群の行方
向に1行づつ順次、感度制御信号を印加して、列方向で
各受光素子に蓄積された測距光の光量を取り出し、上記
光量が変化している部分のみを抽出し、走査線1本分の
輪郭を同時に且つ並列に検出して、輪郭データとして出
力する。
(3) The horizontal / vertical control circuit of the AF area sensor sequentially applies a sensitivity control signal one row at a time in the row direction of the light receiving element group arranged in a matrix, and accumulates in each light receiving element in the column direction. The light amount of the measured distance measuring light is extracted, only the portion where the light amount is changed is extracted, and the outline of one scanning line is detected simultaneously and in parallel and output as outline data.

【0166】[0166]

【発明の効果】以上詳述したように本発明によれば、視
差を有する2つの入力画像を受光する撮像素子と、この
撮像素子の受光信号から被写体の画像を画像処理したデ
ータを生成する受光信号処理回路とが同一半導体基板上
に形成したAFエリアセンサを備え、広範囲な測距領域
を有し、主要被写体の検出を可能にするとともに、タイ
ムラグの縮小、小型化低コスト化を可能とする測距装置
を提供することができる。
As described above in detail, according to the present invention, an imaging device for receiving two input images having parallax, and a light receiving device for generating data obtained by performing image processing on an image of a subject from a light receiving signal of the imaging device. A signal processing circuit is provided with an AF area sensor formed on the same semiconductor substrate, has a wide ranging area, enables detection of a main subject, reduces time lag, reduces size, and reduces cost. A ranging device can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の測距装置に係る第1の実施形態として
測距装置を搭載したカメラの概略的な構成例を示す図で
ある。
FIG. 1 is a diagram showing a schematic configuration example of a camera equipped with a distance measuring device as a first embodiment of the distance measuring device of the present invention.

【図2】撮影におけるメインルーチンについて説明する
フローチャートである。
FIG. 2 is a flowchart illustrating a main routine in photographing.

【図3】外光パッシブ方式による測距光学系の概念的な
構成を示す図である。
FIG. 3 is a diagram showing a conceptual configuration of a distance measuring optical system based on an external light passive system.

【図4】AFエリアセンサの具体的な構成例を示す図で
ある。
FIG. 4 is a diagram illustrating a specific configuration example of an AF area sensor.

【図5】差動増幅回路SAの具体的な構成例を示す図で
ある。
FIG. 5 is a diagram illustrating a specific configuration example of a differential amplifier circuit SA.

【図6】概念的なAFエリアセンサと入力画像の関係を
示す図である。
FIG. 6 is a diagram showing a conceptual relationship between an AF area sensor and an input image.

【図7】撮影画面におけるワイド端とテレ端の画面の大
きさと測距領域との関係を示す図である。
FIG. 7 is a diagram illustrating a relationship between the size of a screen at a wide end and a tele end in a shooting screen and a distance measurement area.

【図8】第1の実施形態の測距装置におけるAFルーチ
ンについて説明するためのフローチャートである。
FIG. 8 is a flowchart for explaining an AF routine in the distance measuring apparatus of the first embodiment.

【図9】主要被写体の検出ルーチンについて説明するた
めのフローチャートである。
FIG. 9 is a flowchart for describing a main subject detection routine.

【図10】2値化処理(閾値処理)について説明するた
めのフローチャートである。
FIG. 10 is a flowchart illustrating a binarization process (threshold process).

【図11】閾値設定を行うための輝度と頻度の関係を示
す図である。
FIG. 11 is a diagram illustrating a relationship between luminance and frequency for setting a threshold.

【図12】閾値設定処理について説明するためのフロー
チャートである。
FIG. 12 is a flowchart illustrating a threshold setting process.

【図13】形状判定処理について説明するためのフロー
チャートである。
FIG. 13 is a flowchart illustrating a shape determination process.

【図14】人物判定における撮影シーンの例と、その2
値化処理後の輪郭データと、低解像度データ及び低解像
度輪郭データを示す図である。
FIG. 14 shows an example of a photographing scene in person determination, and part 2
It is a figure which shows the outline data after a value process, low-resolution data, and low-resolution outline data.

【図15】本発明の測距装置に係る第2の実施形態につ
いて説明するためのフローチャートである。
FIG. 15 is a flowchart for explaining a second embodiment according to the distance measuring apparatus of the present invention.

【図16】第2の実施形態のAFルーチンにおける撮影
画面と射影出力の関係を示す図である。
FIG. 16 is a diagram illustrating a relationship between a shooting screen and a projection output in an AF routine according to the second embodiment.

【図17】本発明の測距装置に係る第3の実施形態につ
いて説明するためのフローチャートである。
FIG. 17 is a flowchart for describing a third embodiment according to the distance measuring apparatus of the present invention.

【図18】人物を含む撮影シーンと、その人物の輪郭デ
ータを示す図である。
FIG. 18 is a diagram illustrating a shooting scene including a person and outline data of the person.

【図19】本発明の測距装置に係る第4の実施形態につ
いて説明するためのフローチャートである。
FIG. 19 is a flowchart illustrating a fourth embodiment of the distance measuring apparatus according to the present invention.

【図20】撮影シーンに対するx,y方向射影の例を示
す図である。
FIG. 20 is a diagram illustrating an example of projection in the x and y directions with respect to a shooting scene.

【図21】撮影画面に対応するAFエリアセンサの画素
領域を複数のブロックに分割した例を示す図である。
FIG. 21 is a diagram illustrating an example in which a pixel area of an AF area sensor corresponding to a shooting screen is divided into a plurality of blocks.

【図22】本発明の測距装置に係る第5の実施形態につ
いて説明するためのフローチャートである。
FIG. 22 is a flowchart for describing a fifth embodiment according to the distance measuring apparatus of the present invention.

【図23】第5の実施形態における主要被写体検出につ
いて説明するためのフローチャートである。
FIG. 23 is a flowchart for describing main subject detection in a fifth embodiment.

【図24】エッジ検出処理について説明するための図で
ある。
FIG. 24 is a diagram for describing edge detection processing.

【図25】エッジ検出を行うための1次微分オペレータ
方法による撮像した原画像と処理後画像の特性を示す図
である。
FIG. 25 is a diagram illustrating characteristics of an original image and a processed image captured by a first derivative operator method for performing edge detection.

【図26】空間フィルタテーブルの例を示す図である。FIG. 26 is a diagram illustrating an example of a spatial filter table.

【図27】第6の実施形態における主要被写体検出につ
いて説明するためのフローチャートである。
FIG. 27 is a flowchart for describing main subject detection in a sixth embodiment.

【図28】第7の実施形態における主要被写体検出につ
いて説明するためのフローチャートである。
FIG. 28 is a flowchart for describing main subject detection in a seventh embodiment.

【符号の説明】[Explanation of symbols]

1…制御部(マイクロコンピュータ) 1a…中央処理装置(CPU) 1b…ROM 1c…RAM 1d…A/Dコンバータ 1e…EEPROM 2…AFエリアセンサ 2a…受光素子群 2b…受光信号処理回路 2c…定常光除去部 3…フォーカスレンズ駆動部 4…フォーカスレンズ 5…フォーカスレンズエンコーダ 9…ストロボ発光部 10…ストロボ回路部 14…ズームレンズ 15…ズームレンズ駆動部 17…ファーストレリーズスイッチ(1RSW) 18…セカンドレリーズスイッチ(2RSW) DESCRIPTION OF SYMBOLS 1 ... Control part (microcomputer) 1a ... Central processing unit (CPU) 1b ... ROM 1c ... RAM 1d ... A / D converter 1e ... EEPROM 2 ... AF area sensor 2a ... Light receiving element group 2b ... Light receiving signal processing circuit 2c ... Stationary Light removal unit 3 Focus lens drive unit 4 Focus lens 5 Focus lens encoder 9 Strobe light emission unit 10 Strobe circuit unit 14 Zoom lens 15 Zoom lens drive unit 17 First release switch (1RSW) 18 Second release Switch (2RSW)

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 視差を有する2つの光学系と、 上記光学系により結像される2像を撮像する撮像素子
と、 上記撮像素子と同一半導体基板上に形成され、上記撮像
素子の出力に画像処理を行う処理手段と、 上記処理手段の出力に基づいて測距を行う測距手段と、 を具備することを特徴とする測距装置。
1. An optical system having parallax, an imaging device for capturing two images formed by the optical system, and an image formed on the same semiconductor substrate as the imaging device, the image being output to the imaging device. A distance measuring device comprising: processing means for performing processing; and distance measuring means for measuring distance based on an output of the processing means.
【請求項2】 視差を有する2つの光学系と、 上記光学系により結像される2像を撮像する撮像素子
と、 上記撮像素子と同一半導体基板上に形成され、上記撮像
素子の出力に画像処理を行う処理手段と、 上記処理手段の出力に基づいて主要被写体を検出する主
要被写体検出手段と、上記処理手段の出力と上記主要被
写体検出手段の出力とに基づいて測距を行う測距手段
と、を具備することを特徴とする測距装置。
2. An optical system having parallax, an image sensor for capturing two images formed by the optical system, and an image formed on the same semiconductor substrate as the image sensor and output to the image sensor. Processing means for performing processing; main subject detection means for detecting a main subject based on the output of the processing means; and distance measurement means for performing distance measurement based on the output of the processing means and the output of the main subject detection means. And a distance measuring device comprising:
【請求項3】 上記処理手段は、複数の処理モードを有
し、上記主要被写体検出手段と上記測距手段に対する出
力はそれぞれ独立に設定可能であることを特徴とする請
求項2に記載の測距装置。
3. The measuring apparatus according to claim 2, wherein said processing means has a plurality of processing modes, and outputs to said main subject detecting means and said distance measuring means can be set independently of each other. Distance device.
JP32597299A 1999-11-16 1999-11-16 Range finder Withdrawn JP2001141981A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP32597299A JP2001141981A (en) 1999-11-16 1999-11-16 Range finder
US09/712,868 US6785469B1 (en) 1999-11-16 2000-11-15 Distance measuring device installed in camera
US10/690,206 US7450171B2 (en) 1999-11-16 2003-10-21 Distance-measuring device installed in camera
US11/787,124 US7750970B2 (en) 1999-11-16 2007-04-13 Distance-measuring device installed in camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32597299A JP2001141981A (en) 1999-11-16 1999-11-16 Range finder

Publications (1)

Publication Number Publication Date
JP2001141981A true JP2001141981A (en) 2001-05-25

Family

ID=18182659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32597299A Withdrawn JP2001141981A (en) 1999-11-16 1999-11-16 Range finder

Country Status (1)

Country Link
JP (1) JP2001141981A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007127628A (en) * 2005-10-07 2007-05-24 Topcon Corp Position detecting device and inclination sensor device of surveying apparatus using same
JP2008287091A (en) * 2007-05-18 2008-11-27 Fujifilm Corp Device and method for automatic focusing, and device and method for taking image
US8072426B2 (en) 2004-08-11 2011-12-06 Pixart Imaging Inc. Interactive device capable of improving image processing
US9024880B2 (en) 2004-08-11 2015-05-05 Pixart Imaging Inc. Interactive system capable of improving image processing

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8072426B2 (en) 2004-08-11 2011-12-06 Pixart Imaging Inc. Interactive device capable of improving image processing
US8760390B2 (en) 2004-08-11 2014-06-24 Pixart Imaging Inc. Interactive device capable of improving image processing
US9024880B2 (en) 2004-08-11 2015-05-05 Pixart Imaging Inc. Interactive system capable of improving image processing
JP2007127628A (en) * 2005-10-07 2007-05-24 Topcon Corp Position detecting device and inclination sensor device of surveying apparatus using same
JP2008287091A (en) * 2007-05-18 2008-11-27 Fujifilm Corp Device and method for automatic focusing, and device and method for taking image
US8004599B2 (en) 2007-05-18 2011-08-23 Fujifilm Corporation Automatic focus adjusting apparatus and automatic focus adjusting method, and image pickup apparatus and image pickup method

Similar Documents

Publication Publication Date Title
US7450171B2 (en) Distance-measuring device installed in camera
US9591246B2 (en) Image pickup apparatus with blur correcting function
US8477233B2 (en) Image capturing apparatus
EP2430487B1 (en) Focus detection apparatus
US9100556B2 (en) Image processing apparatus and image processing method
JP5207797B2 (en) Imaging apparatus and control method thereof
US7053350B2 (en) Autofocus control apparatus and method
JP2002051255A (en) Main object detectable camera
EP2255239A1 (en) Image sensor and focus detection apparatus
US20010014215A1 (en) Distance measuring device
JP4504492B2 (en) Camera with main subject detection function
JP2001249265A (en) Range finder
JP4549481B2 (en) Focusing device
JP5289105B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
US20040190890A1 (en) Photometer, image sensing device, photometric method, program and recording medium
JP2001141981A (en) Range finder
JP2009175310A (en) Focus detection device, focus detection method and camera
JP2001264621A (en) Range-finding device
JP2001174689A (en) Range-finder
JP2001100087A (en) Multispot range finder
JP2010122358A (en) Autofocus device, autofocus method, and imaging apparatus
JP4286077B2 (en) Camera with flash light control function
KR100658601B1 (en) An automatic focus adjusting apparatus in a digital camera and a method thereof
JPH1172818A (en) Multi-point range finder
JP2021131513A (en) Controller, imaging device, control method, and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206