JP2001337263A - Range-finding device - Google Patents

Range-finding device

Info

Publication number
JP2001337263A
JP2001337263A JP2000154844A JP2000154844A JP2001337263A JP 2001337263 A JP2001337263 A JP 2001337263A JP 2000154844 A JP2000154844 A JP 2000154844A JP 2000154844 A JP2000154844 A JP 2000154844A JP 2001337263 A JP2001337263 A JP 2001337263A
Authority
JP
Japan
Prior art keywords
light
sensor
area
distance measuring
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000154844A
Other languages
Japanese (ja)
Inventor
Masataka Ide
昌孝 井出
Koichi Nakada
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000154844A priority Critical patent/JP2001337263A/en
Publication of JP2001337263A publication Critical patent/JP2001337263A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a TTL system range-finding device capable of realizing accurate focusing on a main subject. SOLUTION: This range-finding device is provided with a 1st sensor part 2 having an infrared cutting part 4, a 2nd sensor part 3 having a visible light cutting part 5, and a focusing part 6 performing focusing based on output from the 1st and the 2nd sensor parts 2 and 3.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばカメラ等の
撮像装置に利用可能な測距装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring device usable for an image pickup device such as a camera.

【0002】[0002]

【従来の技術】従来、パッシブAF方式とアクティブA
F方式とを切り換えて測距を行う測距装置が知られてい
る。例えば特開平11−337815号公報により開示
された測距装置は、パッシブAF用受光素子列とアクテ
ィブAF用受光素子列とを有しており、アクティブAF
用受光素子の表面には黒色フィルタが配置され、可視光
をカットし赤外光を透過させる。アクティブAFの場合
は、赤外光を被写体に照射してその反射光を受光する。
2. Description of the Related Art Conventionally, a passive AF system and an active A
2. Description of the Related Art A ranging device that performs ranging by switching to an F system is known. For example, a distance measuring device disclosed in Japanese Patent Application Laid-Open No. 11-337815 has a passive AF light-receiving element array and an active AF light-receiving element array.
A black filter is arranged on the surface of the light receiving element for cutting visible light and transmitting infrared light. In the case of the active AF, the object is irradiated with infrared light and the reflected light is received.

【0003】[0003]

【発明が解決しようとする課題】ところで、所謂TTL
方式の測距装置においては、一般的に色収差による誤差
を低減させるために赤外光を除去する赤外カットフィル
タを光路中に配置して使用する。したがって、アクティ
ブAF(補助光)を行う場合は、赤外カットフィルタの
影響を受けないような可視光波長に設定されており赤外
光を使用することはできない。そのため、定常光の可視
光成分の影響を大きく受けることになり、S/Nとして
は好ましくない。
The so-called TTL
In a distance measuring apparatus of the system, an infrared cut filter for removing infrared light is generally arranged in an optical path to reduce an error due to chromatic aberration. Therefore, when performing active AF (auxiliary light), the visible light wavelength is set so as not to be affected by the infrared cut filter, and infrared light cannot be used. Therefore, it is greatly affected by the visible light component of the stationary light, which is not preferable as the S / N.

【0004】このような問題は、上記特開平11−33
7815号公報に開示の測距センサを採用しても同様に
問題となる。
[0004] Such a problem is described in the above-mentioned Japanese Patent Application Laid-Open No. 11-33.
Even if the distance measuring sensor disclosed in Japanese Patent No. 7815 is adopted, the same problem occurs.

【0005】すなわち、上記装置をTTL方式に適用す
る場合は、赤外カットフィルタを使用するために、上記
黒色フィルタ(可視光カットフィルタ)の効果が非常に
薄くなり、被写体に照射した赤外光に反射光がカットさ
れ、S/Nが低下するので測距精度が低下してしまう。
That is, when the above-described apparatus is applied to the TTL system, the effect of the black filter (visible light cut filter) becomes very thin because the infrared cut filter is used, and the infrared light radiated to the subject is reduced. The reflected light is cut off, and the S / N is reduced, so that the distance measurement accuracy is reduced.

【0006】本発明は、上記問題に鑑みてなされたもの
で、その目的とするところは、TTL方式の測距装置で
あって、主要被写体に対して正確にピント合わせること
を可能とする測距装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a TTL type distance measuring apparatus capable of accurately focusing on a main subject. It is to provide a device.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の態様では、赤外カット手段を有する
第1センサ手段と、可視光カット手段を有する第2セン
サ手段と、上記第1センサ手段と第2センサ手段の出力
に基づいて焦点調節する焦点調節手段と、を有すること
を特徴とする測距装置が提供される。
In order to achieve the above object, according to a first aspect of the present invention, a first sensor having an infrared cut means, a second sensor having a visible light cut means, A distance measuring device is provided, comprising: focus adjusting means for adjusting a focus based on outputs of the first sensor means and the second sensor means.

【0008】第2の態様では、上記第1の態様におい
て、被写体に所定の波長の光を投光する投光手段を更に
有し、上記焦点調節手段は、上記投光手段が非動作時の
第1センサ手段の出力と、上記投光手段が動作時の第2
センサ手段の出力とに基づいて焦点調節を行うことを特
徴とする測距装置が提供される。
According to a second aspect, in the first aspect, there is further provided a light projecting means for projecting light of a predetermined wavelength to the subject, and the focus adjustment means is provided when the light projecting means is not operated. The output of the first sensor means and the second signal when the light emitting means operates.
There is provided a distance measuring device for performing focus adjustment based on an output of a sensor means.

【0009】第3の態様では、上記第1の態様におい
て、上記第2センサ手段は、受光する受光量のうちから
定常光成分を除去する定常光除去手段を更に有している
ことを特徴とする測距装置が提供される。
According to a third aspect, in the first aspect, the second sensor means further includes a stationary light removing means for removing a stationary light component from the amount of light received. A distance measuring device is provided.

【0010】第4の態様では、上記第1の態様におい
て、上記第1センサ手段と第2センサ手段とは同一IC
チップ上に形成されていることを特徴とする測距装置が
提供される。
According to a fourth aspect, in the first aspect, the first sensor means and the second sensor means are the same IC.
There is provided a distance measuring device formed on a chip.

【0011】上記第1乃至第4の態様によれば以下の作
用が奏される。
According to the above-described first to fourth aspects, the following operations are provided.

【0012】即ち、本発明の第1の態様では、焦点調節
手段により、赤外カット手段を有する第1センサ手段の
出力と、可視光カット手段を有する第2センサ手段の出
力とに基づいて焦点調節がなされる。
That is, in the first aspect of the present invention, the focus adjusting means focuses on the basis of the output of the first sensor having the infrared cut means and the output of the second sensor having the visible light cut means. Adjustments are made.

【0013】第2の態様では、上記第1の態様におい
て、上記焦点調節手段により、上記投光手段が非動作時
の第1センサ手段の出力と、上記投光手段が動作時の第
2センサ手段の出力とに基づいて焦点調節がなされる。
[0013] In a second aspect, in the first aspect, the focus adjustment means controls the output of the first sensor means when the light emitting means is not operating and the second sensor when the light emitting means is operating. Focus adjustment is made based on the output of the means.

【0014】第3の態様では、上記第1の態様におい
て、上記第2センサ手段において、定常光除去手段によ
り受光する受光量のうちから定常光成分が除去される。
According to a third aspect, in the first aspect, the second sensor means removes a steady light component from the amount of light received by the steady light removing means.

【0015】第4の態様では、上記第1の態様におい
て、上記第1センサ手段と第2センサ手段とは同一IC
チップ上に形成される。
According to a fourth aspect, in the first aspect, the first sensor means and the second sensor means are the same IC.
Formed on a chip.

【0016】[0016]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0017】図1は本発明の測距装置の概念図である。FIG. 1 is a conceptual diagram of a distance measuring apparatus according to the present invention.

【0018】同図に示されるように、赤外カット部4を
有する第1センサ部2と可視光カット部5を有する第2
センサ部3の各出力は、焦点調節部6の入力に接続され
ている。そして、この焦点調節部6は、投光部7が非動
作時の第1センサ部2の出力と、投光部7が動作時の第
2センサ部3に出力に基づいて焦点調節を行う。さら
に、この焦点調節部6の出力は、被写体に所定の波長の
光を投光する投光部7の入力に接続されている。
As shown in FIG. 1, a first sensor section 2 having an infrared cut section 4 and a second sensor section having a visible light cut section 5 are provided.
Each output of the sensor unit 3 is connected to an input of the focus adjustment unit 6. The focus adjustment unit 6 performs focus adjustment based on the output of the first sensor unit 2 when the light projecting unit 7 is not operating and the output of the second sensor unit 3 when the light projecting unit 7 is operating. Further, an output of the focus adjusting unit 6 is connected to an input of a light projecting unit 7 for projecting light of a predetermined wavelength to a subject.

【0019】図2は本発明の測距装置の更なる概念図で
ある。
FIG. 2 is a further conceptual diagram of the distance measuring apparatus of the present invention.

【0020】同図に示されるように、被写体からの反射
光を受光するセンサ部1の内部には、上記センサ部1の
一部で前面に赤外カット部4を有する第1センサ部2
と、上記センサ部1の一部で前面に可視光カットフィル
タ5を有する第2センサ部3とが配置されている。上記
第1センサ部2の出力と第2センサ部3に出力は、当該
出力に基づいて焦点調節を行う焦点調節部6の入力に接
続されており、当該焦点調節部6の出力は、被写体に対
して所定の波長分布を有する光を投光する投光部7の入
力に接続されている。
As shown in FIG. 1, inside a sensor unit 1 for receiving reflected light from a subject, a first sensor unit 2 having a part of the sensor unit 1 and an infrared cut unit 4 on the front surface is provided.
And a second sensor unit 3 having a visible light cut filter 5 on a front surface of a part of the sensor unit 1. The output of the first sensor unit 2 and the output of the second sensor unit 3 are connected to the input of a focus adjustment unit 6 that performs focus adjustment based on the output, and the output of the focus adjustment unit 6 is applied to the subject. On the other hand, it is connected to the input of a light projecting unit 7 for projecting light having a predetermined wavelength distribution.

【0021】図3は本発明の測距装置の更なる概念図で
ある。
FIG. 3 is a further conceptual diagram of the distance measuring apparatus of the present invention.

【0022】同図に示されるように、この構成では、図
2の構成に加えて、上記投光部7の投光同期して、上記
第2センサ部3の受光成分から定常光成分を除去する定
常光除去部8を更に有する。そして、上記測距部6は、
定常光除去部8を動作させた第2センサ部3の出力に基
づいて焦点調節を行う。
As shown in FIG. 2, in this configuration, in addition to the configuration of FIG. 2, the steady light component is removed from the light receiving component of the second sensor unit 3 in synchronization with the light projection of the light projecting unit 7. Further, a stationary light removing unit 8 is provided. Then, the distance measuring unit 6
Focus adjustment is performed based on the output of the second sensor unit 3 that has activated the stationary light removal unit 8.

【0023】以下、本発明の第1の実施の形態について
説明する。
Hereinafter, a first embodiment of the present invention will be described.

【0024】図4は、第1の実施の形態に係る測距装置
を採用したカメラの構成を示すブロック図である。同図
において、マイクロコンピュータ(以下、マイコンと称
する)11は、カメラのシステムコントローラである。
FIG. 4 is a block diagram showing a configuration of a camera employing the distance measuring apparatus according to the first embodiment. In FIG. 1, a microcomputer (hereinafter, referred to as a microcomputer) 11 is a camera system controller.

【0025】このマイコン11の内部には、中央演算処
理装置(以下、CPUと称する)11a、リード・オン
リ・メモリ(以下、ROMと称する)11b、ランダム
・アクセス・メモリ(以下、RAMと称する)11c、
アナログ/デジタル(A/D)コンバータ(以下、AD
Cと称する)11dが内蔵されている。上記CPU11
aは、ROM11bに格納されたシーケンスプログラム
に従って一連の動作を行う。上記マイコン11内部に
は、更にEEPROM11eが内蔵されており、当該E
EPROM11eは、AFや測光・露出演算等に関する
補正データをカメラ毎に記憶している。更に、このEE
PROM11eには、後述する撮影画面内の主要被写体
を検出するための各種パラメータ等も記憶されている。
Inside the microcomputer 11, a central processing unit (hereinafter, referred to as CPU) 11a, a read-only memory (hereinafter, referred to as ROM) 11b, and a random access memory (hereinafter, referred to as RAM) are provided. 11c,
Analog / digital (A / D) converter (hereinafter referred to as AD
11d). CPU 11
a performs a series of operations according to a sequence program stored in the ROM 11b. The microcomputer 11 further includes an EEPROM 11e therein.
The EPROM 11e stores correction data for AF, photometry, exposure calculation, and the like for each camera. Furthermore, this EE
The PROM 11e also stores various parameters and the like for detecting a main subject in a shooting screen described later.

【0026】上記マイコン11の出力はAFエリアセン
サ12の入力に接続されている。
The output of the microcomputer 11 is connected to the input of the AF area sensor 12.

【0027】このAFエリアセンサ12は、後述する測
距光学系36により形成される被写体像を撮像して電気
信号であるセンサデータに変換する。このAFエリアセ
ンサ12は、受光領域12a,12bである水平方向と
垂直方向に二次元状に配置された受光素子群とその処理
回路12cとから構成される。
The AF area sensor 12 captures a subject image formed by a distance measuring optical system 36, which will be described later, and converts the captured image into sensor data, which is an electrical signal. The AF area sensor 12 includes light receiving elements 12a and 12b, which are two-dimensionally arranged in a horizontal direction and a vertical direction, and a processing circuit 12c.

【0028】そして、この受光素子(フォトダイオー
ド)への入射光により発生する電荷を画素毎の画素回路
により電圧に変換すると共に増幅して出力する。
The charge generated by the light incident on the light receiving element (photodiode) is converted into a voltage by a pixel circuit for each pixel, and is amplified and output.

【0029】上記マイコン11は、上記AFエリアセン
サ12の積分動作の制御、センサデータの読み出し制御
を行い、AFエリアセンサ12の出力するセンサデータ
を処理して測距演算、主要被写体検出等を行う。また、
上記AFエリアセンサ12は、画素毎に定常光除去部を
有しており、マイコン11により定常光除去するか否か
を切り換えられるようになっている。すなわち、かかる
定常光除去動作の下では、後述する補助光を投光しなが
ら行うことで、投光成分による被写体反射光のみに対応
する受光信号を検出することができる。
The microcomputer 11 controls the integration operation of the AF area sensor 12, controls the reading of sensor data, processes the sensor data output from the AF area sensor 12, and performs distance measurement calculation, main subject detection, and the like. . Also,
The AF area sensor 12 has a stationary light removing unit for each pixel, and the microcomputer 11 can switch whether or not to remove the stationary light. In other words, under such a steady light removing operation, by performing while performing auxiliary light described later, it is possible to detect a light receiving signal corresponding to only the subject reflected light due to the projected component.

【0030】上記マイコン11の出力は、フォーカスレ
ンズ駆動部13の入力にも接続されている。このフォー
カスレンズ駆動部13は、撮影レンズ130の一部であ
るフォーカシングレンズ14を駆動するものである。上
記フォーカスレンズ14に接続されたフォーカスエンコ
ーダ15は、当該フォーカシングレンズ14の移動量に
対応するパルス信号を発生する。
The output of the microcomputer 11 is also connected to the input of the focus lens driving unit 13. The focus lens driving unit 13 drives the focusing lens 14 which is a part of the photographing lens 130. A focus encoder 15 connected to the focus lens 14 generates a pulse signal corresponding to the amount of movement of the focusing lens 14.

【0031】上記マイコン11は、測距演算結果に基づ
き、フォーカスレンズ駆動部13に駆動信号を出力し、
フォーカスエンコーダ15の出力をモニタしてフォーカ
スレンズ14の位置制御して焦点調節を行う。
The microcomputer 11 outputs a drive signal to the focus lens drive unit 13 based on the distance measurement calculation result,
The output of the focus encoder 15 is monitored and the position of the focus lens 14 is controlled to adjust the focus.

【0032】上記マイコン11には測光部16も接続さ
れている。この測光部16は、撮影画面に対応し、複数
に分割された測光用受光素子16aの発生する光電流信
号を処理して測光出力を発生する。マイコン11は、こ
の測光出力をADC11dによりA/D変換して測光・
露出演算を行う。
A photometric unit 16 is also connected to the microcomputer 11. The photometric unit 16 processes a photocurrent signal generated by the photometric light-receiving element 16a divided into a plurality of sections, corresponding to a shooting screen, and generates a photometric output. The microcomputer 11 performs A / D conversion of the photometric output by the ADC 11d,
Perform exposure calculation.

【0033】上記マイコン11は、シャッタ駆動部1
7、ストロボ回路20、表示部21とも接続されてい
る。即ち、このシャッタ駆動部17は、上記マイコン1
1の司令に基づいて不図示のシャッタを駆動してフィル
ムに対する露出を行うものである。上記ストロボ回路部
20は、撮影時の補助光源としてストロボ20aを発光
させるブロックである。上記マイコン11により、スト
ロボ回路部20の充電、発光制御がなされる。また、ス
トロボ回路部20は、測距動作時のAF補助光としても
動作させる。上記表示部21は、カメラ内部の情報をL
CD等の表示素子により表示し、マイコン11により制
御されるものである。
The microcomputer 11 includes a shutter driving unit 1
7. The flash circuit 20 and the display unit 21 are also connected. That is, the shutter driving unit 17
A shutter (not shown) is driven based on the command 1 to expose the film. The strobe circuit section 20 is a block that emits a strobe light 20a as an auxiliary light source during photographing. The microcomputer 11 controls charging and light emission of the strobe circuit unit 20. Further, the strobe circuit unit 20 is also operated as AF auxiliary light at the time of the distance measuring operation. The display unit 21 displays information inside the camera as L
The information is displayed by a display element such as a CD, and is controlled by the microcomputer 11.

【0034】さらに、マイコン11には、ファーストリ
レーズスイッチ(以下、1RSWと称する)18、セカ
ンドレリーズスイッチ(以下、2RSWと称する)19
も接続されている。この1RSW18、2RSW19
は、レリーズボタンに連動したスイッチであり、レリー
ズボタンの第1段階の押し下げにより1RSW18がオ
ンし、引き続いて第2段階の押し下げで2RSW19が
オンする。上記マイコン11は、1RSW18のオンで
AF,測光動作を行い、2RSW19のオンで露出動作
やフィルム巻き上げ動作を行う。
Further, the microcomputer 11 has a first relays switch (hereinafter referred to as 1RSW) 18 and a second release switch (hereinafter referred to as 2RSW) 19
Is also connected. These 1RSW18, 2RSW19
Is a switch interlocked with the release button. The 1RSW 18 is turned on when the release button is depressed in the first stage, and the 2RSW 19 is subsequently turned on when depressed in the second stage. The microcomputer 11 performs AF and photometry operations when the 1RSW 18 is turned on, and performs an exposure operation and a film winding operation when the 2RSW 19 is turned on.

【0035】以上のほか、フィルム駆動部22は、マイ
コン11の司令によりオートロード、1駒巻き上げ、巻
き戻しのフィルム駆動動作を行うものである。
In addition to the above, the film driving section 22 performs a film driving operation of auto-loading, winding one frame, and rewinding under the command of the microcomputer 11.

【0036】また、ズームレンズ駆動部23は、マイコ
ン11の司令により撮影レンズ130のズーム動作を行
うものである。このズーム駆動部23は、マイコン11
に撮影レンズ130の焦点距離情報を出力する。さら
に、赤外発光ダイオード131は、AF補助光としての
投光素子であり、その前面に配置された投光光学系と共
に撮影画面全体に対応する照射角を有している。
The zoom lens driving section 23 performs a zoom operation of the photographing lens 130 under the command of the microcomputer 11. The zoom drive unit 23 is provided with the microcomputer 11
To output focal length information of the photographing lens 130. Further, the infrared light emitting diode 131 is a light projecting element as AF auxiliary light, and has an irradiation angle corresponding to the entire photographing screen together with a light projecting optical system arranged on the front surface thereof.

【0037】以下、図5のフローチャートを参照して、
第1の実施の形態に係るカメラのマイコン11のメイン
ルーチンを説明する。
Hereinafter, referring to the flowchart of FIG.
A main routine of the microcomputer 11 of the camera according to the first embodiment will be described.

【0038】不図示の電源SWがオンされるか電池が挿
入されると、マイコン11は動作を開始し、ROM11
bに格納されたシーケンスプログラムを実行する。
When the power switch (not shown) is turned on or a battery is inserted, the microcomputer 11 starts operating and the ROM 11
Execute the sequence program stored in b.

【0039】先ず、マイコン11は、カメラ内の各ブロ
ックの初期化を行う(ステップS101)。このとき、
マイコン11は、EEPROM11e内のAF、測光等
の調整・補正データをRAM11cに展開する。
First, the microcomputer 11 initializes each block in the camera (step S101). At this time,
The microcomputer 11 develops adjustment / correction data such as AF and photometry in the EEPROM 11e in the RAM 11c.

【0040】続いて、マイコン11は1RSW18の状
態を検出し(ステップS102)、当該1RSW18が
オンされるとAF動作を行い(ステップS103)、測
光・露出演算を行い(ステップS104)、2RSW1
9の状態を検出する(ステップS105)。ここで、2
RSW19がオンされると、シャッタ動作によりフィル
ムに露出を行い(ステップS106)、フィルム1駒巻
き上げを行い(ステップS107)、上記ステップS1
02に戻る。
Subsequently, the microcomputer 11 detects the state of the 1RSW 18 (step S102). When the 1RSW 18 is turned on, the microcomputer 11 performs an AF operation (step S103), performs photometry / exposure calculation (step S104), and executes 2RSW1.
9 is detected (step S105). Where 2
When the RSW 19 is turned on, the film is exposed by the shutter operation (step S106), and the film is wound up by one frame (step S107).
Return to 02.

【0041】一方、上記ステップS102で、1RSW
18がオンされていない場合には、1RSW18、2R
SW19以外のスイッチの入力を検出し(ステップS1
08)、スイッチ入力に応じた処理、例えばズームスイ
ッチのアップ、ダウン入力に応じてズームアップ、ダウ
ン処理を行い(ステップS109)、上記ステップS1
02に戻ることになる。
On the other hand, in step S102, 1RSW
If 18 is not turned on, 1RSW18, 2R
Inputs of switches other than SW19 are detected (step S1).
08), a process corresponding to a switch input, for example, zoom-up / down processing is performed in response to a zoom switch up / down input (step S109), and the above-described step S1 is performed.
02 will be returned.

【0042】図6は第1の実施の形態に係るカメラの光
路図である。
FIG. 6 is an optical path diagram of the camera according to the first embodiment.

【0043】同図において、撮影レンズ130はフォー
カスレンズ14を有している。
In the figure, a photographing lens 130 has a focus lens 14.

【0044】撮影レンズ130を通過した被写体光束
は、ハーフミラーであるメインミラー30でその一部が
反射、また一部が透過される。
The subject light beam passing through the photographing lens 130 is partially reflected and partially transmitted by the main mirror 30 which is a half mirror.

【0045】メインミラー30で反射された一部の被写
体光束は、ピント板31、コンデンサレンズ32を通っ
てペンタプリズム33により正立像となり、接眼レンズ
34を通して撮影者に被写体像が観察される。
A part of the subject light beam reflected by the main mirror 30 passes through the focus plate 31 and the condenser lens 32 to become an erect image by the pentaprism 33, and the subject image is observed by the photographer through the eyepiece lens 34.

【0046】一方、メインミラー30を透過した一部の
被写体光束は、全反射ミラーであるサブミラー35で反
射され、測距光学系36に導かれる。
On the other hand, a part of the luminous flux transmitted through the main mirror 30 is reflected by a sub-mirror 35 which is a total reflection mirror, and is guided to a distance measuring optical system 36.

【0047】測距光学系36は、視野マスク37、フィ
ールドレンズ38、全反射ミラー39、瞳マスク40、
再結像レンズ41とから構成され、測距光束をAFエリ
アセンサ12上に再結像する。
The distance measuring optical system 36 includes a field mask 37, a field lens 38, a total reflection mirror 39, a pupil mask 40,
The image forming apparatus includes a re-imaging lens 41 and re-images the distance measuring light beam on the AF area sensor 12.

【0048】被写体像を撮影する時には、メインミラー
30、サブミラー35は図3の点線位置に退避し、撮影
光束はフィルム42に導かれる。
When a subject image is photographed, the main mirror 30 and the sub-mirror 35 are retracted to the positions indicated by the dotted lines in FIG.

【0049】ここで、図7(a)は上記測距光学系(位
相差検出光学系)36の構成を示す断面図であり、図7
(b)は当該測距光学系の構成を示す斜視図である。
FIG. 7A is a sectional view showing the structure of the distance measuring optical system (phase difference detecting optical system) 36, and FIG.
(B) is a perspective view showing a configuration of the distance measuring optical system.

【0050】これら図7(a),(b)において、符号
130は撮影レンズ、符号37は視野マスク、符号38
はフィールドレンズ、符号40は撮影レンズ130の光
軸に対して略対称に配置された開口部40a,40bを
有する瞳マスク、符号41a,41bは瞳マスク40
a,40bに対応してその後方に配置された再結像レン
ズである。なお、図7(a)では、前述のメインミラー
33、サブミラー35、全反射ミラー39等は説明の簡
略化のために敢えて図示を省略している。
7 (a) and 7 (b), reference numeral 130 denotes a photographing lens, reference numeral 37 denotes a field mask, reference numeral 38.
Is a field lens, reference numeral 40 is a pupil mask having openings 40a, 40b arranged substantially symmetrically with respect to the optical axis of the photographing lens 130, and reference numerals 41a, 41b are pupil masks 40.
a and 40b are reimaging lenses arranged rearward thereof. In FIG. 7A, the above-described main mirror 33, sub-mirror 35, total reflection mirror 39, and the like are not shown for simplicity.

【0051】撮影レンズ130の射出瞳Hの領域Ha、
Hbを通過して入射した被写体光束は、視野マスク3
7、フィールドレンズ38、瞳マスク40の開口部40
a、40b及び再結像レンズ41a、41bを通過し、
AFエリアセンサ12の受光領域内の対応する領域12
a、12b上に再結像される。
The area Ha of the exit pupil H of the photographing lens 130,
The luminous flux of the subject that has passed through Hb is applied to the field mask 3
7. Field lens 38, aperture 40 of pupil mask 40
a, 40b and re-imaging lenses 41a, 41b,
Corresponding area 12 within the light receiving area of AF area sensor 12
a and 12b.

【0052】撮影レンズ130が合焦、即ち結像面G上
に被写体像Iが形成される場合、その被写体Iはフィー
ルドレンズ38及び再結像レンズ41a,41bによっ
て光軸Oに対して垂直な2次結像面であるAFエリアセ
ンサ12の撮像領域12a、12b上に再結像されて第
1像I1,第2像I2となる。
When the taking lens 130 is focused, that is, when the subject image I is formed on the image forming plane G, the subject I is perpendicular to the optical axis O by the field lens 38 and the re-imaging lenses 41a and 41b. The image is re-imaged on the image pickup areas 12a and 12b of the AF area sensor 12, which is the secondary image forming plane, to become a first image I1 and a second image I2.

【0053】撮影レンズ130が前ピン、即ち結像面G
の前方に被写体像Fが形成される場合、その被写体像F
はお互いにより光軸Oに近づいた光軸Oに対して垂直に
再結像されて第1像F1,第2像F2となる。
The photographing lens 130 is positioned at the front focus, that is, the image plane G
The subject image F is formed in front of the subject image F
Are re-imaged perpendicularly to the optical axis O closer to the optical axis O by each other, and become a first image F1 and a second image F2.

【0054】撮影レンズ130が後ピン、即ち結像面G
の後方に被写体像Rが形成される場合、その被写体像R
はお互いにより光軸Oから離れた形で、光軸Oに対して
垂直に再結像されて第1像R1,第2像R2となる。
The photographing lens 130 is positioned at the rear focus, that is, the image plane G
The subject image R is formed behind the subject image R
Are re-imaged perpendicularly to the optical axis O, away from the optical axis O by each other, to become a first image R1 and a second image R2.

【0055】これら第1像と第2像の間隔を検出するこ
とにより、撮像レンズ130の合焦状態を前ピン、後ピ
ンを含めて検出することができる。具体的には、第1像
と第2像の光強度分布をAFエリアセンサ12の画像デ
ータ出力により求めて両像の間隔を測定する。
By detecting the distance between the first image and the second image, it is possible to detect the in-focus state of the imaging lens 130 including the front focus and the rear focus. Specifically, the light intensity distribution of the first image and the second image is obtained from the image data output of the AF area sensor 12, and the interval between the two images is measured.

【0056】次に、図8(a)にはAFエリアセンサ1
2の受光部の様子を示し、図8(b)にはAFエリアセ
ンサ12の概観を示し、図8(c)にはAFエリアセン
サ12の断面の様子を示し、図9にはAFエリアセンサ
12の構成を示し、これらを詳細に説明する。
Next, FIG. 8A shows the AF area sensor 1.
8 shows the state of the light receiving unit, FIG. 8B shows an overview of the AF area sensor 12, FIG. 8C shows a cross section of the AF area sensor 12, and FIG. Twelve configurations are shown and will be described in detail.

【0057】図8(a)に示されるように、測距光学系
36により分離される2像に対応する受光部12a,1
2bに複数の画素が配置されている。受光部12a,1
2b内はそれぞれ複数の画素が2個のグループである赤
外カットセンサ領域101と可視光カット領域102に
分かれて1列おきに配置されている。
As shown in FIG. 8A, the light receiving sections 12a, 1 corresponding to the two images separated by the distance measuring optical system 36.
A plurality of pixels are arranged in 2b. Light receiving units 12a, 1
In 2b, a plurality of pixels are divided into an infrared cut sensor region 101 and a visible light cut region 102, which are two groups, and are arranged every other row.

【0058】図8(b)に示されるように、AFエリア
センサ12のICチップ103は、クリアモールドパッ
ケージ104に収納されている。
As shown in FIG. 8B, the IC chip 103 of the AF area sensor 12 is housed in a clear mold package 104.

【0059】図8(c)のAFエリアセンサIC12の
断面図において、複数の画素内の受光素子であるフォト
ダイオード105,106は、それぞれ上記赤外カット
センサ領域101、可視光カットセンサ領域102に対
応している。
In the cross-sectional view of the AF area sensor IC 12 shown in FIG. 8C, the photodiodes 105 and 106 as light receiving elements in a plurality of pixels are located in the infrared cut sensor area 101 and the visible light cut sensor area 102, respectively. Yes, it is.

【0060】フォトダイオード105の前面であり、フ
ォトダイオード105の受光光束が通過する領域のクリ
アモールドパッケージ104表面には、赤外カットフィ
ルタ107を構成する誘電体コートの多層膜がコーティ
ングされている。
On the front surface of the photodiode 105, the surface of the clear mold package 104 in a region through which the received light beam of the photodiode 105 passes is coated with a dielectric coating multilayer film constituting the infrared cut filter 107.

【0061】赤外カットフィルタ107の分光感度特性
は、図15(b)に示されるように波長700nm以上
の波長はカットされる。
As shown in FIG. 15B, the spectral sensitivity characteristics of the infrared cut filter 107 are cut off at wavelengths of 700 nm or more.

【0062】フォトダイオード106部分のICチップ
表面には、可視光カットフィルタ108が塗布されてい
る。この可視光カットフィルタ108は、通常はAFエ
リアセンサ12のICチップ表面での反射を抑えるため
の反射防止膜として用いられている。上記可視光カット
フィルタ108の分光感度特性は図15(a)に示され
るように、波長400〜700nmの可視光領域ではほ
とんど光を透過しないが、波長800nm以上の赤外光
領域の光を透過する。
The visible light cut filter 108 is applied to the surface of the IC chip at the photodiode 106. This visible light cut filter 108 is normally used as an anti-reflection film for suppressing the reflection of the AF area sensor 12 on the surface of the IC chip. As shown in FIG. 15A, the spectral sensitivity characteristic of the visible light cut filter 108 hardly transmits light in a visible light region having a wavelength of 400 to 700 nm, but transmits light in an infrared light region having a wavelength of 800 nm or more. I do.

【0063】この可視光カットフィルタ108をフォト
ダイオード上に塗布することによって可視光成分をカッ
トし赤外光成分のみを受光するようにしている。
The visible light cut filter 108 is applied on the photodiode to cut the visible light component and receive only the infrared light component.

【0064】ここで、赤外発光ダイオード131の発光
強度波長分布も図15(a)に示されており、可視光カ
ットフィルタ108の透過領域に位置している。
Here, the emission intensity wavelength distribution of the infrared light emitting diode 131 is also shown in FIG. 15A, and is located in the transmission region of the visible light cut filter 108.

【0065】図9に示されるように、赤外カット領域1
01内の画素50の構成は、受光素子であるフォトダイ
オード51と、フォトダイオード51の出力する信号電
荷を蓄積する蓄積容量52と、蓄積容量52に蓄積され
た蓄積電圧を検出するための増幅回路53とから構成さ
れる。
As shown in FIG. 9, the infrared cut region 1
The configuration of the pixel 50 in 01 includes a photodiode 51 as a light receiving element, a storage capacitor 52 for storing signal charges output from the photodiode 51, and an amplifier circuit for detecting a storage voltage stored in the storage capacitor 52. 53.

【0066】また、可視光カット領域102内の画素6
0の構成は、受光素子であるフォトダイオード61と、
フォトダイオード61の出力する信号電荷を蓄積する蓄
積容量62と、蓄積容量62に蓄積された蓄積電圧を検
出するための増幅回路63、と定常光成分を除去する定
常除去回路64とから構成される。
The pixel 6 in the visible light cut region 102
The configuration of 0 includes a photodiode 61 as a light receiving element,
It comprises a storage capacitor 62 for storing the signal charge output from the photodiode 61, an amplification circuit 63 for detecting the storage voltage stored in the storage capacitor 62, and a stationary removal circuit 64 for removing the stationary light component. .

【0067】AFエリアセンサ制御回路54はマイコン
11からの積分制御信号、読み出しクロックを入力して
AFエリアセンサ12内部の各部の動作を制御する。
The AF area sensor control circuit 54 controls the operation of each part inside the AF area sensor 12 by inputting the integration control signal and the read clock from the microcomputer 11.

【0068】モニタ選択回路65は、マイコン11から
の司令による所定画素範囲について、その範囲内のピー
ク蓄積量を示すモニタ信号を作成して出力部66より出
力する。マイコン11は、上記モニタ信号に基づいて蓄
積動作を制御する。読み出し選択回路67は、マイコン
11からの司令により水平シフトレジスタ68、垂直シ
フトレジスタ69を制御してセンサデータを読み出す領
域を設定する。
The monitor selection circuit 65 creates a monitor signal indicating a peak accumulation amount within a predetermined pixel range according to a command from the microcomputer 11, and outputs the monitor signal from the output unit 66. The microcomputer 11 controls the accumulation operation based on the monitor signal. The read selection circuit 67 controls the horizontal shift register 68 and the vertical shift register 69 according to a command from the microcomputer 11 to set an area from which sensor data is read.

【0069】水平シフトレジスタ68、垂直シフトレジ
スタ69は、各画素の信号出力をスイッチV70、スイ
ッチH71を介して選択して出力部72より出力する。
The horizontal shift register 68 and the vertical shift register 69 select a signal output of each pixel via a switch V70 and a switch H71 and output the selected signal from an output unit 72.

【0070】固定パターンノイズ除去回路73は、各画
素の信号出力に含まれる固定パターンノイズを除去する
ための回路である。モニタ選択回路65、読み出し選択
回路66は、たとえば赤外カット領域101と可視光カ
ッ領域102の両者を切り換えて、選択することが可能
である。
The fixed pattern noise removing circuit 73 is a circuit for removing fixed pattern noise contained in the signal output of each pixel. For example, the monitor selection circuit 65 and the readout selection circuit 66 can switch and select both the infrared cut region 101 and the visible light cut region 102.

【0071】ここで、図10のフローチャートと図11
のタイミングチャートを参照して、AF動作の流れを詳
細に説明する。
Here, the flowchart of FIG. 10 and the flowchart of FIG.
The flow of the AF operation will be described in detail with reference to the timing chart of FIG.

【0072】先ず、AF補助光を投光し、定常光除去し
ながらAFエリアセンサ12内の可視光カットエリア1
02にて積分動作を行う(ステップS201)。
First, the AF auxiliary light is projected and the visible light cut area 1 in the AF area sensor 12 is removed while removing the steady light.
02, an integration operation is performed (step S201).

【0073】すなわち、積分制御信号により積分を開始
すると(図11(b)参照)、AF補助光を間欠的に複
数回発光させつつ(図11(d)参照)、画素毎の定常
光除去回路64により定常光を除去しながら積分動作を
行う。そして、モニタ選択領域を可視光カットエリア1
02に設定し(図11(a)参照)、積分モニタ信号が
所定レベルになると(図11(c)参照)、積分動作及
びAF補助光の発光を停止する(図11(b)参照)。
That is, when the integration is started by the integration control signal (see FIG. 11 (b)), the AF auxiliary light is intermittently emitted a plurality of times (see FIG. 11 (d)), and the steady light removing circuit for each pixel. The integration operation is performed while removing the steady light by the operation 64. Then, the monitor selection area is set to the visible light cut area 1
02 (see FIG. 11A), and when the integration monitor signal reaches a predetermined level (see FIG. 11C), the integration operation and the emission of the AF auxiliary light are stopped (see FIG. 11B).

【0074】続いて、読み出し領域を可視光カットエリ
ア102に設定し(図11(a)参照)、AFエリアセ
ンサ12に対して読み出しクロックを出力して(図11
(d)参照)、可視光カットエリア102のセンサデー
タ(画素データ)をADC11dに出力させ(図11
(e)参照)、AD変換して読み出しRAM11cに格
納する(ステップS202)。
Subsequently, the read area is set as the visible light cut area 102 (see FIG. 11A), and a read clock is output to the AF area sensor 12 (FIG. 11A).
(D), the sensor data (pixel data) of the visible light cut area 102 is output to the ADC 11d (FIG. 11).
(Refer to (e)), perform A / D conversion, and read and store it in RAM 11c (step S202).

【0075】上記読み出した可視光カットエリア102
のセンサデータに基づいて詳細は後述するサブルーチン
「主要被写体検出処理」を実行する。そして、主要被写
体と判別された領域に対して1個または複数の測距エリ
アを設定する(ステップS203)。
The read out visible light cut area 102
Based on the sensor data, a subroutine "main subject detection process", which will be described in detail later, is executed. Then, one or a plurality of ranging areas are set for the area determined as the main subject (step S203).

【0076】そして、AFエリアセンサ12内の赤外カ
ットエリア101について積分動作を行う。モニタ選択
エリア、読み出しエリアを赤外光カットエリア101に
設定して(図11(a)参照)、定常光による積分動作
を行う(図11(b)参照)(ステップS204)。
Then, an integration operation is performed for the infrared cut area 101 in the AF area sensor 12. The monitor selection area and the read area are set as the infrared light cut area 101 (see FIG. 11A), and the integration operation using the steady light is performed (see FIG. 11B) (step S204).

【0077】次いで、AFエリアセンサ12に対して読
み出しクロックを出力して(図11(f)参照)、赤外
カットエリアのセンサデータを読み出す(図11(e)
参照)(ステップS205)。
Next, a read clock is output to the AF area sensor 12 (see FIG. 11F), and sensor data of the infrared cut area is read (FIG. 11E).
(See step S205).

【0078】そして、上記ステップS203にて設定さ
れた複数の測距エリアについて上記赤外カットエリア1
01のセンサデータを用いてそれぞれ測距演算を行う
(ステップS206)。
Then, the infrared cut area 1 for the plurality of distance measurement areas set in step S203 is set.
The distance measurement calculation is performed using the sensor data No. 01 (step S206).

【0079】ここで、図14(c)は、後述する主要被
写体検出の結果、主要被写体と判定された領域におい
て、撮影画面400内に設定された測距エリア403〜
405を示している。測距演算は公知の位相差検出によ
るもので説明は省略するが、上記複数の測距エリアにつ
いてそれぞれ行われ測距データが得られる。
Here, FIG. 14C shows the distance measurement areas 403 to 403 set in the photographing screen 400 in an area determined as a main subject as a result of main subject detection described later.
405 is shown. The distance measurement calculation is based on a known phase difference detection, and a description thereof will be omitted.

【0080】選択された1個または複数に選択測距エリ
ア(測距データ)のうちで所定の条件(信頼性の有無)
を満足するか判定し、信頼性の高い測距データのうちか
ら、所定のアルゴリズムに基づいて1個または複数個の
測距データを選択する(ステップS207)。上記所定
のアルゴリズムとは、たとえば最も至近側の測距データ
を採用する至近選択等種々の方法が考えられる。そし
て、判別された測距データを最終的な測距データとして
採用する。
A predetermined condition (presence or absence of reliability) in the selected one or a plurality of selected distance measurement areas (distance measurement data)
Is satisfied, and one or a plurality of distance measurement data are selected from the highly reliable distance measurement data based on a predetermined algorithm (step S207). As the predetermined algorithm, for example, various methods such as close selection using the closest distance measurement data can be considered. Then, the determined distance measurement data is adopted as final distance measurement data.

【0081】こうして、合焦しているか否か判定し(ス
テップS208)、合焦している場合はリターンし、非
合焦の場合はステップS209に進む。このステップS
209では、上記採用した測距データに基づいてフォー
カシングレンズを駆動し、上記ステップS204に戻
る。
In this way, it is determined whether or not the subject is in focus (step S208). If the subject is in focus, the process returns. If the subject is out of focus, the process proceeds to step S209. This step S
In step 209, the focusing lens is driven based on the adopted distance measurement data, and the process returns to step S204.

【0082】ここで、図12のフローチャートを参照し
て、図10の上記ステップS203で実行されるサブル
ーチン「主要被写体検出」の処理を説明する。
The subroutine "main subject detection" executed in step S203 in FIG. 10 will now be described with reference to the flowchart in FIG.

【0083】この主要被写体検出処理では、特に主要被
写体として人物を想定して、検出処理を行う。AFエリ
アセンサ12により可視光カットエリア102において
2個の画像が得られるが、主要被写体検出に使用する画
像データ(センサデータ)はどちらか一方の画像でもよ
いし、両方の画像を使用してもよい。
In the main subject detection process, the detection process is performed particularly assuming a person as the main subject. Although two images are obtained in the visible light cut area 102 by the AF area sensor 12, the image data (sensor data) used for detecting the main subject may be either one of the images or both images. Good.

【0084】AFエリアセンサ12のセンサデータは、
マイコン11内のRAM11cに格納されており、この
センサデータに基づいて以下の処理を行う。
The sensor data of the AF area sensor 12 is
It is stored in the RAM 11c in the microcomputer 11, and performs the following processing based on the sensor data.

【0085】先ず、平滑化処理を行う(ステップS30
1)。ここでは、画像中のランダムノイズを除去する処
理で、画像データ(センサデータ)についてフィルタ処
理やフーリエ変換を行うことにより除去する。
First, a smoothing process is performed (step S30).
1). Here, in the process of removing random noise in the image, the image data (sensor data) is removed by performing a filtering process or a Fourier transform.

【0086】ついで、差分処理を行う(ステップS30
2)。ここでは、公知である画像のエッジ検出手法を用
いる。隣接する画像データ(センサデータ)の差分をと
ることによりエッジ部分を検出する。
Next, difference processing is performed (step S30).
2). Here, a known image edge detection method is used. An edge portion is detected by calculating a difference between adjacent image data (sensor data).

【0087】続いて、2値化処理を行う(ステップS3
03)。ここでは、差分処理後の画像信号に対して、所
定のしきい値以上の部分を抽出して2値画像を求める。
Subsequently, a binarization process is performed (step S3).
03). Here, a binary image is obtained by extracting a portion equal to or more than a predetermined threshold value from the image signal after the difference processing.

【0088】ついで、ラベリング処理を行う(ステップ
S304)。ここでは、上記2値画像において同じ輝度
値(0,1)の画素が互いに連結している連結部分の塊
に対してラベリングを行う。つまり、異なる連結部分に
対して異なるラベルを貼り付けて区別してラベル領域
(連結領域)を分離する(図14(b)参照)。
Next, a labeling process is performed (step S304). Here, labeling is performed on a cluster of connected portions where pixels having the same luminance value (0, 1) are connected to each other in the binary image. In other words, different labels are attached to different connection portions to distinguish and separate the label regions (connection regions) (see FIG. 14B).

【0089】ついで、詳細は後述するサブルーチン「形
状判定処理」を実行する(ステップS305)。ここで
は、画像の形状を判別して主要被写体を抽出する。
Next, a subroutine "shape determination processing" described later in detail is executed (step S305). Here, the main subject is extracted by determining the shape of the image.

【0090】そして、1個または複数の上記設定された
ラベル領域について、全て形状判定処理を行ったか判別
し(ステップS306)、終了してない時はステップS
305に戻り、別のラベル領域について行う。
Then, it is determined whether or not the shape determination processing has been performed for one or a plurality of the set label areas (step S306).
Returning to step 305, the process is performed for another label area.

【0091】次に、図13のフローチャートを参照し
て、図12のステップS305で実行されるサブルーチ
ン「形状判定処理」について説明する。
Next, the subroutine "shape determination processing" executed in step S305 in FIG. 12 will be described with reference to the flowchart in FIG.

【0092】ラベル領域の面積はその連結領域に属する
画素の個数である。また、周囲長はラベル領域のまわり
の境界に位置する画素の個数である。ただし、斜め方向
は水平、垂直方向に対して√2倍に補正する。
The area of the label area is the number of pixels belonging to the connected area. The perimeter is the number of pixels located at the boundary around the label area. However, the angle in the oblique direction is corrected to √2 times the horizontal and vertical directions.

【0093】画像の形状を判定するために、以下の係数
e(形状判定値)を使用する。
To determine the shape of an image, the following coefficient e (shape determination value) is used.

【0094】e=(周囲長)/(面積) 上記式において、eは形状が円形の時に最小値を示し、
形状が複雑になるほど大きい値を示す。人物の顔はほぼ
円形に近いと考えられるので、上記eと所定値とを比較
して対象画像が人物の顔か否かを判定する。
E = (perimeter) 2 / (area) In the above equation, e indicates a minimum value when the shape is circular.
The value becomes larger as the shape becomes more complicated. Since the person's face is considered to be almost circular, it is determined whether or not the target image is a person's face by comparing the above e with a predetermined value.

【0095】また、上記ラベル領域面積も所定値と比較
して、対象画像が人物の顔か否かを判定する。ここで、
上記所定値は、個人差や年齢を含めて統計的に求めた数
値を採用する。以下、処理の流れを詳述する。
The label area is also compared with a predetermined value to determine whether or not the target image is a person's face. here,
As the predetermined value, a numerical value obtained statistically including individual differences and age is adopted. Hereinafter, the processing flow will be described in detail.

【0096】先ず、抽出領域(ラベル領域)の面積Sを
求め(ステップS401)、所定範囲内であるか判別す
る(ステップS402)。次いで、抽出領域面積Sが所
定範囲内の場合にはS403に移行し、所定範囲内では
ない場合は、ステップS406に移行する。このステッ
プS403では、上記形状判定値eを算出する。続い
て、形状判定値eが所定範囲内か判別する(ステップS
404)。
First, the area S of the extraction area (label area) is determined (step S401), and it is determined whether the area S is within a predetermined range (step S402). Next, when the extraction region area S is within the predetermined range, the process proceeds to S403, and when not, the process proceeds to step S406. In step S403, the shape determination value e is calculated. Subsequently, it is determined whether the shape determination value e is within a predetermined range (Step S).
404).

【0097】ここで、所定範囲内の場合にはステップS
405に移行し、範囲外の場合はステップS406に進
むことになる。このステップS405では、人物である
と判定して結果をメモリする。そして、ステップS40
6では、人物以外の被写体と判定して結果をメモリす
る。
If it is within the predetermined range, step S
The process proceeds to 405, and if it is out of the range, the process proceeds to step S406. In step S405, it is determined that the person is a person, and the result is stored in the memory. Then, step S40
In 6, the subject is determined as a subject other than a person, and the result is stored in the memory.

【0098】こうして、図12のステップS306にリ
ターンする。
Thus, the process returns to step S306 in FIG.

【0099】図14は撮影シーンの一例とその主要被写
体検出の過程を示す図である。
FIG. 14 is a diagram showing an example of a photographing scene and a process of detecting a main subject.

【0100】図14(a)の撮影シーンについて主要被
写体検出がなされると、図12のステップS301〜S
304の処理(ラベリング処理まで)、及び形状判定処
理(図13のステップS401〜402)の結果、図1
4(b)の画像データが得られる。このとき、面積が所
定範囲内であるラベル領域1〜4が抽出される。
When the main subject is detected in the photographing scene of FIG. 14A, steps S301 to S301 of FIG.
As a result of the process 304 (until the labeling process) and the shape determination process (steps S401 to S402 in FIG. 13),
4 (b) is obtained. At this time, label areas 1 to 4 whose areas are within a predetermined range are extracted.

【0101】図14(b)の画像データについて形状判
定値eに関する処理(ステップS403〜S404)が
なされると、主要被写体401(人物の顔)に合致して
いるラベル領域1が円形と判別される。即ち、ステップ
S405において人物(主要被写体)と判定される。ま
た、雑被写体402は円形ではないので、人物(主要被
写体)ではないと判定される。その結果、得られた主要
被写体領域(ラベル1)内に複数の測距エリア403〜
405を設定する。これら複数の測距エリアの測距結果
は、平均処理や最至近選択等の処理により一個の測距デ
ータにまとめられる(図10のS207に相当)。
When the processing (steps S403 to S404) relating to the shape determination value e is performed on the image data of FIG. 14B, the label area 1 that matches the main subject 401 (person's face) is determined to be circular. You. That is, in step S405, it is determined that the person (main subject). Further, since the rough subject 402 is not circular, it is determined that it is not a person (main subject). As a result, within the obtained main subject area (label 1), a plurality of ranging areas 403 to
405 is set. The distance measurement results of the plurality of distance measurement areas are combined into one distance measurement data by processing such as averaging processing and closest selection (corresponding to S207 in FIG. 10).

【0102】なお、上記主要被写体検出では円形画像を
人物の顔として検出しているが、これは一例を示してい
るだけで、これに限定されず種々の方法が考えられる。
たとえば、予め用意されている人物形状の形状データと
画像データとについて、公知のテンプレートマッチング
法により検出してもよい。
In the above main subject detection, a circular image is detected as a person's face. However, this is only an example, and the present invention is not limited to this, and various methods can be considered.
For example, shape data and image data of a person shape prepared in advance may be detected by a known template matching method.

【0103】あるいは、異なる時間の複数画像より被写
体の移動を検出して、移動物体を主要被写体として検出
してもよい。以上のように、主要被写体検出のために赤
外光を投光しているので、被写体となる人物には赤外光
が見えないので眩しくないという利点がある。
Alternatively, the movement of the subject may be detected from a plurality of images at different times, and the moving object may be detected as the main subject. As described above, since infrared light is projected for main subject detection, there is an advantage that a person who is a subject is not dazzled because infrared light cannot be seen.

【0104】ここで、第1の実施の形態の変形例を説明
する。
Here, a modification of the first embodiment will be described.

【0105】上記赤外カットフィルタは、上記実施の形
態ではクリアモールドパッケージ上にコーティングによ
って形成しているが、赤外カットフィルタを貼り付けて
もよい。またクリアモールドタイプではなく、セラミッ
クパッケージやガラスエポキシ基板タイプのパッケージ
における、カバーガラス上にコーティング等により形成
してもよい。また、上記AFエリアセンサ12において
は、赤外カット領域101と可視光カット領域102の
積分動作を別々に実行しているが、同時に積分動作を行
ってもよい。赤外発光ダイオード131の発光による被
写体反射光は、赤外カット領域101においては、十分
に遮断されるので、赤外カット領域101の測距動作に
は影響しない。このようにして積分動作に要するタイム
ラグを軽減することができる。さらに、可視光カット領
域102だけでなく、赤外カット領域101のセンサデ
ータも使用して主要被写体検出を行ってもよい。この場
合、赤外発光ダイオード131(補助光)の投光が届か
ない遠距離側についても主要被写体検出が可能となるメ
リットがある。
Although the infrared cut filter is formed on the clear mold package by coating in the above embodiment, the infrared cut filter may be attached. Further, instead of the clear mold type, a ceramic package or a glass epoxy substrate type package may be formed on the cover glass by coating or the like. Further, in the AF area sensor 12, the integration operation of the infrared cut region 101 and the visible light cut region 102 is performed separately, but the integration operation may be performed simultaneously. The subject reflected light by the light emission of the infrared light emitting diode 131 is sufficiently blocked in the infrared cut area 101, and does not affect the distance measuring operation of the infrared cut area 101. Thus, the time lag required for the integration operation can be reduced. Further, the main subject may be detected using not only the visible light cut region 102 but also the sensor data of the infrared cut region 101. In this case, there is an advantage that the main subject can be detected even on a long distance side where the emission of the infrared light emitting diode 131 (auxiliary light) does not reach.

【0106】次に、AFエリアセンサ12の赤外カット
領域101と可視光カット領域102内のフォトダイオ
ード51、61の面積を異ならせることもできる。
Next, the areas of the photodiodes 51 and 61 in the infrared cut area 101 and the visible light cut area 102 of the AF area sensor 12 can be made different.

【0107】すなわち、例えば、可視光カット領域10
2内フォトダイオード61を赤外カット領域101内フ
ォトダイオード51の面積より大きくすることにより、
同一のICチップサイズで赤外発光ダイオード133
(補助光)の到達距離をより大きくしてさらに精度の高
い主要被写体検出を行うことができる。
That is, for example, the visible light cut region 10
By making the photodiode 61 inside 2 larger than the area of the photodiode 51 inside the infrared cut region 101,
Infrared light emitting diode 133 with the same IC chip size
By making the reaching distance of the (auxiliary light) longer, the main subject can be detected with higher accuracy.

【0108】また、赤外カット領域101、可視光カッ
ト領域102の他に赤外カットフィルタも可視光カット
フィルタも有していない第3センサ領域(図16参照)
を設ける場合について説明する。第3センサ領域は、赤
外カット領域101、可視光カット領域102とともに
2ライン毎に配置されている。この第3センサ領域は、
可視光、赤外光とも感度を有するので定常光(外光)が
最も大きいので低輝度での測距が最も有利である。
A third sensor area having neither an infrared cut filter nor a visible light cut filter in addition to the infrared cut area 101 and the visible light cut area 102 (see FIG. 16).
Will be described. The third sensor region is arranged every two lines together with the infrared cut region 101 and the visible light cut region 102. This third sensor area
Since both visible light and infrared light have sensitivity, the steady light (external light) is the largest, so that distance measurement with low luminance is most advantageous.

【0109】次に、本発明の第2の実施の形態について
説明する。
Next, a second embodiment of the present invention will be described.

【0110】図17は第2の実施の形態に係るカメラの
光学系の光路図である。
FIG. 17 is an optical path diagram of the optical system of the camera according to the second embodiment.

【0111】ここでは、第1の実施の形態(図6)と共
通部分についての説明は省略し、特徴ある部分を中心に
説明を進める。
Here, the description of the common parts with the first embodiment (FIG. 6) will be omitted, and the description will proceed focusing on the characteristic parts.

【0112】図17に示されるように、測距光学系36
の視野マスク37とフィールドレンズ38の間に赤外カ
ットフィルタ132が配置されている。赤外カットフィ
ルタ132はガラス上に誘電体コートの多層膜をコーテ
ィングしたものである。
As shown in FIG. 17, the distance measuring optical system 36
An infrared cut filter 132 is arranged between the field mask 37 and the field lens 38. The infrared cut filter 132 is formed by coating a multilayer film of a dielectric coat on glass.

【0113】ファインダ系には、ビームスプリッタ13
4が配置され、ファインダ光束を分岐させてその一方は
接眼レンズ34に導き、他方は第2測距光学系137に
導く。第2測距光学系137は、再結像レンズ136、
可視光カットフィルタ133とから構成され、第2AF
エリアセンサ135に第2AF光束を導く。
The finder system includes a beam splitter 13.
A finder light beam 4 is arranged to split the finder light beam, one of which is guided to the eyepiece 34, and the other of which is guided to the second distance measuring optical system 137. The second ranging optical system 137 includes a re-imaging lens 136,
The second AF
The second AF light beam is guided to the area sensor 135.

【0114】第2AFエリアセンサ135の構成は、図
9において全画素が画素60に置き換えられた構成とな
っている。ただし、可視光カットフィルタ133が第2
測距光学系137内に配置されているので第2AFエリ
アセンサ135のフォトダイオード上に可視光カットフ
ィルタを形成する必要はない。可視光カットフィルタ1
33は黒い染料を混ぜたプラスチックの板である。ま
た、AFエリアセンサ12についても測距光学系36内
に赤外カットフィルタ132を配置しているので、IC
パッケージ上に赤外カットフィルタを形成する必要はな
い。
The structure of the second AF area sensor 135 is such that all the pixels are replaced by the pixels 60 in FIG. However, the visible light cut filter 133 is the second
Since it is arranged in the distance measuring optical system 137, it is not necessary to form a visible light cut filter on the photodiode of the second AF area sensor 135. Visible light cut filter 1
33 is a plastic plate mixed with black dye. Also, since the infrared cut filter 132 is disposed in the distance measuring optical system 36 for the AF area sensor 12,
There is no need to form an infrared cut filter on the package.

【0115】AFエリアセンサ12の構成は、図9にお
いて全画素が画素50に置き換えられた構成となってい
る。AFエリアセンサ12と第2AFエリアセンサ13
5の視野は一致させており、両者の画素位置は対応づけ
られている。
The configuration of the AF area sensor 12 is such that all pixels are replaced with pixels 50 in FIG. AF area sensor 12 and second AF area sensor 13
The fields of view 5 are matched, and the pixel positions of both are associated.

【0116】各AFエリアセンサ12、135のフォト
ダイオード51、61の大きさやピッチ等のパラメータ
を独立して設定することができ、必ずしも同一にする必
要はない。また、測距光学系36、第2測距光学系13
7についても、それぞれ再結像倍率等の光学パラメータ
を独立に設定することができ、スペースや対応するAF
エリアセンサに応じて変えてもよい。
Parameters such as the size and pitch of the photodiodes 51 and 61 of each of the AF area sensors 12 and 135 can be independently set, and need not always be the same. Further, the distance measuring optical system 36 and the second distance measuring optical system 13
7, the optical parameters such as the re-imaging magnification can be set independently, and the space and the corresponding AF can be set.
It may be changed according to the area sensor.

【0117】以下、図18のフローチャートを参照し
て、第2の実施の形態に係るカメラの測距装置によるA
F動作を詳細に説明する。
Hereinafter, with reference to the flow chart of FIG. 18, the camera distance measuring device A according to the second embodiment will be described.
The F operation will be described in detail.

【0118】先ず、AF補助光131を投光させながら
第2AFエリアセンサ135による定常光除去積分が行
われる(ステップS501)。次いで、第2AFエリア
センサ135によりセンサデータを読み出す(ステップ
S502)。
First, stationary light removal integration by the second AF area sensor 135 is performed while projecting the AF auxiliary light 131 (step S501). Next, sensor data is read by the second AF area sensor 135 (step S502).

【0119】続いて、第3AFエリアセンサ135のセ
ンサデータに基づいて主要被写体検出を行う(ステップ
S503)。そして、AFエリアセンサ12による通常
積分動作が行われる(ステップS504)。
Subsequently, main subject detection is performed based on the sensor data of the third AF area sensor 135 (step S503). Then, the normal integration operation is performed by the AF area sensor 12 (step S504).

【0120】次いで、AFエリアセンサ12よりセンサ
データを読み出す。ここで第2AFエリアセンサ135
のセンサデータとは異なるRAM11cの領域にメモリ
する(ステップS505)。そして、AFエリアセンサ
12のセンサデータによる測距演算を行う(ステップS
506)。
Next, sensor data is read from the AF area sensor 12. Here, the second AF area sensor 135
Is stored in an area of the RAM 11c different from the sensor data (step S505). Then, a distance measurement operation is performed based on the sensor data of the AF area sensor 12 (step S).
506).

【0121】続いて、測距演算の結果、信頼度等の情報
により検出可能か否か判定する(ステップS507)。
ここで、検出可能であると判定された場合には、合焦か
否か判定する(ステップS508)。ここで、非合焦の
場合は、合焦となるレンズ駆動量に基づきレンズ駆動を
行う(ステップS509)。そして、ステップS504
からの動作を合焦となるまで繰り返し行う。
Subsequently, it is determined whether or not detection is possible based on information such as reliability as a result of the distance measurement calculation (step S507).
Here, when it is determined that detection is possible, it is determined whether or not the subject is in focus (step S508). Here, in the case of out-of-focus, the lens is driven based on the amount of lens drive to be focused (step S509). Then, step S504
The operation from is repeated until focusing is achieved.

【0122】上記ステップS507で検出不能の場合
は、第2AFエリアセンサ135のセンサデータに基づ
いて測距演算を行う(ステップS510)。そして、上
記測距結果が検出可能か否か判定する(ステップS51
1)。
If the detection is not possible in step S507, a distance measurement calculation is performed based on the sensor data of the second AF area sensor 135 (step S510). Then, it is determined whether or not the distance measurement result can be detected (step S51).
1).

【0123】ここで、検出可能な場合は、測距光束とし
て赤外光成分を用いているために発生する色収差分の補
正を行う(ステップS512)。この色収差補正量は予
めEEPROM11eにメモリされている。次いで、上
記色収差補正後の測距データを使用して合焦判定を行い
(ステップS513)、合焦の場合は終了し、非合焦の
場合はステップS515に進む。
If the detection is possible, the chromatic aberration generated due to the use of the infrared light component as the distance measuring light beam is corrected (step S512). This chromatic aberration correction amount is stored in the EEPROM 11e in advance. Next, focus determination is performed using the distance measurement data after the chromatic aberration correction (step S513), and the process ends when the focus is achieved, and proceeds to step S515 when the focus is not achieved.

【0124】上記色収差補正後の測距データに基づい
て、合焦となるレンズ駆動量を算出しレンズ駆動を行い
(ステップS515)、AF補助光131を投光させな
がら第2AFエリアセンサ135による定常光除去積分
が行われ(ステップS516)、第2AFエリアセンサ
135よりセンサデータを読み出す(ステップS51
7)。その後はステップS510以降を合焦となるまで
繰り返し実行する。
Based on the distance measurement data after the chromatic aberration correction, the lens driving amount for focusing is calculated, the lens is driven (step S515), and the steady state by the second AF area sensor 135 while projecting the AF auxiliary light 131 is performed. Light removal integration is performed (step S516), and sensor data is read from the second AF area sensor 135 (step S51).
7). Thereafter, step S510 and the subsequent steps are repeatedly executed until focusing is achieved.

【0125】一方、上記ステップS511で検出不能の
場合はステップS514に進む。そして、検出不能フラ
グをセットしリターンする。この時、カメラとしては非
合焦表示を行う。
On the other hand, if the detection is not possible in step S511, the flow advances to step S514. Then, it sets an undetectable flag and returns. At this time, the camera performs an out-of-focus display.

【0126】以上のように、赤外光をカットした定常光
で測距を行っても検出できない場合は、赤外光の補助光
を投光しながら定常光除去積分を行い、このセンサデー
タに基づいて測距演算を行うので、低コントラストや低
輝度な被写体であっても検出することができる。また、
赤外光成分による色収差の誤差を補正することにより、
定常光の場合と同等の合焦精度を満足することができ
る。
As described above, when the distance cannot be detected even when the distance is measured with the stationary light from which the infrared light has been cut, the stationary light is removed and integrated while projecting the auxiliary light of the infrared light. Since the distance measurement calculation is performed based on the distance, it is possible to detect even a low-contrast or low-luminance subject. Also,
By correcting the chromatic aberration error due to the infrared light component,
The same focusing accuracy as in the case of the stationary light can be satisfied.

【0127】次に図19には第2の実施の形態の変形例
の構成を示し説明する。
Next, FIG. 19 shows a configuration of a modification of the second embodiment and will be described.

【0128】ここでは、第1の実施の形態(図6)と共
通部分についての説明は省略し、特徴ある部分を中心に
説明を進める。
Here, the description of the common parts with the first embodiment (FIG. 6) will be omitted, and the description will proceed mainly on the characteristic parts.

【0129】この図19に示されるように、測距光学系
36と第2測距光学系137は一体にモジュール化され
ている。測距光学系36のフィールドレンズ38の後方
には、赤外光のみ反射し可視光を通過するダイクロイッ
クミラー140が配置されている。赤外光は瞳マスク1
38、再結像レンズ136を通過して第2AFセンサ1
35に導かれる。一方、ダイクロイックミラー140を
通過した可視光は、赤外カットフィルタ132を通過し
て全反射ミラー141で反射された後、AFエリアセン
サ12に導かれる。赤外カットフィルタ132はガラス
上に誘電体コートの多層膜をコーティングしたものであ
る。
As shown in FIG. 19, the distance measuring optical system 36 and the second distance measuring optical system 137 are integrally modularized. A dichroic mirror 140 that reflects only infrared light and passes visible light is disposed behind the field lens 38 of the distance measuring optical system 36. Infrared light is pupil mask 1
38, the second AF sensor 1 passing through the re-imaging lens 136
It is led to 35. On the other hand, the visible light that has passed through the dichroic mirror 140 passes through the infrared cut filter 132 and is reflected by the total reflection mirror 141, and is then guided to the AF area sensor 12. The infrared cut filter 132 is formed by coating a multilayer film of a dielectric coat on glass.

【0130】AFエリアセンサ12と第2AFエリアセ
ンサ135の視野は一致させており、両者の画素位置は
対応づけられている。各AFエリアセンサ12、135
のフォトダイオード51、61の大きさやピッチ等のパ
ラメータを独立して設定することができ、必ずしも同一
にする必要はない。
The fields of view of the AF area sensor 12 and the second AF area sensor 135 are made coincident, and their pixel positions are associated with each other. Each AF area sensor 12, 135
The parameters such as the size and pitch of the photodiodes 51 and 61 can be independently set, and need not always be the same.

【0131】また、測距光学系36、第2測距光学系1
37についても、それぞれ再結像倍率等の光学パラメー
タを独立に設定することができ、スペースや対応するA
Fエリアセンサに応じて変えてもよい。このように、測
距光学系36、第2測距光学系137とをミラーボック
ス下部に一体化して、小さいスペース内に構成すること
ができる。
The distance measuring optical system 36 and the second distance measuring optical system 1
Also for 37, the optical parameters such as the re-imaging magnification can be set independently, and the space and the corresponding A
It may be changed according to the F area sensor. Thus, the distance measuring optical system 36 and the second distance measuring optical system 137 can be integrated in the lower part of the mirror box and can be configured in a small space.

【0132】以上説明した実施の形態は、本発明をTT
Lパッシプ方式の測距装置に適用した例であるが、外光
パッシブ方式の測距装置に適用しても同様な効果が得ら
れることは勿論である。尚、AF補助光としては、赤外
発光ダイオードを使用しているが、ストロボ20aを補
助光として使用してもよい。
In the embodiment described above, the present invention is applied to the TT
Although this is an example in which the present invention is applied to an L-passive type distance measuring device, it is needless to say that the same effect can be obtained by applying to an external light passive type distance measuring device. Although the infrared light emitting diode is used as the AF auxiliary light, the strobe 20a may be used as the auxiliary light.

【0133】また、可視光成分(赤外カットセンサデー
タ)と赤外光成分(可視光カットセンサデータで定常光
除去なし)の光量比を求めることにより、照明の種類を
予測して蛍光灯や白熱電球の場合は、撮影時にストロボ
を発光させて色かぶりを防止するといった利用可能であ
る。
Further, the type of illumination is predicted by calculating the light amount ratio between the visible light component (infrared cut sensor data) and the infrared light component (visible light cut sensor data and no steady light removal) to predict the fluorescent lamp and the like. In the case of an incandescent light bulb, a strobe can be emitted at the time of shooting to prevent color cast.

【0134】[0134]

【発明の効果】本発明によれば、TTL方式の測距装置
であって、主要被写体に対して正確にピント合わせする
ことを可能な測距装置を提供することができる。
According to the present invention, it is possible to provide a TTL type distance measuring apparatus capable of accurately focusing on a main subject.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の測距装置の概念図である。FIG. 1 is a conceptual diagram of a distance measuring device according to the present invention.

【図2】本発明の測距装置の更なる概念図である。FIG. 2 is a further conceptual diagram of the distance measuring apparatus of the present invention.

【図3】本発明の測距装置の更なる概念図である。FIG. 3 is a further conceptual diagram of the distance measuring apparatus of the present invention.

【図4】第1の実施の形態に係る測距装置を採用したカ
メラの構成図である。
FIG. 4 is a configuration diagram of a camera employing the distance measuring device according to the first embodiment.

【図5】第1の実施の形態に係るカメラのマイコン11
のメインルーチンを説明するためのフローチャートであ
る。
FIG. 5 is a microcomputer 11 of the camera according to the first embodiment.
5 is a flowchart for explaining a main routine of FIG.

【図6】第1の実施の形態に係るカメラの光路図であ
る。
FIG. 6 is an optical path diagram of the camera according to the first embodiment.

【図7】(a)は測距光学系(位相差検出光学系)36
の構成を示す断面図であり、(b)は当該測距光学系の
構成を示す斜視図である。
7A is a distance measuring optical system (phase difference detecting optical system) 36. FIG.
FIG. 2B is a cross-sectional view showing the configuration of FIG. 1, and FIG. 2B is a perspective view showing the configuration of the distance measuring optical system.

【図8】(a)はAFエリアセンサ12の受光部の様子
を示す図であり、(b)はAFエリアセンサ12の概観
を示す図であり、(c)はAFエリアセンサ12の断面
の様子を示す図である。
8A is a diagram showing a state of a light receiving unit of the AF area sensor 12, FIG. 8B is a diagram showing an overview of the AF area sensor 12, and FIG. It is a figure showing a situation.

【図9】赤外カット領域101内の画素50の構成を示
す図である。
FIG. 9 is a diagram showing a configuration of a pixel 50 in an infrared cut area 101.

【図10】第1の実施の形態によるAF動作の流れを示
すフローチャートである。
FIG. 10 is a flowchart illustrating a flow of an AF operation according to the first embodiment.

【図11】第1の実施の形態によるAF動作の流れを示
すタイミングチャートである。
FIG. 11 is a timing chart showing a flow of an AF operation according to the first embodiment.

【図12】サブルーチン「主要被写体検出」の処理を説
明するフローチャートである。
FIG. 12 is a flowchart illustrating processing of a subroutine “main subject detection”.

【図13】サブルーチン「形状判定処置」の処理を説明
するためのフローチャートである。
FIG. 13 is a flowchart illustrating a process of a subroutine “shape determination processing”.

【図14】(a)は主要被写体を示す図であり、(b)
はラベル領域を分割した様子を示す図であり、(c)は
測距エリア403〜405を示す図である。
14A is a diagram showing a main subject, and FIG.
FIG. 4 is a diagram illustrating a state where a label area is divided, and FIG. 4C is a diagram illustrating distance measurement areas 403 to 405.

【図15】(a)は可視光カットフィルタ108の分光
感度特性を示す図であり、(b)は赤外カットフィルタ
107の分光感度特性を示す図である。
15A is a diagram illustrating a spectral sensitivity characteristic of the visible light cut filter 108, and FIG. 15B is a diagram illustrating a spectral sensitivity characteristic of the infrared cut filter 107.

【図16】赤外カット領域101、可視光カット領域1
02の他に赤外カットフィルタも可視光カットフィルタ
も有していない第3センサ領域を設ける第1の実施の形
態の変形例を説明するための図である。
FIG. 16 shows an infrared cut region 101 and a visible light cut region 1
It is a figure for explaining the modification of a 1st embodiment which provides the 3rd sensor field which does not have an infrared cut filter nor a visible light cut filter other than 02.

【図17】第2の実施の形態に係るカメラの光学系の光
路図である。
FIG. 17 is an optical path diagram of an optical system of a camera according to a second embodiment.

【図18】第2の実施の形態に係るカメラの測距装置に
よるAF動作を詳細に説明するためのフローチャートで
ある。
FIG. 18 is a flowchart for explaining in detail an AF operation by the distance measuring device of the camera according to the second embodiment.

【図19】第2の実施の形態の変形例の構成を示す図で
ある。
FIG. 19 is a diagram illustrating a configuration of a modification of the second embodiment.

【符号の説明】[Explanation of symbols]

1 センサ部 2 第1センサ部 3 第2センサ部 4 赤外カット部 5 可視光カット部 6 焦点調節部 7 投光部 8 定常光除去部 DESCRIPTION OF SYMBOLS 1 Sensor part 2 First sensor part 3 Second sensor part 4 Infrared cut part 5 Visible light cut part 6 Focus adjustment part 7 Light projection part 8 Steady light removal part

フロントページの続き Fターム(参考) 2F065 AA06 DD00 DD04 FF05 FF09 GG07 GG08 GG23 JJ03 JJ05 JJ26 LL12 LL30 NN12 PP22 QQ03 QQ13 QQ14 QQ23 QQ25 QQ34 QQ36 SS13 UU05 2F112 AA09 AC06 BA06 CA02 DA13 DA28 DA32 EA09 FA03 FA07 FA08 FA21 FA29 FA33 FA36 FA45 2H051 BA24 CB13 CC03 Continued on the front page F-term (reference) 2F065 AA06 DD00 DD04 FF05 FF09 GG07 GG08 GG23 JJ03 JJ05 JJ26 LL12 LL30 NN12 PP22 QQ03 QQ13 QQ14 QQ23 QQ25 QQ34 QQ36 SS13 UU05 2F112 AA09 AC06 FA06 FA03 FA09 FA45 2H051 BA24 CB13 CC03

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 赤外カット手段を有する第1センサ手段
と、 可視光カット手段を有する第2センサ手段と、 上記第1センサ手段と第2センサ手段の出力に基づいて
焦点調節する焦点調節手段と、を有することを特徴とす
る測距装置。
A first sensor having infrared cut-off means; a second sensor having visible light cut-off means; and a focus adjusting means for adjusting focus based on outputs of the first sensor means and the second sensor means. And a distance measuring device.
【請求項2】 被写体に所定の波長の光を投光する投光
手段を更に有し、 上記焦点調節手段は、上記投光手段が非動作時の第1セ
ンサ手段の出力と、上記投光手段が動作時の第2センサ
手段の出力とに基づいて焦点調節を行うことを特徴とす
る請求項1に記載の測距装置。
2. The apparatus according to claim 1, further comprising a light projecting means for projecting light of a predetermined wavelength onto the subject, wherein said focus adjusting means comprises: an output of said first sensor means when said light projecting means is not operating; 2. The distance measuring apparatus according to claim 1, wherein the means adjusts a focus based on an output of the second sensor means during operation.
【請求項3】 上記第2センサ手段は、受光する受光量
のうちから定常光成分を除去する定常光除去手段を更に
有していることを特徴とする請求項1に記載の測距装
置。
3. The distance measuring apparatus according to claim 1, wherein said second sensor means further comprises a stationary light removing means for removing a stationary light component from a received light amount.
【請求項4】 上記第1センサ手段と第2センサ手段と
は同一ICチップ上に形成されていることを特徴とする
請求項1に記載の測距装置。
4. The distance measuring apparatus according to claim 1, wherein said first sensor means and said second sensor means are formed on the same IC chip.
JP2000154844A 2000-05-25 2000-05-25 Range-finding device Withdrawn JP2001337263A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000154844A JP2001337263A (en) 2000-05-25 2000-05-25 Range-finding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000154844A JP2001337263A (en) 2000-05-25 2000-05-25 Range-finding device

Publications (1)

Publication Number Publication Date
JP2001337263A true JP2001337263A (en) 2001-12-07

Family

ID=18659874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000154844A Withdrawn JP2001337263A (en) 2000-05-25 2000-05-25 Range-finding device

Country Status (1)

Country Link
JP (1) JP2001337263A (en)

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
WO2007129563A1 (en) * 2006-05-09 2007-11-15 Panasonic Corporation Range finder with image selecting function for finding range
JP2011095027A (en) * 2009-10-28 2011-05-12 Kyocera Corp Imaging device
JP2014232144A (en) * 2013-05-28 2014-12-11 リコーイメージング株式会社 Automatic focus detection device
WO2017047239A1 (en) * 2015-09-16 2017-03-23 富士フイルム株式会社 Focus apparatus, imaging system, and focus driving signal outputting method
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US9774831B2 (en) 2013-02-24 2017-09-26 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9787911B2 (en) 2013-03-14 2017-10-10 Fotonation Cayman Limited Systems and methods for photometric normalization in array cameras
US9794476B2 (en) 2011-09-19 2017-10-17 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US9800856B2 (en) 2013-03-13 2017-10-24 Fotonation Cayman Limited Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9800859B2 (en) 2013-03-15 2017-10-24 Fotonation Cayman Limited Systems and methods for estimating depth using stereo array cameras
US9807382B2 (en) 2012-06-28 2017-10-31 Fotonation Cayman Limited Systems and methods for detecting defective camera arrays and optic arrays
US9813617B2 (en) 2013-11-26 2017-11-07 Fotonation Cayman Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US9813616B2 (en) 2012-08-23 2017-11-07 Fotonation Cayman Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US9811753B2 (en) 2011-09-28 2017-11-07 Fotonation Cayman Limited Systems and methods for encoding light field image files
US9858673B2 (en) 2012-08-21 2018-01-02 Fotonation Cayman Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9866739B2 (en) 2011-05-11 2018-01-09 Fotonation Cayman Limited Systems and methods for transmitting and receiving array camera image data
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9924092B2 (en) 2013-11-07 2018-03-20 Fotonation Cayman Limited Array cameras incorporating independently aligned lens stacks
US9936148B2 (en) 2010-05-12 2018-04-03 Fotonation Cayman Limited Imager array interfaces
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9986224B2 (en) 2013-03-10 2018-05-29 Fotonation Cayman Limited System and methods for calibration of an array camera
US10009538B2 (en) 2013-02-21 2018-06-26 Fotonation Cayman Limited Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US10027901B2 (en) 2008-05-20 2018-07-17 Fotonation Cayman Limited Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10127682B2 (en) 2013-03-13 2018-11-13 Fotonation Limited System and methods for calibration of an array camera
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US10261219B2 (en) 2012-06-30 2019-04-16 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing
US10366472B2 (en) 2010-12-14 2019-07-30 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US10390005B2 (en) 2012-09-28 2019-08-20 Fotonation Limited Generating images from light fields utilizing virtual viewpoints
JP2019197140A (en) * 2018-05-09 2019-11-14 キヤノン株式会社 Imaging device, control method for the same, and program
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10542208B2 (en) 2013-03-15 2020-01-21 Fotonation Limited Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10805589B2 (en) 2015-04-19 2020-10-13 Fotonation Limited Multi-baseline camera array system architectures for depth augmentation in VR/AR applications
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
CN114799493A (en) * 2022-06-06 2022-07-29 深圳市大德激光技术有限公司 Automatic focusing device of ultrafast laser processing equipment
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects

Cited By (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
WO2007129563A1 (en) * 2006-05-09 2007-11-15 Panasonic Corporation Range finder with image selecting function for finding range
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11412158B2 (en) 2008-05-20 2022-08-09 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10027901B2 (en) 2008-05-20 2018-07-17 Fotonation Cayman Limited Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras
JP2011095027A (en) * 2009-10-28 2011-05-12 Kyocera Corp Imaging device
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
US9936148B2 (en) 2010-05-12 2018-04-03 Fotonation Cayman Limited Imager array interfaces
US10455168B2 (en) 2010-05-12 2019-10-22 Fotonation Limited Imager array interfaces
US11423513B2 (en) 2010-12-14 2022-08-23 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US10366472B2 (en) 2010-12-14 2019-07-30 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11875475B2 (en) 2010-12-14 2024-01-16 Adeia Imaging Llc Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US9866739B2 (en) 2011-05-11 2018-01-09 Fotonation Cayman Limited Systems and methods for transmitting and receiving array camera image data
US10218889B2 (en) 2011-05-11 2019-02-26 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US10742861B2 (en) 2011-05-11 2020-08-11 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US9794476B2 (en) 2011-09-19 2017-10-17 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US10375302B2 (en) 2011-09-19 2019-08-06 Fotonation Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US10019816B2 (en) 2011-09-28 2018-07-10 Fotonation Cayman Limited Systems and methods for decoding image files containing depth maps stored as metadata
US10984276B2 (en) 2011-09-28 2021-04-20 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US10275676B2 (en) 2011-09-28 2019-04-30 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US9811753B2 (en) 2011-09-28 2017-11-07 Fotonation Cayman Limited Systems and methods for encoding light field image files
US11729365B2 (en) 2011-09-28 2023-08-15 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata
US20180197035A1 (en) 2011-09-28 2018-07-12 Fotonation Cayman Limited Systems and Methods for Encoding Image Files Containing Depth Maps Stored as Metadata
US10430682B2 (en) 2011-09-28 2019-10-01 Fotonation Limited Systems and methods for decoding image files containing depth maps stored as metadata
US9864921B2 (en) 2011-09-28 2018-01-09 Fotonation Cayman Limited Systems and methods for encoding image files containing depth maps stored as metadata
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing
US9807382B2 (en) 2012-06-28 2017-10-31 Fotonation Cayman Limited Systems and methods for detecting defective camera arrays and optic arrays
US10334241B2 (en) 2012-06-28 2019-06-25 Fotonation Limited Systems and methods for detecting defective camera arrays and optic arrays
US11022725B2 (en) 2012-06-30 2021-06-01 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US10261219B2 (en) 2012-06-30 2019-04-16 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US10380752B2 (en) 2012-08-21 2019-08-13 Fotonation Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9858673B2 (en) 2012-08-21 2018-01-02 Fotonation Cayman Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9813616B2 (en) 2012-08-23 2017-11-07 Fotonation Cayman Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US10462362B2 (en) 2012-08-23 2019-10-29 Fotonation Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US10390005B2 (en) 2012-09-28 2019-08-20 Fotonation Limited Generating images from light fields utilizing virtual viewpoints
US10009538B2 (en) 2013-02-21 2018-06-26 Fotonation Cayman Limited Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9774831B2 (en) 2013-02-24 2017-09-26 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US9986224B2 (en) 2013-03-10 2018-05-29 Fotonation Cayman Limited System and methods for calibration of an array camera
US11570423B2 (en) 2013-03-10 2023-01-31 Adeia Imaging Llc System and methods for calibration of an array camera
US10225543B2 (en) 2013-03-10 2019-03-05 Fotonation Limited System and methods for calibration of an array camera
US10958892B2 (en) 2013-03-10 2021-03-23 Fotonation Limited System and methods for calibration of an array camera
US11272161B2 (en) 2013-03-10 2022-03-08 Fotonation Limited System and methods for calibration of an array camera
US11985293B2 (en) 2013-03-10 2024-05-14 Adeia Imaging Llc System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US10127682B2 (en) 2013-03-13 2018-11-13 Fotonation Limited System and methods for calibration of an array camera
US9800856B2 (en) 2013-03-13 2017-10-24 Fotonation Cayman Limited Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9787911B2 (en) 2013-03-14 2017-10-10 Fotonation Cayman Limited Systems and methods for photometric normalization in array cameras
US10547772B2 (en) 2013-03-14 2020-01-28 Fotonation Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10412314B2 (en) 2013-03-14 2019-09-10 Fotonation Limited Systems and methods for photometric normalization in array cameras
US10674138B2 (en) 2013-03-15 2020-06-02 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10542208B2 (en) 2013-03-15 2020-01-21 Fotonation Limited Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10638099B2 (en) 2013-03-15 2020-04-28 Fotonation Limited Extended color processing on pelican array cameras
US10455218B2 (en) 2013-03-15 2019-10-22 Fotonation Limited Systems and methods for estimating depth using stereo array cameras
US9800859B2 (en) 2013-03-15 2017-10-24 Fotonation Cayman Limited Systems and methods for estimating depth using stereo array cameras
JP2014232144A (en) * 2013-05-28 2014-12-11 リコーイメージング株式会社 Automatic focus detection device
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US10540806B2 (en) 2013-09-27 2020-01-21 Fotonation Limited Systems and methods for depth-assisted perspective distortion correction
US9924092B2 (en) 2013-11-07 2018-03-20 Fotonation Cayman Limited Array cameras incorporating independently aligned lens stacks
US11486698B2 (en) 2013-11-18 2022-11-01 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10767981B2 (en) 2013-11-18 2020-09-08 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10708492B2 (en) 2013-11-26 2020-07-07 Fotonation Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US9813617B2 (en) 2013-11-26 2017-11-07 Fotonation Cayman Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US10574905B2 (en) 2014-03-07 2020-02-25 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US11546576B2 (en) 2014-09-29 2023-01-03 Adeia Imaging Llc Systems and methods for dynamic calibration of array cameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10805589B2 (en) 2015-04-19 2020-10-13 Fotonation Limited Multi-baseline camera array system architectures for depth augmentation in VR/AR applications
US11368662B2 (en) 2015-04-19 2022-06-21 Fotonation Limited Multi-baseline camera array system architectures for depth augmentation in VR/AR applications
WO2017047239A1 (en) * 2015-09-16 2017-03-23 富士フイルム株式会社 Focus apparatus, imaging system, and focus driving signal outputting method
JPWO2017047239A1 (en) * 2015-09-16 2018-03-29 富士フイルム株式会社 Focus device, imaging system, and focus drive signal output method
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US11562498B2 (en) 2017-08-21 2023-01-24 Adela Imaging LLC Systems and methods for hybrid depth regularization
US11983893B2 (en) 2017-08-21 2024-05-14 Adeia Imaging Llc Systems and methods for hybrid depth regularization
US10818026B2 (en) 2017-08-21 2020-10-27 Fotonation Limited Systems and methods for hybrid depth regularization
JP7094767B2 (en) 2018-05-09 2022-07-04 キヤノン株式会社 Imaging device and its control method and program
JP2019197140A (en) * 2018-05-09 2019-11-14 キヤノン株式会社 Imaging device, control method for the same, and program
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11982775B2 (en) 2019-10-07 2024-05-14 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11842495B2 (en) 2019-11-30 2023-12-12 Intrinsic Innovation Llc Systems and methods for transparent object segmentation using polarization cues
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11683594B2 (en) 2021-04-15 2023-06-20 Intrinsic Innovation Llc Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN114799493B (en) * 2022-06-06 2024-05-10 深圳市大德激光技术有限公司 Automatic focusing device of ultrafast laser processing equipment
CN114799493A (en) * 2022-06-06 2022-07-29 深圳市大德激光技术有限公司 Automatic focusing device of ultrafast laser processing equipment

Similar Documents

Publication Publication Date Title
JP2001337263A (en) Range-finding device
US7940323B2 (en) Image-pickup apparatus and control method thereof
JP2000266988A (en) Electronic camera
JP2007233034A (en) Imaging apparatus
JP2008275712A (en) Imaging apparatus
TW202021340A (en) Infrared pre-flash for camera
JP2006317595A (en) Optical apparatus and its control method
US20210105413A1 (en) Image capturing apparatus, control method thereof, and storage medium
JP4350199B2 (en) camera
JP2000171685A (en) Focus detector
JP2007156304A (en) Camera, camera system, and interchangeable lens device
JP2006119454A (en) Imaging apparatus and photometry method for imaging apparatus
JP3955201B2 (en) Auto focus camera
JP3554267B2 (en) Imaging device, control method therefor, and signal processing method
JP2006146081A (en) Ranging device and imaging apparatus
JP2008203407A (en) Imaging apparatus, lens device and imaging system
JP4532169B2 (en) Focus detection device
JP7195783B2 (en) IMAGING DEVICE, ACCESSORY DEVICE AND CONTROL METHOD THEREOF
JP2009003261A (en) Focus adjustment device, imaging device and focus adjustment method
JP2004187287A (en) Image pickup device, control method for the image pickup device, and recording medium stored with computer-readable program executing the control method
JP4514202B2 (en) Interchangeable lens, camera body and camera system
JP2001141986A (en) Electronic camera and automatic focusing device for electronic camera
JP2002268113A (en) Camera
JP2002148511A (en) Camera
JP2001141985A (en) Electronic camera

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807