JP2001337263A - Range-finding device - Google Patents

Range-finding device

Info

Publication number
JP2001337263A
JP2001337263A JP2000154844A JP2000154844A JP2001337263A JP 2001337263 A JP2001337263 A JP 2001337263A JP 2000154844 A JP2000154844 A JP 2000154844A JP 2000154844 A JP2000154844 A JP 2000154844A JP 2001337263 A JP2001337263 A JP 2001337263A
Authority
JP
Japan
Prior art keywords
light
sensor
means
step
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000154844A
Other languages
Japanese (ja)
Inventor
Masataka Ide
Koichi Nakada
康一 中田
昌孝 井出
Original Assignee
Olympus Optical Co Ltd
オリンパス光学工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd, オリンパス光学工業株式会社 filed Critical Olympus Optical Co Ltd
Priority to JP2000154844A priority Critical patent/JP2001337263A/en
Publication of JP2001337263A publication Critical patent/JP2001337263A/en
Application status is Withdrawn legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a TTL system range-finding device capable of realizing accurate focusing on a main subject.
SOLUTION: This range-finding device is provided with a 1st sensor part 2 having an infrared cutting part 4, a 2nd sensor part 3 having a visible light cutting part 5, and a focusing part 6 performing focusing based on output from the 1st and the 2nd sensor parts 2 and 3.
COPYRIGHT: (C)2001,JPO

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、例えばカメラ等の撮像装置に利用可能な測距装置に関する。 The present invention relates to relates to distance measuring devices available, for example, in an imaging apparatus such as a camera.

【0002】 [0002]

【従来の技術】従来、パッシブAF方式とアクティブA Conventionally, passive AF system and an active A
F方式とを切り換えて測距を行う測距装置が知られている。 Distance measuring device measuring a distance by switching between F method are known. 例えば特開平11−337815号公報により開示された測距装置は、パッシブAF用受光素子列とアクティブAF用受光素子列とを有しており、アクティブAF For example distance measuring device disclosed by JP-A 11-337815 discloses has a light receiving element array for receiving element array and an active AF passive AF, active AF
用受光素子の表面には黒色フィルタが配置され、可視光をカットし赤外光を透過させる。 The surface of the use the light receiving element is arranged black filter, and transmits the infrared light cut visible light. アクティブAFの場合は、赤外光を被写体に照射してその反射光を受光する。 For an active AF, receiving reflected light by irradiating infrared light on the subject.

【0003】 [0003]

【発明が解決しようとする課題】ところで、所謂TTL The object of the invention is to be Solved by the way, so-called TTL
方式の測距装置においては、一般的に色収差による誤差を低減させるために赤外光を除去する赤外カットフィルタを光路中に配置して使用する。 In the distance measuring apparatus of the type generally used in an infrared cut filter for removing infrared light in order to reduce the error due to chromatic aberration is arranged in the optical path. したがって、アクティブAF(補助光)を行う場合は、赤外カットフィルタの影響を受けないような可視光波長に設定されており赤外光を使用することはできない。 Therefore, when performing the active AF (auxiliary light) can not be used infrared light is set to a visible light wavelength that is not affected by the infrared cut filter. そのため、定常光の可視光成分の影響を大きく受けることになり、S/Nとしては好ましくない。 Therefore, it will be greatly affected by visible light component of ambient light, not preferred as S / N.

【0004】このような問題は、上記特開平11−33 [0004] Such a problem is, the above-mentioned JP-A-11-33
7815号公報に開示の測距センサを採用しても同様に問題となる。 It is adopted distance measuring sensor disclosed in 7815 JP problematic as well.

【0005】すなわち、上記装置をTTL方式に適用する場合は、赤外カットフィルタを使用するために、上記黒色フィルタ(可視光カットフィルタ)の効果が非常に薄くなり、被写体に照射した赤外光に反射光がカットされ、S/Nが低下するので測距精度が低下してしまう。 Namely, when applying the device to the TTL method, in order to use an infrared cut filter, the effect of the black filter (visible light cut filter) is very thin, the infrared light irradiating the subject reflected light is cut, the distance measuring accuracy since S / N is lowered is reduced to.

【0006】本発明は、上記問題に鑑みてなされたもので、その目的とするところは、TTL方式の測距装置であって、主要被写体に対して正確にピント合わせることを可能とする測距装置を提供することにある。 [0006] The present invention has been made in view of the above problems, and has as its object a distance measuring apparatus of the TTL method, precisely distance measurement makes it possible to align the focus with respect to the main subject to provide an apparatus.

【0007】 [0007]

【課題を解決するための手段】上記目的を達成するために、本発明の第1の態様では、赤外カット手段を有する第1センサ手段と、可視光カット手段を有する第2センサ手段と、上記第1センサ手段と第2センサ手段の出力に基づいて焦点調節する焦点調節手段と、を有することを特徴とする測距装置が提供される。 To achieve the above object, according to the solution to ## with a first aspect of the present invention, a first sensor means having an infrared cut means, a second sensor means having a visible light cutting means, distance measuring apparatus characterized by having a a focus adjustment means for adjusting the focus based on the output of the first sensor means and second sensor means.

【0008】第2の態様では、上記第1の態様において、被写体に所定の波長の光を投光する投光手段を更に有し、上記焦点調節手段は、上記投光手段が非動作時の第1センサ手段の出力と、上記投光手段が動作時の第2 [0008] In a second aspect, in the first aspect, further comprising a light projecting means for projecting light of a predetermined wavelength to the subject, the focus adjustment means, said light projecting means at the time of non-operation the output of the first sensor unit, the second said light projecting means during operation
センサ手段の出力とに基づいて焦点調節を行うことを特徴とする測距装置が提供される。 Distance measuring apparatus is provided which is characterized in that the focusing based on the output of the sensor means.

【0009】第3の態様では、上記第1の態様において、上記第2センサ手段は、受光する受光量のうちから定常光成分を除去する定常光除去手段を更に有していることを特徴とする測距装置が提供される。 [0009] In a third aspect, in the first aspect, the second sensor means includes a feature that further comprises a stationary light removing means for removing the stationary light component from among the received light amount of the light receiving distance measuring apparatus which is provided.

【0010】第4の態様では、上記第1の態様において、上記第1センサ手段と第2センサ手段とは同一IC [0010] In a fourth aspect, in the first aspect, the first sensor means and the same IC and the second sensor means
チップ上に形成されていることを特徴とする測距装置が提供される。 Distance measuring apparatus is provided which is characterized in that it is formed on the chip.

【0011】上記第1乃至第4の態様によれば以下の作用が奏される。 [0011] the following effects according to the first to fourth aspect are obtained.

【0012】即ち、本発明の第1の態様では、焦点調節手段により、赤外カット手段を有する第1センサ手段の出力と、可視光カット手段を有する第2センサ手段の出力とに基づいて焦点調節がなされる。 Namely, in the first aspect of the present invention, by focusing means, the output of the first sensor means having an infrared cut means, based on the output of the second sensor means having a visible light cutting means focus adjustment is made.

【0013】第2の態様では、上記第1の態様において、上記焦点調節手段により、上記投光手段が非動作時の第1センサ手段の出力と、上記投光手段が動作時の第2センサ手段の出力とに基づいて焦点調節がなされる。 [0013] In a second aspect, the in the first aspect, by the focusing means, an output of said light projecting means first sensor means during non-operation, the second sensor the light projecting means is in operation focus adjustment is performed based on the output means.

【0014】第3の態様では、上記第1の態様において、上記第2センサ手段において、定常光除去手段により受光する受光量のうちから定常光成分が除去される。 [0014] In a third aspect, in the first aspect, in the second sensor unit, the stationary light component is removed from among the received light amount received by the stationary light removing means.

【0015】第4の態様では、上記第1の態様において、上記第1センサ手段と第2センサ手段とは同一IC [0015] In a fourth aspect, in the first aspect, the first sensor means and the same IC and the second sensor means
チップ上に形成される。 It is formed on the chip.

【0016】 [0016]

【発明の実施の形態】以下、図面を参照して本発明の実施の形態について説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention are described with reference to the drawings.

【0017】図1は本発明の測距装置の概念図である。 [0017] FIG. 1 is a conceptual diagram of a distance measuring apparatus of the present invention.

【0018】同図に示されるように、赤外カット部4を有する第1センサ部2と可視光カット部5を有する第2 [0018] As shown in the figure, the second having a first sensor portion 2 and the visible light cut portion 5 having an infrared cut portion 4
センサ部3の各出力は、焦点調節部6の入力に接続されている。 Each output of the sensor 3 is connected to the input of the focusing unit 6. そして、この焦点調節部6は、投光部7が非動作時の第1センサ部2の出力と、投光部7が動作時の第2センサ部3に出力に基づいて焦点調節を行う。 Then, the focus adjusting unit 6 performs focus adjustment based on the output and the output of the first sensor unit 2 at the time of the light projecting unit 7 is inoperative, the second sensor unit 3 light projection part 7 during operation. さらに、この焦点調節部6の出力は、被写体に所定の波長の光を投光する投光部7の入力に接続されている。 Further, the output of the focusing unit 6 is connected to the input of the light projecting portion 7 that projects light of a predetermined wavelength to the subject.

【0019】図2は本発明の測距装置の更なる概念図である。 [0019] Figure 2 is a further schematic diagram of a distance measuring apparatus of the present invention.

【0020】同図に示されるように、被写体からの反射光を受光するセンサ部1の内部には、上記センサ部1の一部で前面に赤外カット部4を有する第1センサ部2 [0020] As shown in the diagram, a sensor section 1 for receiving light reflected from the subject, the first sensor unit 2 having an infrared cut portion 4 to the front part of the sensor unit 1
と、上記センサ部1の一部で前面に可視光カットフィルタ5を有する第2センサ部3とが配置されている。 If a second sensor unit 3 having a visible light cut filter 5 in front part of the sensor unit 1 is arranged. 上記第1センサ部2の出力と第2センサ部3に出力は、当該出力に基づいて焦点調節を行う焦点調節部6の入力に接続されており、当該焦点調節部6の出力は、被写体に対して所定の波長分布を有する光を投光する投光部7の入力に接続されている。 Output to the output and the second sensor unit 3 of the first sensor unit 2 on the basis of the output is connected to the input of the focusing unit 6 that performs focus adjustment, the output of the focusing unit 6, the subject It is connected to the input of the light projecting portion 7 that projects light having a predetermined wavelength distribution for.

【0021】図3は本発明の測距装置の更なる概念図である。 [0021] FIG. 3 is a further schematic diagram of a distance measuring apparatus of the present invention.

【0022】同図に示されるように、この構成では、図2の構成に加えて、上記投光部7の投光同期して、上記第2センサ部3の受光成分から定常光成分を除去する定常光除去部8を更に有する。 [0022] As shown in the figure, in this configuration, in addition to the configuration of FIG. 2, the light projecting synchronization of the light projecting portion 7, removes the stationary light component from the light receiving component of the second sensor unit 3 further comprising a stationary light removing unit 8 for. そして、上記測距部6は、 Then, the distance measuring section 6,
定常光除去部8を動作させた第2センサ部3の出力に基づいて焦点調節を行う。 Performs focus adjustment based on the output of the second sensor unit 3 operates the constant light removing unit 8.

【0023】以下、本発明の第1の実施の形態について説明する。 [0023] Hereinafter, a description will be given of a first embodiment of the present invention.

【0024】図4は、第1の実施の形態に係る測距装置を採用したカメラの構成を示すブロック図である。 FIG. 4 is a block diagram showing a configuration of a camera employing the distance measuring apparatus according to the first embodiment. 同図において、マイクロコンピュータ(以下、マイコンと称する)11は、カメラのシステムコントローラである。 In the figure, a microcomputer (hereinafter, referred to as microcomputer) 11 is a system controller of the camera.

【0025】このマイコン11の内部には、中央演算処理装置(以下、CPUと称する)11a、リード・オンリ・メモリ(以下、ROMと称する)11b、ランダム・アクセス・メモリ(以下、RAMと称する)11c、 [0025] Inside the microcomputer 11, a central processing unit (hereinafter, referred to as CPU) 11a, a read-only memory (hereinafter, referred to as ROM) 11b, a random access memory (hereinafter, referred to as RAM) 11c,
アナログ/デジタル(A/D)コンバータ(以下、AD Analog / digital (A / D) converter (hereinafter, AD
Cと称する)11dが内蔵されている。 Referred to as C) 11d is built. 上記CPU11 The CPU11
aは、ROM11bに格納されたシーケンスプログラムに従って一連の動作を行う。 a performs a series of operations according to a sequence program stored in the ROM 11b. 上記マイコン11内部には、更にEEPROM11eが内蔵されており、当該E Inside the microcomputer 11, has a built-in further EEPROM11e, the E
EPROM11eは、AFや測光・露出演算等に関する補正データをカメラ毎に記憶している。 EPROM11e stores correction data relating to AF and metering, exposure calculation, etc. for each camera. 更に、このEE In addition, the EE
PROM11eには、後述する撮影画面内の主要被写体を検出するための各種パラメータ等も記憶されている。 The PROM11e, such as various parameters to detect the main object of shooting the screen to be described later are stored.

【0026】上記マイコン11の出力はAFエリアセンサ12の入力に接続されている。 The output of the microcomputer 11 is connected to the input of the AF area sensor 12.

【0027】このAFエリアセンサ12は、後述する測距光学系36により形成される被写体像を撮像して電気信号であるセンサデータに変換する。 [0027] The AF area sensor 12 converts the sensor data which is an electrical signal by imaging an object image formed by the distance-measuring optical system 36 to be described later. このAFエリアセンサ12は、受光領域12a,12bである水平方向と垂直方向に二次元状に配置された受光素子群とその処理回路12cとから構成される。 The AF area sensor 12 is composed of a light receiving area 12a, the horizontal and vertical directions to the light receiving element group arranged in two-dimensional form which is 12b and the processing circuit 12c.

【0028】そして、この受光素子(フォトダイオード)への入射光により発生する電荷を画素毎の画素回路により電圧に変換すると共に増幅して出力する。 [0028] Then, the output amplifier to converts the charge generated by incident light on the light receiving element (photodiode) into a voltage by the pixel circuit of each pixel.

【0029】上記マイコン11は、上記AFエリアセンサ12の積分動作の制御、センサデータの読み出し制御を行い、AFエリアセンサ12の出力するセンサデータを処理して測距演算、主要被写体検出等を行う。 [0029] The microcomputer 11 controls the integrating operation of the AF area sensor 12, reads the control of the sensor data, distance measurement calculation processes the sensor data output from the AF area sensor 12, performs a main subject detection, etc. . また、 Also,
上記AFエリアセンサ12は、画素毎に定常光除去部を有しており、マイコン11により定常光除去するか否かを切り換えられるようになっている。 The AF area sensor 12 has a constant light removing unit for each pixel, is adapted to be switched whether or not to remove the ambient light by the microcomputer 11. すなわち、かかる定常光除去動作の下では、後述する補助光を投光しながら行うことで、投光成分による被写体反射光のみに対応する受光信号を検出することができる。 That is, under such a stationary light removing operation, by performing while projecting auxiliary light to be described later, it is possible to detect the received light signal corresponding only to the object light reflected by the light projecting components.

【0030】上記マイコン11の出力は、フォーカスレンズ駆動部13の入力にも接続されている。 The output of the microcomputer 11 is also connected to the input of the focus lens driving unit 13. このフォーカスレンズ駆動部13は、撮影レンズ130の一部であるフォーカシングレンズ14を駆動するものである。 The focus lens driving unit 13 is for driving the focusing lens 14 which is a part of the photographing lens 130. 上記フォーカスレンズ14に接続されたフォーカスエンコーダ15は、当該フォーカシングレンズ14の移動量に対応するパルス信号を発生する。 Focus encoder 15 connected to the focusing lens 14 generates a pulse signal corresponding to the movement amount of the focusing lens 14.

【0031】上記マイコン11は、測距演算結果に基づき、フォーカスレンズ駆動部13に駆動信号を出力し、 [0031] The microcomputer 11 on the basis of the distance measurement arithmetic result, outputs a drive signal to the focus lens drive unit 13,
フォーカスエンコーダ15の出力をモニタしてフォーカスレンズ14の位置制御して焦点調節を行う。 Monitoring the output of the focus encoder 15 performs focus adjustment by the position control of the focus lens 14.

【0032】上記マイコン11には測光部16も接続されている。 [0032] The above microcomputer 11 is also connected photometry unit 16. この測光部16は、撮影画面に対応し、複数に分割された測光用受光素子16aの発生する光電流信号を処理して測光出力を発生する。 The photometry unit 16 corresponds to the shooting screen, to generate a photometric output by processing the photocurrent signals generated by the plurality of divided photometric light receiving element 16a. マイコン11は、この測光出力をADC11dによりA/D変換して測光・ Microcomputer 11, metering-in A / D conversion of the photometric output by ADC11d
露出演算を行う。 Performing the exposure calculation.

【0033】上記マイコン11は、シャッタ駆動部1 [0033] The microcomputer 11, a shutter driving unit 1
7、ストロボ回路20、表示部21とも接続されている。 7, a strobe circuit 20 is also connected to the display unit 21. 即ち、このシャッタ駆動部17は、上記マイコン1 That is, the shutter drive unit 17, the microcomputer 1
1の司令に基づいて不図示のシャッタを駆動してフィルムに対する露出を行うものである。 And performs exposure to film to drive the shutter (not shown) based on 1 commanders. 上記ストロボ回路部20は、撮影時の補助光源としてストロボ20aを発光させるブロックである。 The flash circuit 20 is a block for electronic flash 20a as an auxiliary light source for shooting. 上記マイコン11により、ストロボ回路部20の充電、発光制御がなされる。 By the microcomputer 11, the charging of the flash circuit 20, light emission control is performed. また、ストロボ回路部20は、測距動作時のAF補助光としても動作させる。 Further, a strobe circuit 20, also operates as an AF assist light when distance measurement operation. 上記表示部21は、カメラ内部の情報をL The display unit 21, the information of the camera L
CD等の表示素子により表示し、マイコン11により制御されるものである。 Displayed by the display device such as a CD, and is controlled by the microcomputer 11.

【0034】さらに、マイコン11には、ファーストリレーズスイッチ(以下、1RSWと称する)18、セカンドレリーズスイッチ(以下、2RSWと称する)19 Furthermore, the microcomputer 11, first relay's switch (hereinafter, referred to as 1RSW) 18, a second release switch (hereinafter, referred to as 2RSW) 19
も接続されている。 It is also connected. この1RSW18、2RSW19 This 1RSW18,2RSW19
は、レリーズボタンに連動したスイッチであり、レリーズボタンの第1段階の押し下げにより1RSW18がオンし、引き続いて第2段階の押し下げで2RSW19がオンする。 Is a switch interlocked with the release button, 1RSW18 by depression of the first stage of the release button is turned on, turned on 2RSW19 is in depression of the second stage subsequently. 上記マイコン11は、1RSW18のオンでAF,測光動作を行い、2RSW19のオンで露出動作やフィルム巻き上げ動作を行う。 The microcomputer 11 performs AF, the photometric operation in the ON 1RSW18, performs the exposure operation and a film winding operation by ON 2RSW19.

【0035】以上のほか、フィルム駆動部22は、マイコン11の司令によりオートロード、1駒巻き上げ、巻き戻しのフィルム駆動動作を行うものである。 The above addition, the film drive unit 22, automatic loading by the commander of the microcomputer 11, 1 frame hoisting and performs rewinding of the film driving operation.

【0036】また、ズームレンズ駆動部23は、マイコン11の司令により撮影レンズ130のズーム動作を行うものである。 Further, the zoom lens driving unit 23, the commander of the microcomputer 11 performs a zooming operation of the photographing lens 130. このズーム駆動部23は、マイコン11 The zoom driving unit 23, the microcomputer 11
に撮影レンズ130の焦点距離情報を出力する。 And it outputs the focal length information of the photographing lens 130 to. さらに、赤外発光ダイオード131は、AF補助光としての投光素子であり、その前面に配置された投光光学系と共に撮影画面全体に対応する照射角を有している。 Furthermore, infrared light emitting diode 131 is a light emitting element as AF auxiliary light, and has a radiation angle corresponding to the entire photographic image plane with the light projecting optical system disposed in front.

【0037】以下、図5のフローチャートを参照して、 [0037] Hereinafter, with reference to the flowchart of FIG. 5,
第1の実施の形態に係るカメラのマイコン11のメインルーチンを説明する。 A main routine of the camera microcomputer 11 according to the first embodiment will be described.

【0038】不図示の電源SWがオンされるか電池が挿入されると、マイコン11は動作を開始し、ROM11 [0038] If either battery power SW (not shown) is turned on is inserted, the microcomputer 11 starts the operation, ROM 11
bに格納されたシーケンスプログラムを実行する。 Executing stored sequence program b.

【0039】先ず、マイコン11は、カメラ内の各ブロックの初期化を行う(ステップS101)。 [0039] First, the microcomputer 11 initializes the respective blocks in the camera (step S101). このとき、 At this time,
マイコン11は、EEPROM11e内のAF、測光等の調整・補正データをRAM11cに展開する。 The microcomputer 11 develops AF in EEPROM11e, adjustment and correction data of the photometric such as RAM 11c.

【0040】続いて、マイコン11は1RSW18の状態を検出し(ステップS102)、当該1RSW18がオンされるとAF動作を行い(ステップS103)、測光・露出演算を行い(ステップS104)、2RSW1 [0040] Subsequently, the microcomputer 11 detects the state of 1RSW18 (step S102), the relevant 1RSW18 is turned perform AF operation (step S103), it performs a photometry-exposure calculation (step S104), 2RSW1
9の状態を検出する(ステップS105)。 Detecting the state of 9 (step S105). ここで、2 Here, 2
RSW19がオンされると、シャッタ動作によりフィルムに露出を行い(ステップS106)、フィルム1駒巻き上げを行い(ステップS107)、上記ステップS1 When RSW19 is turned on, exposure is performed on the film by the shutter operation (step S106), the film one frame winding up was carried out (step S107), step S1
02に戻る。 Back to 02.

【0041】一方、上記ステップS102で、1RSW On the other hand, in step S102, 1RSW
18がオンされていない場合には、1RSW18、2R If the 18 is not turned on, 1RSW18,2R
SW19以外のスイッチの入力を検出し(ステップS1 Detects an input of SW19 other switches (step S1
08)、スイッチ入力に応じた処理、例えばズームスイッチのアップ、ダウン入力に応じてズームアップ、ダウン処理を行い(ステップS109)、上記ステップS1 08), processing according to the switch input, for example, the zoom switch up, zoom-in response to the down input, performs down process (step S109), step S1
02に戻ることになる。 It will return to 02.

【0042】図6は第1の実施の形態に係るカメラの光路図である。 [0042] FIG. 6 is an optical path diagram of a camera according to the first embodiment.

【0043】同図において、撮影レンズ130はフォーカスレンズ14を有している。 [0043] In the figure, the photographic lens 130 has a focusing lens 14.

【0044】撮影レンズ130を通過した被写体光束は、ハーフミラーであるメインミラー30でその一部が反射、また一部が透過される。 The subject light flux passing through the photographing lens 130 is partially reflected by the main mirror 30 is a half mirror, in which some are transmitted.

【0045】メインミラー30で反射された一部の被写体光束は、ピント板31、コンデンサレンズ32を通ってペンタプリズム33により正立像となり、接眼レンズ34を通して撮影者に被写体像が観察される。 [0045] Some of the object light flux reflected by the main mirror 30, a focusing plate 31, becomes erect by the pentaprism 33 through the condenser lens 32, the object image to the photographer through the eyepiece 34 is observed.

【0046】一方、メインミラー30を透過した一部の被写体光束は、全反射ミラーであるサブミラー35で反射され、測距光学系36に導かれる。 Meanwhile, subject light flux of a portion that has passed through the main mirror 30 is reflected by the sub-mirror 35 is a total reflection mirror and guided to the distance measurement optical system 36.

【0047】測距光学系36は、視野マスク37、フィールドレンズ38、全反射ミラー39、瞳マスク40、 The distance-measuring optical system 36, the field mask 37, a field lens 38, a total reflection mirror 39, the pupil mask 40,
再結像レンズ41とから構成され、測距光束をAFエリアセンサ12上に再結像する。 It consists re-imaging lens 41., reimaging distance measuring light flux on AF area sensor 12.

【0048】被写体像を撮影する時には、メインミラー30、サブミラー35は図3の点線位置に退避し、撮影光束はフィルム42に導かれる。 [0048] When photographing an object image, main mirror 30, the sub-mirror 35 is retracted to the dotted line position of FIG. 3, photographing light beam is guided to the film 42.

【0049】ここで、図7(a)は上記測距光学系(位相差検出光学系)36の構成を示す断面図であり、図7 [0049] Here, FIG. 7 (a) is a sectional view showing the structure of the distance-measuring optical system (phase difference detection optical system) 36, 7
(b)は当該測距光学系の構成を示す斜視図である。 (B) is a perspective view showing a configuration of the distance measuring optical system.

【0050】これら図7(a),(b)において、符号130は撮影レンズ、符号37は視野マスク、符号38 [0050] These diagrams. 7 (a), in the (b), reference numeral 130 is a photographing lens, reference numeral 37 is a field mask, reference numeral 38
はフィールドレンズ、符号40は撮影レンズ130の光軸に対して略対称に配置された開口部40a,40bを有する瞳マスク、符号41a,41bは瞳マスク40 Field lens, reference numeral 40 is an opening portion 40a which is disposed substantially symmetrically with respect to the optical axis of the taking lens 130, pupil mask with 40b, reference numerals 41a, 41b is pupil mask 40
a,40bに対応してその後方に配置された再結像レンズである。 a, a re-imaging lens disposed behind to correspond to 40b. なお、図7(a)では、前述のメインミラー33、サブミラー35、全反射ミラー39等は説明の簡略化のために敢えて図示を省略している。 Incidentally, in FIG. 7 (a), above the main mirror 33, a sub mirror 35, a total reflection mirror 39 and others are omitted deliberately shown for simplicity of explanation.

【0051】撮影レンズ130の射出瞳Hの領域Ha、 The area of ​​the exit pupil H of the taking lens 130 Ha,
Hbを通過して入射した被写体光束は、視野マスク3 Subject light beam incident through the Hb is a field mask 3
7、フィールドレンズ38、瞳マスク40の開口部40 7, a field lens 38, the opening 40 of the pupil mask 40
a、40b及び再結像レンズ41a、41bを通過し、 Passing a, 40b and re-imaging lenses 41a, a 41b,
AFエリアセンサ12の受光領域内の対応する領域12 The corresponding region of the light receiving area of ​​the AF area sensor 12 12
a、12b上に再結像される。 a, it is reimaged onto 12b.

【0052】撮影レンズ130が合焦、即ち結像面G上に被写体像Iが形成される場合、その被写体Iはフィールドレンズ38及び再結像レンズ41a,41bによって光軸Oに対して垂直な2次結像面であるAFエリアセンサ12の撮像領域12a、12b上に再結像されて第1像I1,第2像I2となる。 [0052] If the photographing lens 130 is focused, i.e. the object image I on the image plane G is formed, perpendicular to the subject I optical axis O is the field lens 38 and re-imaging lens 41a, the 41b imaging region 12a of the AF area sensor 12 is a secondary imaging plane, the first image I1 is reimaged onto 12b, a second image I2.

【0053】撮影レンズ130が前ピン、即ち結像面G [0053] photographing lens 130 before pin, that is the image plane G
の前方に被写体像Fが形成される場合、その被写体像F When the object image F in front of is formed, the object image F
はお互いにより光軸Oに近づいた光軸Oに対して垂直に再結像されて第1像F1,第2像F2となる。 First image F1 is reimaged perpendicularly to the optical axis O approaching the optical axis O by each other, the second image F2.

【0054】撮影レンズ130が後ピン、即ち結像面G [0054] photographing lens 130 is rear pin, that is the image plane G
の後方に被写体像Rが形成される場合、その被写体像R If the object image R to the rear is formed, the object image R
はお互いにより光軸Oから離れた形で、光軸Oに対して垂直に再結像されて第1像R1,第2像R2となる。 In the form away from the optical axis O by each other, the first image R1 is reimaged perpendicularly to the optical axis O, a second image R2.

【0055】これら第1像と第2像の間隔を検出することにより、撮像レンズ130の合焦状態を前ピン、後ピンを含めて検出することができる。 [0055] By detecting the distance of the first image and the second image can be detected, including a focus state of the imaging lens 130 before the pin, rear focus. 具体的には、第1像と第2像の光強度分布をAFエリアセンサ12の画像データ出力により求めて両像の間隔を測定する。 Specifically, the light intensity distribution of the first image and the second image obtained by the image data output of the AF area sensor 12 measures the distance between the both images.

【0056】次に、図8(a)にはAFエリアセンサ1 Next, AF area sensor 1 in FIG. 8 (a)
2の受光部の様子を示し、図8(b)にはAFエリアセンサ12の概観を示し、図8(c)にはAFエリアセンサ12の断面の様子を示し、図9にはAFエリアセンサ12の構成を示し、これらを詳細に説明する。 2 shows a state of the light receiving unit, an overview of the AF area sensor 12 in FIG. 8 (b), FIG. 8 (c) shows the cross-sectional structure of the AF area sensor 12, the AF area sensor in FIG. 9 It shows the structure of 12 is described them in detail.

【0057】図8(a)に示されるように、測距光学系36により分離される2像に対応する受光部12a,1 [0057] As shown in FIG. 8 (a), the light receiving section 12a corresponding to the two images are separated by the distance measuring optical system 36, 1
2bに複数の画素が配置されている。 A plurality of pixels are arranged in 2b. 受光部12a,1 The light-receiving section 12a, 1
2b内はそれぞれ複数の画素が2個のグループである赤外カットセンサ領域101と可視光カット領域102に分かれて1列おきに配置されている。 2b in are respectively arranged in every other column is divided into an infrared cut sensor region 101 and the visible light cut area 102 is a group of two of the plurality of pixels.

【0058】図8(b)に示されるように、AFエリアセンサ12のICチップ103は、クリアモールドパッケージ104に収納されている。 [0058] As shown in FIG. 8 (b), IC chip 103 of the AF area sensor 12 is accommodated in a clear mold package 104.

【0059】図8(c)のAFエリアセンサIC12の断面図において、複数の画素内の受光素子であるフォトダイオード105,106は、それぞれ上記赤外カットセンサ領域101、可視光カットセンサ領域102に対応している。 [0059] In cross-sectional view of the AF area sensor IC12 in FIG. 8 (c), the photodiode 105 is a light receiving element in the plurality of pixels, each said infrared cut sensor region 101, the visible light cut sensor region 102 It is compatible.

【0060】フォトダイオード105の前面であり、フォトダイオード105の受光光束が通過する領域のクリアモールドパッケージ104表面には、赤外カットフィルタ107を構成する誘電体コートの多層膜がコーティングされている。 [0060] a front of the photodiode 105, the clear mold package 104 surface of the region in which the light receiving light beams of the photo diode 105 passes, dielectric multilayer film coating that constitutes the infrared cut filter 107 is coated.

【0061】赤外カットフィルタ107の分光感度特性は、図15(b)に示されるように波長700nm以上の波長はカットされる。 [0061] spectral sensitivity characteristics of the infrared cut filter 107, a wavelength longer than the wavelength 700nm, as shown in FIG. 15 (b) is cut.

【0062】フォトダイオード106部分のICチップ表面には、可視光カットフィルタ108が塗布されている。 [0062] The IC chip surface of the photodiode 106 parts, the visible light cut filter 108 is applied. この可視光カットフィルタ108は、通常はAFエリアセンサ12のICチップ表面での反射を抑えるための反射防止膜として用いられている。 The visible light cut filter 108 is normally used as an antireflection film for suppressing reflection on the IC chip surface of the AF area sensor 12. 上記可視光カットフィルタ108の分光感度特性は図15(a)に示されるように、波長400〜700nmの可視光領域ではほとんど光を透過しないが、波長800nm以上の赤外光領域の光を透過する。 As the spectral sensitivity characteristics of the visible light cut filter 108 is shown in FIG. 15 (a), but hardly transmits light in the visible light wavelength region of 400 to 700 nm, transmitted light having a wavelength 800nm ​​or more infrared light region to.

【0063】この可視光カットフィルタ108をフォトダイオード上に塗布することによって可視光成分をカットし赤外光成分のみを受光するようにしている。 [0063] so that cuts visible light component receives only the infrared light components by applying the visible light cut filter 108 on the photodiode.

【0064】ここで、赤外発光ダイオード131の発光強度波長分布も図15(a)に示されており、可視光カットフィルタ108の透過領域に位置している。 [0064] Here, the emission intensity wavelength distribution of the infrared light emitting diode 131 is also shown in FIG. 15 (a), are located in the transmission area of ​​the visible light cut filter 108.

【0065】図9に示されるように、赤外カット領域1 [0065] As shown in FIG. 9, an infrared cut area 1
01内の画素50の構成は、受光素子であるフォトダイオード51と、フォトダイオード51の出力する信号電荷を蓄積する蓄積容量52と、蓄積容量52に蓄積された蓄積電圧を検出するための増幅回路53とから構成される。 Arrangement of pixels 50 in 01 includes a photodiode 51 as a light receiving element, a storage capacitor 52 for accumulating signal charges output from the photodiode 51, an amplifier circuit for detecting the storage voltage stored in the storage capacitor 52 It consists of 53.

【0066】また、可視光カット領域102内の画素6 [0066] Further, the pixels of the visible light cut region 102 6
0の構成は、受光素子であるフォトダイオード61と、 0 configuration includes a photodiode 61 as a light receiving element,
フォトダイオード61の出力する信号電荷を蓄積する蓄積容量62と、蓄積容量62に蓄積された蓄積電圧を検出するための増幅回路63、と定常光成分を除去する定常除去回路64とから構成される。 The storage capacitor 62 for accumulating an output signal charge of the photodiode 61, and a storage capacitor 62 amplifier circuit 63 for detecting the stored accumulated voltage, the constant removal circuit 64. removing the stationary light component .

【0067】AFエリアセンサ制御回路54はマイコン11からの積分制御信号、読み出しクロックを入力してAFエリアセンサ12内部の各部の動作を制御する。 [0067] AF area sensor control circuit 54 controls the integration control signal, operation of the AF area sensor 12 inside of each part enter the read clock from the microcomputer 11.

【0068】モニタ選択回路65は、マイコン11からの司令による所定画素範囲について、その範囲内のピーク蓄積量を示すモニタ信号を作成して出力部66より出力する。 [0068] monitor selection circuit 65, for a predetermined pixel range by the commander from the microcomputer 11, is output from the output unit 66 to create a monitor signal indicating a peak accumulation amount in the range. マイコン11は、上記モニタ信号に基づいて蓄積動作を制御する。 The microcomputer 11 controls the storage operation based on the monitor signal. 読み出し選択回路67は、マイコン11からの司令により水平シフトレジスタ68、垂直シフトレジスタ69を制御してセンサデータを読み出す領域を設定する。 Read selection circuit 67 sets an horizontal shift register 68 by the commander from the microcomputer 11 controls the vertical shift register 69 reads the sensor data.

【0069】水平シフトレジスタ68、垂直シフトレジスタ69は、各画素の信号出力をスイッチV70、スイッチH71を介して選択して出力部72より出力する。 [0069] The horizontal shift register 68, the vertical shift register 69, a signal output of each pixel switches V70, and outputs from the output unit 72 selects via switch H71.

【0070】固定パターンノイズ除去回路73は、各画素の信号出力に含まれる固定パターンノイズを除去するための回路である。 [0070] Fixed pattern noise removal circuit 73 is a circuit for removing a fixed pattern noise contained in the signal output of each pixel. モニタ選択回路65、読み出し選択回路66は、たとえば赤外カット領域101と可視光カッ領域102の両者を切り換えて、選択することが可能である。 Monitoring selection circuit 65, the read selection circuit 66, for example by switching both the infrared cut area 101 and the visible light cut region 102, it is possible to select.

【0071】ここで、図10のフローチャートと図11 [0071] Here, the flowchart of FIG. 10 and FIG. 11
のタイミングチャートを参照して、AF動作の流れを詳細に説明する。 With reference to the timing chart of illustrating a flow of the AF operation in detail.

【0072】先ず、AF補助光を投光し、定常光除去しながらAFエリアセンサ12内の可視光カットエリア1 [0072] First, projecting AF auxiliary light, visible light cutting area 1 of the AF area sensor 12 with constant light removing
02にて積分動作を行う(ステップS201)。 The integration operation performed at 02 (step S201).

【0073】すなわち、積分制御信号により積分を開始すると(図11(b)参照)、AF補助光を間欠的に複数回発光させつつ(図11(d)参照)、画素毎の定常光除去回路64により定常光を除去しながら積分動作を行う。 [0073] That is, when starting the integration by the integration control signal (see FIG. 11 (b)), while intermittently emit light a plurality of times an AF auxiliary light (see FIG. 11 (d)), stationary light elimination circuit for each pixel performing integration operation while removing ambient light by 64. そして、モニタ選択領域を可視光カットエリア1 Then, the visible light cutting area 1 monitor selected areas
02に設定し(図11(a)参照)、積分モニタ信号が所定レベルになると(図11(c)参照)、積分動作及びAF補助光の発光を停止する(図11(b)参照)。 Set 02 (see FIG. 11 (a)), the integration monitor signal reaches a predetermined level (Fig. 11 (c) refer), to stop the emission of the integration operation and AF auxiliary light (see FIG. 11 (b)).

【0074】続いて、読み出し領域を可視光カットエリア102に設定し(図11(a)参照)、AFエリアセンサ12に対して読み出しクロックを出力して(図11 [0074] Then, set the reading area to the visible light cut area 102 (see FIG. 11 (a)), and outputs a read clock signal to the AF area sensor 12 (FIG. 11
(d)参照)、可視光カットエリア102のセンサデータ(画素データ)をADC11dに出力させ(図11 See (d)), to output the sensor data of the visible light cut area 102 (pixel data) in ADC11d (Figure 11
(e)参照)、AD変換して読み出しRAM11cに格納する(ステップS202)。 (E) see), and the AD conversion is stored in the read RAM 11c (step S202).

【0075】上記読み出した可視光カットエリア102 [0075] Visible light cut area 102 read the
のセンサデータに基づいて詳細は後述するサブルーチン「主要被写体検出処理」を実行する。 It details a subroutine "main subject detection process" which will be described later, based on the sensor data. そして、主要被写体と判別された領域に対して1個または複数の測距エリアを設定する(ステップS203)。 Then, it sets one or more ranging areas relative to the main subject and the determined area (step S203).

【0076】そして、AFエリアセンサ12内の赤外カットエリア101について積分動作を行う。 [0076] Then, the integration operation for the infrared cut area 101 of the AF area sensor 12. モニタ選択エリア、読み出しエリアを赤外光カットエリア101に設定して(図11(a)参照)、定常光による積分動作を行う(図11(b)参照)(ステップS204)。 Monitor selection area, the read area is set to the infrared light cutting area 101 (see FIG. 11 (a)), performs the integration operation by the ambient light (see FIG. 11 (b)) (step S204).

【0077】次いで、AFエリアセンサ12に対して読み出しクロックを出力して(図11(f)参照)、赤外カットエリアのセンサデータを読み出す(図11(e) [0077] Then, outputs a read clock signal to the AF area sensor 12 (see FIG. 11 (f)), reads the sensor data of the infrared-cut area (FIG. 11 (e)
参照)(ステップS205)。 Reference) (step S205).

【0078】そして、上記ステップS203にて設定された複数の測距エリアについて上記赤外カットエリア1 [0078] Then, the infrared cut area 1 for a plurality of distance measuring areas set in step S203
01のセンサデータを用いてそれぞれ測距演算を行う(ステップS206)。 Each performing distance calculation using the 01 sensor data (step S206).

【0079】ここで、図14(c)は、後述する主要被写体検出の結果、主要被写体と判定された領域において、撮影画面400内に設定された測距エリア403〜 [0079] Here, FIG. 14 (c), the result of the main subject detection which will be described later, in which is determined as a main subject area, ranging area is set in the photographing screen 400 403 to
405を示している。 Shows the 405. 測距演算は公知の位相差検出によるもので説明は省略するが、上記複数の測距エリアについてそれぞれ行われ測距データが得られる。 Distance calculation has omitted explained by known phase difference detection, distance measurement data is performed respectively for the plurality of distance measurement areas is obtained.

【0080】選択された1個または複数に選択測距エリア(測距データ)のうちで所定の条件(信頼性の有無) [0080] predetermined condition among the one or plurality of selected focus area is selected (distance data) (with or without reliability)
を満足するか判定し、信頼性の高い測距データのうちから、所定のアルゴリズムに基づいて1個または複数個の測距データを選択する(ステップS207)。 The determination whether to satisfy, among reliable distance data, selects one or a plurality of distance data based on a predetermined algorithm (step S207). 上記所定のアルゴリズムとは、たとえば最も至近側の測距データを採用する至近選択等種々の方法が考えられる。 The above and the predetermined algorithm, for example, be considered close select various methods such as adopting the distance data on the most near side. そして、判別された測距データを最終的な測距データとして採用する。 Then, adopting the discriminated distance data as the final ranging data.

【0081】こうして、合焦しているか否か判定し(ステップS208)、合焦している場合はリターンし、非合焦の場合はステップS209に進む。 [0081] Thus, it is determined whether or not the focused return If (step S208), is focused, in the case of non-focused flow proceeds to step S209. このステップS This step S
209では、上記採用した測距データに基づいてフォーカシングレンズを駆動し、上記ステップS204に戻る。 In 209, to drive the focusing lens based on the distance data as described above is adopted, and the process returns to step S204.

【0082】ここで、図12のフローチャートを参照して、図10の上記ステップS203で実行されるサブルーチン「主要被写体検出」の処理を説明する。 [0082] Here, with reference to the flowchart of FIG. 12, the processing of the subroutine "main subject detection" executed in step S203 in FIG. 10.

【0083】この主要被写体検出処理では、特に主要被写体として人物を想定して、検出処理を行う。 [0083] In this main subject detection processing, in particular assuming the person as the main subject, the detection process. AFエリアセンサ12により可視光カットエリア102において2個の画像が得られるが、主要被写体検出に使用する画像データ(センサデータ)はどちらか一方の画像でもよいし、両方の画像を使用してもよい。 Although in the visible light cut area 102 are two images obtained by the AF area sensor 12, image data to be used for the main subject detection (sensor data) may be on either of the image, even using both of the image good.

【0084】AFエリアセンサ12のセンサデータは、 [0084] The sensor data of the AF area sensor 12,
マイコン11内のRAM11cに格納されており、このセンサデータに基づいて以下の処理を行う。 Is stored in RAM11c in the microcomputer 11 performs the following processing on the basis of the sensor data.

【0085】先ず、平滑化処理を行う(ステップS30 [0085] First, the smoothing process (step S30
1)。 1). ここでは、画像中のランダムノイズを除去する処理で、画像データ(センサデータ)についてフィルタ処理やフーリエ変換を行うことにより除去する。 Here, the process of removing the random noise in the image, the image data (sensor data) is removed by performing a filtering process and a Fourier transform.

【0086】ついで、差分処理を行う(ステップS30 [0086] then, performs a differential processing (step S30
2)。 2). ここでは、公知である画像のエッジ検出手法を用いる。 Here, a edge detection method of the image are known. 隣接する画像データ(センサデータ)の差分をとることによりエッジ部分を検出する。 Detecting the edge portion by taking the difference between the adjacent image data (sensor data).

【0087】続いて、2値化処理を行う(ステップS3 [0087] Subsequently, a binary processing (step S3
03)。 03). ここでは、差分処理後の画像信号に対して、所定のしきい値以上の部分を抽出して2値画像を求める。 Here, the image signal after the difference processing, obtaining a binary image by extracting more portions predetermined threshold.

【0088】ついで、ラベリング処理を行う(ステップS304)。 [0088] Subsequently, a labeling process (step S304). ここでは、上記2値画像において同じ輝度値(0,1)の画素が互いに連結している連結部分の塊に対してラベリングを行う。 Here, it performs labeling relative masses of the connecting portion having a pixel of the same luminance value in the binary image (0,1) are linked to each other. つまり、異なる連結部分に対して異なるラベルを貼り付けて区別してラベル領域(連結領域)を分離する(図14(b)参照)。 That is, to distinguish paste different labels for different connecting portion for separating the label area (connection area) (see FIG. 14 (b)).

【0089】ついで、詳細は後述するサブルーチン「形状判定処理」を実行する(ステップS305)。 [0089] Next, details executes a subroutine "shape determination process" to be described later (step S305). ここでは、画像の形状を判別して主要被写体を抽出する。 Here, to determine the shape of an image to extract the main subject.

【0090】そして、1個または複数の上記設定されたラベル領域について、全て形状判定処理を行ったか判別し(ステップS306)、終了してない時はステップS [0090] Then, for one or more of the set label area, to determine if with all shape determination process (step S306), when it is not finished step S
305に戻り、別のラベル領域について行う。 Returning to 305, carried out on another label area.

【0091】次に、図13のフローチャートを参照して、図12のステップS305で実行されるサブルーチン「形状判定処理」について説明する。 [0091] Next, with reference to the flowchart of FIG. 13 will be described the subroutine "shape determination process" executed in step S305 of FIG. 12.

【0092】ラベル領域の面積はその連結領域に属する画素の個数である。 [0092] area of ​​the label area is the number of pixels belonging to the connection region. また、周囲長はラベル領域のまわりの境界に位置する画素の個数である。 Further, perimeter is the number of pixels located in the border around the label area. ただし、斜め方向は水平、垂直方向に対して√2倍に補正する。 However, the oblique direction is horizontal, corrected to √2 times the vertical direction.

【0093】画像の形状を判定するために、以下の係数e(形状判定値)を使用する。 [0093] To determine the shape of the image, using the following coefficients e (shape determination value).

【0094】e=(周囲長) /(面積) 上記式において、eは形状が円形の時に最小値を示し、 [0094] In e = (perimeter) 2 / (area) above expression, e is the shape indicates a minimum value when the circular,
形状が複雑になるほど大きい値を示す。 Shape indicates a larger value becomes complicated. 人物の顔はほぼ円形に近いと考えられるので、上記eと所定値とを比較して対象画像が人物の顔か否かを判定する。 Because the face of a person is considered to be almost close to a circle, the target image by comparing the e and a predetermined value determines whether a human face.

【0095】また、上記ラベル領域面積も所定値と比較して、対象画像が人物の顔か否かを判定する。 [0095] In addition, the label region area as compared with the predetermined value, the target image is determined whether the face of a person. ここで、 here,
上記所定値は、個人差や年齢を含めて統計的に求めた数値を採用する。 The predetermined value may employ a numerical value was statistically determined, including individual differences and age. 以下、処理の流れを詳述する。 The following will be described in detail the flow of processing.

【0096】先ず、抽出領域(ラベル領域)の面積Sを求め(ステップS401)、所定範囲内であるか判別する(ステップS402)。 [0096] First, determine the area S of the extraction region (labeled region) (step S401), and determines whether it is within a predetermined range (step S402). 次いで、抽出領域面積Sが所定範囲内の場合にはS403に移行し、所定範囲内ではない場合は、ステップS406に移行する。 Then, the extraction region area S is shifted to S403 in the case of the predetermined range, if not within a predetermined range, the process proceeds to step S406. このステップS403では、上記形状判定値eを算出する。 In step S403, it calculates the shape determination value e. 続いて、形状判定値eが所定範囲内か判別する(ステップS Subsequently, the shape determination value e is determined whether within a predetermined range (step S
404)。 404).

【0097】ここで、所定範囲内の場合にはステップS [0097] Here, in the case of a predetermined range step S
405に移行し、範囲外の場合はステップS406に進むことになる。 It goes to 405, in the case of out of range and the flow proceeds to step S406. このステップS405では、人物であると判定して結果をメモリする。 In step S405, the memory results it is determined that a person. そして、ステップS40 Then, step S40
6では、人物以外の被写体と判定して結果をメモリする。 In 6, memory the results determined that other than a person subject.

【0098】こうして、図12のステップS306にリターンする。 [0098] Thus, the process returns to step S306 in FIG. 12.

【0099】図14は撮影シーンの一例とその主要被写体検出の過程を示す図である。 [0099] FIG. 14 is a diagram illustrating an example and the process of its main subject detection shooting scene.

【0100】図14(a)の撮影シーンについて主要被写体検出がなされると、図12のステップS301〜S [0100] When the main subject detection for shooting scene shown in FIG. 14 (a) is made, the steps of FIG. 12 S301~S
304の処理(ラベリング処理まで)、及び形状判定処理(図13のステップS401〜402)の結果、図1 304 processes (up to labeling process), and the shape determination process (step S401~402 in Figure 13) results, Figure 1
4(b)の画像データが得られる。 Image data of 4 (b) is obtained. このとき、面積が所定範囲内であるラベル領域1〜4が抽出される。 At this time, label area 1-4 area is within a predetermined range are extracted.

【0101】図14(b)の画像データについて形状判定値eに関する処理(ステップS403〜S404)がなされると、主要被写体401(人物の顔)に合致しているラベル領域1が円形と判別される。 [0102] Figure 14 for the image data processing on the shape determination value e of (b) (Step S403~S404) is performed, the main subject 401 label area 1 meets the (human face in) is determined to circular that. 即ち、ステップS405において人物(主要被写体)と判定される。 That is, it is determined that the person (main subject) in step S405. また、雑被写体402は円形ではないので、人物(主要被写体)ではないと判定される。 Also, miscellaneous object 402 is not a circular, is determined not to be a person (main subject). その結果、得られた主要被写体領域(ラベル1)内に複数の測距エリア403〜 As a result, the obtained main subject area (labeled 1) a plurality of distance measurement areas 403 to within
405を設定する。 Setting the 405. これら複数の測距エリアの測距結果は、平均処理や最至近選択等の処理により一個の測距データにまとめられる(図10のS207に相当)。 The measurement result of the plurality of distance measurement areas is grouped into one of the distance measurement data by averaging processing or treatment of nearest selection, etc. (corresponding to S207 of FIG. 10).

【0102】なお、上記主要被写体検出では円形画像を人物の顔として検出しているが、これは一例を示しているだけで、これに限定されず種々の方法が考えられる。 [0102] The above is the main subject detection detects the circular image as the face of a person, but this is only shows an example, various methods without being limited thereto are considered.
たとえば、予め用意されている人物形状の形状データと画像データとについて、公知のテンプレートマッチング法により検出してもよい。 For example, the shape data and the image data of the person shape prepared in advance, may be detected by a known template matching method.

【0103】あるいは、異なる時間の複数画像より被写体の移動を検出して、移動物体を主要被写体として検出してもよい。 [0103] Alternatively, by detecting the movement of the subject from the plurality of images of different times, it may be detected moving object as the main subject. 以上のように、主要被写体検出のために赤外光を投光しているので、被写体となる人物には赤外光が見えないので眩しくないという利点がある。 As described above, since the projecting infrared light to the main subject detection, the person to be the subject has the advantage that the infrared light is not bright because invisible.

【0104】ここで、第1の実施の形態の変形例を説明する。 [0104] Here, a modified example of the first embodiment.

【0105】上記赤外カットフィルタは、上記実施の形態ではクリアモールドパッケージ上にコーティングによって形成しているが、赤外カットフィルタを貼り付けてもよい。 [0105] The infrared cut filter, in the above embodiment is formed by coating on the clear mold package, or may be adhered to the infrared cut filter. またクリアモールドタイプではなく、セラミックパッケージやガラスエポキシ基板タイプのパッケージにおける、カバーガラス上にコーティング等により形成してもよい。 Further instead of a clear mold type, in a package ceramic package or a glass epoxy substrate type, it may be formed by coating or the like on the cover glass. また、上記AFエリアセンサ12においては、赤外カット領域101と可視光カット領域102の積分動作を別々に実行しているが、同時に積分動作を行ってもよい。 Furthermore, in the AF area sensor 12 is an integral operation of the infrared cut area 101 and the visible light cut region 102 are performed separately, integration may be performed by simultaneously operating. 赤外発光ダイオード131の発光による被写体反射光は、赤外カット領域101においては、十分に遮断されるので、赤外カット領域101の測距動作には影響しない。 Subject light reflected by the light emission of the infrared light emitting diode 131, in the infrared cut area 101, due to being blocked sufficiently, does not affect the distance measurement operation in the infrared cut area 101. このようにして積分動作に要するタイムラグを軽減することができる。 It is possible to reduce the time lag required for the integration operation in this manner. さらに、可視光カット領域102だけでなく、赤外カット領域101のセンサデータも使用して主要被写体検出を行ってもよい。 Furthermore, not only the visible light cut region 102, the sensor data of the infrared cut area 101 may be performed main subject detected using. この場合、赤外発光ダイオード131(補助光)の投光が届かない遠距離側についても主要被写体検出が可能となるメリットがある。 In this case, also the long distance side of the light projecting does not reach the infrared light emitting diode 131 (auxiliary light) there is a merit that enables the main subject detection.

【0106】次に、AFエリアセンサ12の赤外カット領域101と可視光カット領域102内のフォトダイオード51、61の面積を異ならせることもできる。 [0106] Then, it is also possible to vary the area of ​​the photodiode 51, 61 of the infrared cut area 101 and the visible light cut region 102 of the AF area sensor 12.

【0107】すなわち、例えば、可視光カット領域10 [0107] That is, for example, a visible light cut region 10
2内フォトダイオード61を赤外カット領域101内フォトダイオード51の面積より大きくすることにより、 By the inside second photodiode 61 is larger than the area of ​​the infrared cut area 101 in the photodiode 51,
同一のICチップサイズで赤外発光ダイオード133 Infrared light emitting diodes 133 in the same IC chip size
(補助光)の到達距離をより大きくしてさらに精度の高い主要被写体検出を行うことができる。 It can be more greatly even higher accuracy by the main subject detection the reach of (auxiliary light).

【0108】また、赤外カット領域101、可視光カット領域102の他に赤外カットフィルタも可視光カットフィルタも有していない第3センサ領域(図16参照) [0108] Further, the infrared cut region 101, the third sensor region in addition to the infrared cut filter of the visible light cut region 102 neither also have a visible light cut filter (see FIG. 16)
を設ける場合について説明する。 It will be described the case of providing a. 第3センサ領域は、赤外カット領域101、可視光カット領域102とともに2ライン毎に配置されている。 The third sensor region, an infrared-cut region 101 is arranged with a visible light cut area 102 every two lines. この第3センサ領域は、 The third sensor region,
可視光、赤外光とも感度を有するので定常光(外光)が最も大きいので低輝度での測距が最も有利である。 Visible light, since ambient light because it has a sensitivity with infrared light (external light) is the largest distance measurement at low luminance is most advantageous.

【0109】次に、本発明の第2の実施の形態について説明する。 Next, a description will be given of a second embodiment of the present invention.

【0110】図17は第2の実施の形態に係るカメラの光学系の光路図である。 [0110] Figure 17 is an optical path diagram of an optical system of a camera according to the second embodiment.

【0111】ここでは、第1の実施の形態(図6)と共通部分についての説明は省略し、特徴ある部分を中心に説明を進める。 [0111] Here, description of the common parts of the first embodiment (FIG. 6) is omitted, the description will be mainly certain features.

【0112】図17に示されるように、測距光学系36 [0112] As shown in FIG. 17, the distance measuring optical system 36
の視野マスク37とフィールドレンズ38の間に赤外カットフィルタ132が配置されている。 IR cut filter 132 between the field mask 37 and the field lens 38 is disposed in. 赤外カットフィルタ132はガラス上に誘電体コートの多層膜をコーティングしたものである。 IR cut filter 132 is obtained by coating a dielectric multilayer film coated on a glass.

【0113】ファインダ系には、ビームスプリッタ13 [0113] The finder system, the beam splitter 13
4が配置され、ファインダ光束を分岐させてその一方は接眼レンズ34に導き、他方は第2測距光学系137に導く。 4 is arranged, while leads to eyepiece 34 branches the finder beam, the other leads to the second distance-measuring optical system 137. 第2測距光学系137は、再結像レンズ136、 Second ranging optical system 137, re-imaging lens 136,
可視光カットフィルタ133とから構成され、第2AF It is composed from the visible light cut filter 133, the 2AF
エリアセンサ135に第2AF光束を導く。 Guiding the first 2AF beam into the area sensor 135.

【0114】第2AFエリアセンサ135の構成は、図9において全画素が画素60に置き換えられた構成となっている。 [0114] of the 2AF area sensor 135 configuration, all the pixels has a configuration which is replaced by the pixel 60 in FIG. ただし、可視光カットフィルタ133が第2 However, the visible light cut filter 133 is a second
測距光学系137内に配置されているので第2AFエリアセンサ135のフォトダイオード上に可視光カットフィルタを形成する必要はない。 It is not necessary to form the visible light cut filter on the photodiode of the 2AF area sensor 135 because it is located on the distance measuring optical system 137. 可視光カットフィルタ1 Visible light cut filter 1
33は黒い染料を混ぜたプラスチックの板である。 33 is a plate of plastic mixed with black dye. また、AFエリアセンサ12についても測距光学系36内に赤外カットフィルタ132を配置しているので、IC Further, since the arranged an infrared cut filter 132 to be distance-measuring optical system 36 for AF area sensor 12, IC
パッケージ上に赤外カットフィルタを形成する必要はない。 It is not necessary to form the infrared cut filter on the package.

【0115】AFエリアセンサ12の構成は、図9において全画素が画素50に置き換えられた構成となっている。 [0115] The AF area sensor 12 configuration, all the pixels has a configuration which is replaced by the pixel 50 in FIG. AFエリアセンサ12と第2AFエリアセンサ13 An AF area sensor 12 first 2AF area sensor 13
5の視野は一致させており、両者の画素位置は対応づけられている。 5 of the field is made coincident, both pixel positions are associated.

【0116】各AFエリアセンサ12、135のフォトダイオード51、61の大きさやピッチ等のパラメータを独立して設定することができ、必ずしも同一にする必要はない。 [0116] can be set independently parameters such as the size and pitch of the photodiodes 51 and 61 of the AF area sensor 12,135, need not necessarily be the same. また、測距光学系36、第2測距光学系13 Further, the distance measuring optical system 36, the second distance measuring optical system 13
7についても、それぞれ再結像倍率等の光学パラメータを独立に設定することができ、スペースや対応するAF For seven, it can be set optical parameters such as re-imaging magnification respectively independently, space and the corresponding AF
エリアセンサに応じて変えてもよい。 It may be changed in accordance with the area sensor.

【0117】以下、図18のフローチャートを参照して、第2の実施の形態に係るカメラの測距装置によるA [0117] Hereinafter, with reference to the flowchart of FIG. 18, A by the ranging device of a camera according to the second embodiment
F動作を詳細に説明する。 F operation be described in detail.

【0118】先ず、AF補助光131を投光させながら第2AFエリアセンサ135による定常光除去積分が行われる(ステップS501)。 [0118] First, the constant light removing integration is performed according 2AF area sensor 135 while projecting AF auxiliary light 131 (step S501). 次いで、第2AFエリアセンサ135によりセンサデータを読み出す(ステップS502)。 Then, read the sensor data by the 2AF area sensor 135 (step S502).

【0119】続いて、第3AFエリアセンサ135のセンサデータに基づいて主要被写体検出を行う(ステップS503)。 [0119] Subsequently, the main subject detection based on the sensor data of the 3AF area sensor 135 (step S503). そして、AFエリアセンサ12による通常積分動作が行われる(ステップS504)。 Then, the normal integral operation by the AF area sensor 12 is performed (step S504).

【0120】次いで、AFエリアセンサ12よりセンサデータを読み出す。 [0120] Then, read the sensor data from the AF area sensor 12. ここで第2AFエリアセンサ135 Here at the 2AF area sensor 135
のセンサデータとは異なるRAM11cの領域にメモリする(ステップS505)。 Memory to regions of different RAM11c the sensor data (step S505). そして、AFエリアセンサ12のセンサデータによる測距演算を行う(ステップS Then, the distance calculation by the sensor data of the AF area sensor 12 (step S
506)。 506).

【0121】続いて、測距演算の結果、信頼度等の情報により検出可能か否か判定する(ステップS507)。 [0121] Then, the distance measurement arithmetic result, and determines whether or not detectable by the information of the reliability or the like (step S507).
ここで、検出可能であると判定された場合には、合焦か否か判定する(ステップS508)。 Determining Here, if it is determined to be detected, whether focusing (step S508). ここで、非合焦の場合は、合焦となるレンズ駆動量に基づきレンズ駆動を行う(ステップS509)。 Here, in the case of out-of-focus state, the lens is driven based on the lens driving amount to be focused (step S509). そして、ステップS504 Then, step S504
からの動作を合焦となるまで繰り返し行う。 It is repeatedly performed until the operation becomes the focus of from.

【0122】上記ステップS507で検出不能の場合は、第2AFエリアセンサ135のセンサデータに基づいて測距演算を行う(ステップS510)。 [0122] For undetectable by the step S507, the performing distance calculation based on the sensor data of the 2AF area sensor 135 (step S510). そして、上記測距結果が検出可能か否か判定する(ステップS51 Then, the distance measurement result is determined whether detectable (step S51
1)。 1).

【0123】ここで、検出可能な場合は、測距光束として赤外光成分を用いているために発生する色収差分の補正を行う(ステップS512)。 [0123] Here, if detectable performs chromatic aberration amount of correction that occurs due to the use of infrared light component as distance measuring light beam (Step S512). この色収差補正量は予めEEPROM11eにメモリされている。 The chromatic aberration correction amount is the memory in advance EEPROM11e. 次いで、上記色収差補正後の測距データを使用して合焦判定を行い(ステップS513)、合焦の場合は終了し、非合焦の場合はステップS515に進む。 Then, by using the distance measurement data after the chromatic aberration correction carried out focus determination (Step S513), in the case of focusing finished, if the unfocused the program goes on to Step S515.

【0124】上記色収差補正後の測距データに基づいて、合焦となるレンズ駆動量を算出しレンズ駆動を行い(ステップS515)、AF補助光131を投光させながら第2AFエリアセンサ135による定常光除去積分が行われ(ステップS516)、第2AFエリアセンサ135よりセンサデータを読み出す(ステップS51 [0124] Based on the distance measurement data after the chromatic aberration correction is performed the calculated lens driving the lens driving amount to be focused (step S515), the steady according 2AF area sensor 135 while projecting AF auxiliary light 131 photoablation integration is performed (step S516), reads the sensor data from the first 2AF area sensor 135 (step S51
7)。 7). その後はステップS510以降を合焦となるまで繰り返し実行する。 Then repeatedly executed until the focusing and the subsequent step S510.

【0125】一方、上記ステップS511で検出不能の場合はステップS514に進む。 [0125] On the other hand, in the case of undetectable in step S511 advances to step S514. そして、検出不能フラグをセットしリターンする。 Then, return to set the detection disable flag. この時、カメラとしては非合焦表示を行う。 This time, the out-of-focus display as a camera.

【0126】以上のように、赤外光をカットした定常光で測距を行っても検出できない場合は、赤外光の補助光を投光しながら定常光除去積分を行い、このセンサデータに基づいて測距演算を行うので、低コントラストや低輝度な被写体であっても検出することができる。 [0126] As described above, if it can not find even if the distance measuring a steady light cut infrared light performs steady light removing integration while projecting auxiliary light of the infrared light, the sensor data since the distance calculation based on, it can be detected even in low contrast or low-luminance subject. また、 Also,
赤外光成分による色収差の誤差を補正することにより、 By correcting the errors of the chromatic aberration due to the infrared light component,
定常光の場合と同等の合焦精度を満足することができる。 It is possible to satisfy the same focusing accuracy as that of the ambient light.

【0127】次に図19には第2の実施の形態の変形例の構成を示し説明する。 [0127] Next in Figure 19 shows the arrangement of a modification of the second embodiment.

【0128】ここでは、第1の実施の形態(図6)と共通部分についての説明は省略し、特徴ある部分を中心に説明を進める。 [0128] Here, description of the common parts of the first embodiment (FIG. 6) is omitted, the description will be mainly certain features.

【0129】この図19に示されるように、測距光学系36と第2測距光学系137は一体にモジュール化されている。 [0129] As shown in this FIG. 19, the distance measuring optical system 36 and the second distance measurement optical system 137 is modular integrated. 測距光学系36のフィールドレンズ38の後方には、赤外光のみ反射し可視光を通過するダイクロイックミラー140が配置されている。 Behind the field lens 38 of the distance measuring optical system 36, a dichroic mirror 140 which passes visible light and reflects only infrared light is disposed. 赤外光は瞳マスク1 Infrared light is a pupil mask 1
38、再結像レンズ136を通過して第2AFセンサ1 38, first 2AF through the re-imaging lens 136 sensor 1
35に導かれる。 It is led to the 35. 一方、ダイクロイックミラー140を通過した可視光は、赤外カットフィルタ132を通過して全反射ミラー141で反射された後、AFエリアセンサ12に導かれる。 On the other hand, the visible light passing through the dichroic mirror 140 is reflected by the total reflection mirror 141 and passes through the infrared cut filter 132 and is guided to the AF area sensor 12. 赤外カットフィルタ132はガラス上に誘電体コートの多層膜をコーティングしたものである。 IR cut filter 132 is obtained by coating a dielectric multilayer film coated on a glass.

【0130】AFエリアセンサ12と第2AFエリアセンサ135の視野は一致させており、両者の画素位置は対応づけられている。 [0130] field of view of the AF area sensor 12 and the 2AF area sensor 135 are matched, both pixel positions are associated. 各AFエリアセンサ12、135 Each AF area sensor 12,135
のフォトダイオード51、61の大きさやピッチ等のパラメータを独立して設定することができ、必ずしも同一にする必要はない。 The photodiode can be set independently of the size and parameters such as pitch of 51 and 61 need not necessarily be the same.

【0131】また、測距光学系36、第2測距光学系1 [0131] Further, the distance measuring optical system 36, a second distance-measuring optical system 1
37についても、それぞれ再結像倍率等の光学パラメータを独立に設定することができ、スペースや対応するA For even 37, it is possible to set the optical parameters such as re-imaging magnification respectively independently, space and the corresponding A
Fエリアセンサに応じて変えてもよい。 It may be changed in accordance with the F area sensor. このように、測距光学系36、第2測距光学系137とをミラーボックス下部に一体化して、小さいスペース内に構成することができる。 Thus, distance-measuring optical system 36, and a second distance-measuring optical system 137 is integrated with the lower mirror box can be configured in a small space.

【0132】以上説明した実施の形態は、本発明をTT [0132] embodiments described above, the present invention TT
Lパッシプ方式の測距装置に適用した例であるが、外光パッシブ方式の測距装置に適用しても同様な効果が得られることは勿論である。 It is an example applied to a distance measuring apparatus of the L Passhipu method, but it is needless to say that similar effects applied to the distance measuring apparatus of the external light passive method is obtained. 尚、AF補助光としては、赤外発光ダイオードを使用しているが、ストロボ20aを補助光として使用してもよい。 As the AF auxiliary light, the use of the infrared light emitting diodes, may be used strobe 20a as an auxiliary light.

【0133】また、可視光成分(赤外カットセンサデータ)と赤外光成分(可視光カットセンサデータで定常光除去なし)の光量比を求めることにより、照明の種類を予測して蛍光灯や白熱電球の場合は、撮影時にストロボを発光させて色かぶりを防止するといった利用可能である。 [0133] Further, by obtaining the light amount ratio of the visible light component (infrared cut sensor data) and an infrared light component (no stationary light removing visible light cut sensor data), a fluorescent lamp Ya predict the type of illumination when incandescent bulbs are available such to prevent color fog by emitting the flash when shooting.

【0134】 [0134]

【発明の効果】本発明によれば、TTL方式の測距装置であって、主要被写体に対して正確にピント合わせすることを可能な測距装置を提供することができる。 According to the present invention, there is provided a distance measuring apparatus of the TTL method, it is possible to provide a distance measuring device capable to precisely align focus with respect to the main subject.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明の測距装置の概念図である。 1 is a conceptual diagram of a distance measuring apparatus of the present invention.

【図2】本発明の測距装置の更なる概念図である。 2 is a further schematic diagram of a distance measuring apparatus of the present invention.

【図3】本発明の測距装置の更なる概念図である。 3 is a further schematic diagram of a distance measuring apparatus of the present invention.

【図4】第1の実施の形態に係る測距装置を採用したカメラの構成図である。 4 is a configuration diagram of a camera employing the distance measuring apparatus according to the first embodiment.

【図5】第1の実施の形態に係るカメラのマイコン11 [5] The microcomputer 11 of the camera according to the first embodiment
のメインルーチンを説明するためのフローチャートである。 Is a flowchart illustrating the main routine.

【図6】第1の実施の形態に係るカメラの光路図である。 6 is an optical path diagram of a camera according to the first embodiment.

【図7】(a)は測距光学系(位相差検出光学系)36 7 (a) is distance-measuring optical system (phase difference detection optical system) 36
の構成を示す断面図であり、(b)は当該測距光学系の構成を示す斜視図である。 Is a sectional view showing a configuration, (b) is a perspective view showing a configuration of the distance measuring optical system.

【図8】(a)はAFエリアセンサ12の受光部の様子を示す図であり、(b)はAFエリアセンサ12の概観を示す図であり、(c)はAFエリアセンサ12の断面の様子を示す図である。 8 (a) is a diagram showing a state of the light receiving portion of the AF area sensor 12, (b) is a diagram showing an overview of the AF area sensor 12, (c) is a cross section of the AF area sensor 12 it is a diagram showing a state.

【図9】赤外カット領域101内の画素50の構成を示す図である。 9 is a diagram showing the structure of a pixel 50 of the infrared cut area 101.

【図10】第1の実施の形態によるAF動作の流れを示すフローチャートである。 10 is a flowchart showing the flow of the AF operation by the first embodiment.

【図11】第1の実施の形態によるAF動作の流れを示すタイミングチャートである。 11 is a timing chart showing the flow of the AF operation by the first embodiment.

【図12】サブルーチン「主要被写体検出」の処理を説明するフローチャートである。 12 is a flowchart for explaining the subroutine "main subject detection".

【図13】サブルーチン「形状判定処置」の処理を説明するためのフローチャートである。 13 is a flowchart for explaining the subroutine "shape determination treatment".

【図14】(a)は主要被写体を示す図であり、(b) [14] (a) is a diagram showing a main subject, (b)
はラベル領域を分割した様子を示す図であり、(c)は測距エリア403〜405を示す図である。 Is a diagram showing a state of dividing the label area, (c) is a diagram showing a distance measuring area 403-405.

【図15】(a)は可視光カットフィルタ108の分光感度特性を示す図であり、(b)は赤外カットフィルタ107の分光感度特性を示す図である。 [15] (a) is a diagram showing spectral sensitivity characteristics of the visible light cut filter 108 is a diagram showing a (b) the spectral sensitivity characteristics of the infrared cut filter 107.

【図16】赤外カット領域101、可視光カット領域1 [16] an infrared cut area 101, the visible light cut area 1
02の他に赤外カットフィルタも可視光カットフィルタも有していない第3センサ領域を設ける第1の実施の形態の変形例を説明するための図である。 In addition to the infrared cut filter 02 is also a diagram for explaining a modification of the first embodiment providing the third sensor areas not also have a visible light cut filter.

【図17】第2の実施の形態に係るカメラの光学系の光路図である。 17 is an optical path diagram of an optical system of a camera according to the second embodiment.

【図18】第2の実施の形態に係るカメラの測距装置によるAF動作を詳細に説明するためのフローチャートである。 18 is a flowchart illustrating an AF operation by the distance measuring device of a camera according to the second embodiment in detail.

【図19】第2の実施の形態の変形例の構成を示す図である。 19 is a diagram showing a configuration of a modification of the second embodiment.

【符号の説明】 DESCRIPTION OF SYMBOLS

1 センサ部 2 第1センサ部 3 第2センサ部 4 赤外カット部 5 可視光カット部 6 焦点調節部 7 投光部 8 定常光除去部 1 sensor unit 2 first sensor part 3 second sensor unit 4 infrared cut portion 5 visible light cut unit 6 focusing unit 7 light projector 8 constant light removing unit

フロントページの続き Fターム(参考) 2F065 AA06 DD00 DD04 FF05 FF09 GG07 GG08 GG23 JJ03 JJ05 JJ26 LL12 LL30 NN12 PP22 QQ03 QQ13 QQ14 QQ23 QQ25 QQ34 QQ36 SS13 UU05 2F112 AA09 AC06 BA06 CA02 DA13 DA28 DA32 EA09 FA03 FA07 FA08 FA21 FA29 FA33 FA36 FA45 2H051 BA24 CB13 CC03 Front page of the continued F-term (reference) 2F065 AA06 DD00 DD04 FF05 FF09 GG07 GG08 GG23 JJ03 JJ05 JJ26 LL12 LL30 NN12 PP22 QQ03 QQ13 QQ14 QQ23 QQ25 QQ34 QQ36 SS13 UU05 2F112 AA09 AC06 BA06 CA02 DA13 DA28 DA32 EA09 FA03 FA07 FA08 FA21 FA29 FA33 FA36 FA45 2H051 BA24 CB13 CC03

Claims (4)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 赤外カット手段を有する第1センサ手段と、 可視光カット手段を有する第2センサ手段と、 上記第1センサ手段と第2センサ手段の出力に基づいて焦点調節する焦点調節手段と、を有することを特徴とする測距装置。 1. A a first sensor means having an infrared cut means, a second sensor means having a visible light cutting means, focus adjustment means for adjusting the focus based on the output of the first sensor means and second sensor means distance measuring apparatus characterized by having a and.
  2. 【請求項2】 被写体に所定の波長の光を投光する投光手段を更に有し、 上記焦点調節手段は、上記投光手段が非動作時の第1センサ手段の出力と、上記投光手段が動作時の第2センサ手段の出力とに基づいて焦点調節を行うことを特徴とする請求項1に記載の測距装置。 Wherein further comprising a light projecting means for projecting light of a predetermined wavelength to the subject, the focus adjusting means, the output of the first sensor means when said light emitting means is inoperative, the light projecting means the distance measuring apparatus according to claim 1, wherein the adjusting the focus based on the output of the second sensor means during operation.
  3. 【請求項3】 上記第2センサ手段は、受光する受光量のうちから定常光成分を除去する定常光除去手段を更に有していることを特徴とする請求項1に記載の測距装置。 Wherein said second sensor means, the distance measuring apparatus according to claim 1, characterized in that it has a stationary light removing means for removing the stationary light component from among the received light amount of the light receiving further.
  4. 【請求項4】 上記第1センサ手段と第2センサ手段とは同一ICチップ上に形成されていることを特徴とする請求項1に記載の測距装置。 4. A distance measuring apparatus according to claim 1, characterized in that it is formed on the same IC chip as the first sensor means and second sensor means.
JP2000154844A 2000-05-25 2000-05-25 Range-finding device Withdrawn JP2001337263A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000154844A JP2001337263A (en) 2000-05-25 2000-05-25 Range-finding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000154844A JP2001337263A (en) 2000-05-25 2000-05-25 Range-finding device

Publications (1)

Publication Number Publication Date
JP2001337263A true JP2001337263A (en) 2001-12-07

Family

ID=18659874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000154844A Withdrawn JP2001337263A (en) 2000-05-25 2000-05-25 Range-finding device

Country Status (1)

Country Link
JP (1) JP2001337263A (en)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
WO2007129563A1 (en) * 2006-05-09 2007-11-15 Panasonic Corporation Range finder with image selecting function for finding range
JP2011095027A (en) * 2009-10-28 2011-05-12 Kyocera Corp Imaging device
JP2014232144A (en) * 2013-05-28 2014-12-11 リコーイメージング株式会社 Automatic focus detection device
WO2017047239A1 (en) * 2015-09-16 2017-03-23 富士フイルム株式会社 Focus apparatus, imaging system, and focus driving signal outputting method
US9774831B2 (en) 2013-02-24 2017-09-26 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US9787911B2 (en) 2013-03-14 2017-10-10 Fotonation Cayman Limited Systems and methods for photometric normalization in array cameras
US9794476B2 (en) 2011-09-19 2017-10-17 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US9800859B2 (en) 2013-03-15 2017-10-24 Fotonation Cayman Limited Systems and methods for estimating depth using stereo array cameras
US9800856B2 (en) 2013-03-13 2017-10-24 Fotonation Cayman Limited Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9807382B2 (en) 2012-06-28 2017-10-31 Fotonation Cayman Limited Systems and methods for detecting defective camera arrays and optic arrays
US9811753B2 (en) 2011-09-28 2017-11-07 Fotonation Cayman Limited Systems and methods for encoding light field image files
US9813617B2 (en) 2013-11-26 2017-11-07 Fotonation Cayman Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US9813616B2 (en) 2012-08-23 2017-11-07 Fotonation Cayman Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US9858673B2 (en) 2012-08-21 2018-01-02 Fotonation Cayman Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9866739B2 (en) 2011-05-11 2018-01-09 Fotonation Cayman Limited Systems and methods for transmitting and receiving array camera image data
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9924092B2 (en) 2013-11-07 2018-03-20 Fotonation Cayman Limited Array cameras incorporating independently aligned lens stacks
US9936148B2 (en) 2010-05-12 2018-04-03 Fotonation Cayman Limited Imager array interfaces
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9986224B2 (en) 2013-03-10 2018-05-29 Fotonation Cayman Limited System and methods for calibration of an array camera
US10009538B2 (en) 2013-02-21 2018-06-26 Fotonation Cayman Limited Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US10027901B2 (en) 2008-05-20 2018-07-17 Fotonation Cayman Limited Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10127682B2 (en) 2013-03-13 2018-11-13 Fotonation Limited System and methods for calibration of an array camera
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US10261219B2 (en) 2012-06-30 2019-04-16 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
WO2007129563A1 (en) * 2006-05-09 2007-11-15 Panasonic Corporation Range finder with image selecting function for finding range
US10027901B2 (en) 2008-05-20 2018-07-17 Fotonation Cayman Limited Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
JP2011095027A (en) * 2009-10-28 2011-05-12 Kyocera Corp Imaging device
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
US9936148B2 (en) 2010-05-12 2018-04-03 Fotonation Cayman Limited Imager array interfaces
US9866739B2 (en) 2011-05-11 2018-01-09 Fotonation Cayman Limited Systems and methods for transmitting and receiving array camera image data
US10218889B2 (en) 2011-05-11 2019-02-26 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US9794476B2 (en) 2011-09-19 2017-10-17 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US10275676B2 (en) 2011-09-28 2019-04-30 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US20180197035A1 (en) 2011-09-28 2018-07-12 Fotonation Cayman Limited Systems and Methods for Encoding Image Files Containing Depth Maps Stored as Metadata
US9811753B2 (en) 2011-09-28 2017-11-07 Fotonation Cayman Limited Systems and methods for encoding light field image files
US9864921B2 (en) 2011-09-28 2018-01-09 Fotonation Cayman Limited Systems and methods for encoding image files containing depth maps stored as metadata
US10019816B2 (en) 2011-09-28 2018-07-10 Fotonation Cayman Limited Systems and methods for decoding image files containing depth maps stored as metadata
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing
US9807382B2 (en) 2012-06-28 2017-10-31 Fotonation Cayman Limited Systems and methods for detecting defective camera arrays and optic arrays
US10334241B2 (en) 2012-06-28 2019-06-25 Fotonation Limited Systems and methods for detecting defective camera arrays and optic arrays
US10261219B2 (en) 2012-06-30 2019-04-16 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US9858673B2 (en) 2012-08-21 2018-01-02 Fotonation Cayman Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9813616B2 (en) 2012-08-23 2017-11-07 Fotonation Cayman Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US10009538B2 (en) 2013-02-21 2018-06-26 Fotonation Cayman Limited Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9774831B2 (en) 2013-02-24 2017-09-26 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US10225543B2 (en) 2013-03-10 2019-03-05 Fotonation Limited System and methods for calibration of an array camera
US9986224B2 (en) 2013-03-10 2018-05-29 Fotonation Cayman Limited System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US10127682B2 (en) 2013-03-13 2018-11-13 Fotonation Limited System and methods for calibration of an array camera
US9800856B2 (en) 2013-03-13 2017-10-24 Fotonation Cayman Limited Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9787911B2 (en) 2013-03-14 2017-10-10 Fotonation Cayman Limited Systems and methods for photometric normalization in array cameras
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9800859B2 (en) 2013-03-15 2017-10-24 Fotonation Cayman Limited Systems and methods for estimating depth using stereo array cameras
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
JP2014232144A (en) * 2013-05-28 2014-12-11 リコーイメージング株式会社 Automatic focus detection device
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9924092B2 (en) 2013-11-07 2018-03-20 Fotonation Cayman Limited Array cameras incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9813617B2 (en) 2013-11-26 2017-11-07 Fotonation Cayman Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
JPWO2017047239A1 (en) * 2015-09-16 2018-03-29 富士フイルム株式会社 Focusing device, the imaging system and the focus drive signal output method
WO2017047239A1 (en) * 2015-09-16 2017-03-23 富士フイルム株式会社 Focus apparatus, imaging system, and focus driving signal outputting method

Similar Documents

Publication Publication Date Title
JP5161702B2 (en) Imaging device, imaging system, and the focus detection method
CN1232880C (en) Camera with automatic focus-regulating device
US6941068B2 (en) Image pickup apparatus and image pickup system
US6097897A (en) Camera
US7405762B2 (en) Camera having AF function
KR101215965B1 (en) The imaging device
JP2985087B2 (en) Focus detection device
JPH0743605A (en) Automatic focusing device
JP2004109690A (en) Camera system and camera
US20060018650A1 (en) Image pickup apparatus and defocus amount correction value calculation method
JP2000338393A (en) Image pickup unit
JPH0756530B2 (en) Photographic lens barrel and camera
JP4499271B2 (en) camera
JP2007248782A (en) Focusing device and camera
CN1244225C (en) Still image pickup device and pickup method
US7728903B2 (en) Focus adjustment device, focus adjustment method and camera
JP2006098771A (en) Focus detecting device, imaging apparatus, imaging system, and lens unit
US6308014B1 (en) Ranging apparatus installed in camera
CN100447657C (en) Autofocus mechanism of camera and auxiliary light decision and control method thereof
JP2002023042A (en) Automatic multipoint focus detector
US20040037546A1 (en) Image sensing apparatus having distance measuring unit and control method thereof
JP3963568B2 (en) Autofocus system of the camera
US5543887A (en) Device for detecting line of sight
JPH0664225B2 (en) Focusing device
JPH0915491A (en) Automatic focusing device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807