JP2009031562A - Light receiving element, light receiver, focus detecting device, camera - Google Patents

Light receiving element, light receiver, focus detecting device, camera Download PDF

Info

Publication number
JP2009031562A
JP2009031562A JP2007195886A JP2007195886A JP2009031562A JP 2009031562 A JP2009031562 A JP 2009031562A JP 2007195886 A JP2007195886 A JP 2007195886A JP 2007195886 A JP2007195886 A JP 2007195886A JP 2009031562 A JP2009031562 A JP 2009031562A
Authority
JP
Japan
Prior art keywords
range
focus detection
addition
photoelectric conversion
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007195886A
Other languages
Japanese (ja)
Inventor
Hiroaki Takahara
宏明 高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007195886A priority Critical patent/JP2009031562A/en
Publication of JP2009031562A publication Critical patent/JP2009031562A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain output suitable for each use from one light receiving element when using the light receiving element in a plurality of uses. <P>SOLUTION: The light receiving element for arranging a plurality of photoelectric conversion parts accumulating charges in response to a light receiving amount includes: a vertical transfer circuit 163 and a horizontal transfer circuit 162 for adding the charge of the plurality of the photoelectric conversion parts; and an addition range setting part 164 for setting the range of the photoelectric conversion part adding the charge by the vertical transfer circuit 163 and the horizontal transfer circuit 162. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、受光素子と、受光素子を備えた受光装置、焦点検出装置およびカメラとに関する。   The present invention relates to a light receiving element, a light receiving device including the light receiving element, a focus detection device, and a camera.

従来、複数の画素が二次元状に配列された受光素子(エリアセンサ)を用いて被写体像を撮影するデジタルカメラが知られている。このようなデジタルカメラにおいて、低輝度な被写体からでも充分なコントラストがある信号電荷を得るために、エリアセンサで得られた信号電荷を輝度に応じて垂直方向と水平方向においてそれぞれ加算と非加算を切り替える技術が知られている(特許文献1参照)。   2. Description of the Related Art Conventionally, a digital camera that captures a subject image using a light receiving element (area sensor) in which a plurality of pixels are arranged in a two-dimensional manner is known. In such a digital camera, in order to obtain a signal charge with sufficient contrast even from a low-luminance subject, the signal charge obtained by the area sensor is added and not added in the vertical and horizontal directions, respectively, according to the brightness. A technique for switching is known (see Patent Document 1).

特開平10−126682号公報JP-A-10-126682

上記のような受光素子は、被写体像の撮影以外にも様々な用途、たとえば、受光素子で検出された被写体像の明るさに基づいてAE(Automatic Exposure)処理を行うと共に、同じ受光素子を用いて検出された撮影レンズの焦点調節状態に基づいてAF(Automatic Focus)処理を行う場合の制御については何ら考慮されていなかった。   The light receiving element as described above performs various uses other than the photographing of the subject image, for example, performs AE (Automatic Exposure) processing based on the brightness of the subject image detected by the light receiving element, and uses the same light receiving element. No consideration has been given to control when performing AF (Automatic Focus) processing based on the focus adjustment state of the photographic lens detected in this way.

請求項1の発明による受光素子は、受光量に応じた電荷を蓄積する複数の光電変換部が配列された受光素子であって、複数の光電変換部の電荷を加算する加算手段と、加算手段によって電荷を加算する光電変換部の範囲を設定する加算範囲設定手段とを備える。
請求項2の発明による受光装置は、請求項1に記載の受光素子と、異なる範囲に対応して加算された電荷を出力可能な出力手段とを備える。
請求項3の発明による焦点検出装置は、請求項1に記載の受光素子と、結像光学系を介した光を受光素子へ導く焦点検出光学系と、加算手段により加算された電荷に応じた信号に基づいて、結像光学系の焦点調節状態を検出する焦点検出手段とを備える。
請求項4の発明は、請求項3に記載の焦点検出装置において、複数の光電変換部は、異なる分光感度特性を有し、加算手段は、範囲内の光電変換部のうち分光感度特性が同じ光電変換部の電荷を加算し、加算手段により加算された電荷を、分光感度特性の異なる光電変換部について加算する第2の加算手段をさらに備え、焦点検出手段は、第2の加算手段によって加算された電荷に応じた信号に基づいて焦点調節状態を検出するものである。
請求項5の発明は、請求項3または4に記載の焦点検出装置において、加算範囲設定手段は、複数の光電変換部のうち、結像光学系による画面内に設定された焦点検出領域に対応する光電変換部の範囲を設定するものである。
請求項6の発明は、請求項5に記載の焦点検出装置において、画面内における焦点検出領域の位置を変更可能であり、加算範囲設定手段は、焦点検出領域の位置の変更に応じて範囲を変更するものである。
請求項7の発明は、請求項3〜6のいずれか一項に記載の焦点検出装置において、加算範囲設定手段は、結像光学系の焦点距離に応じて範囲を設定するものである。
請求項8の発明によるカメラは、請求項1に記載の受光素子と、電荷に基づいて、異なる複数の制御を実行可能な制御手段とを備えたカメラであって、加算範囲設定手段は、制御手段が実行する制御の種類に応じて、範囲を設定するものである。
請求項9の発明によるカメラは、請求項1に記載の受光素子と、受光素子上に光束の像を結像する結像光学系を備えたカメラにおいて、加算範囲設定手段は、結像光学系の焦点距離に応じて範囲を設定するものである。
請求項10の発明は、請求項8に記載のカメラにおいて、受光素子上に光束の像を結像する結像光学系を備え、制御手段は、結像光学系による像の判別処理と露出演算処理の少なくとも一方の制御、および結像光学系の焦点検出制御を行うものである。
請求項11の発明は、請求項10に記載のカメラにおいて、加算範囲設定手段は、制御手段が判別処理または露出演算処理を制御する場合は、複数の光電変換部がほぼ正方形状の範囲を設定するとともに、制御手段が焦点検出制御を行う場合は、長方形状の範囲を設定するものである。
請求項12の発明は、請求項10または11に記載のカメラにおいて、複数の光電変換部は、異なる分光感度特性を有し、加算手段は、制御手段が判別処理または露出演算処理を制御する場合は、同じ分光感度特性を有する光電変換部の電荷を加算するものである。
請求項13の発明は、請求項8〜12のいずれか一項に記載のカメラにおいて、入射する光の輝度を検出する輝度検出手段をさらに備え、加算範囲設定手段は、輝度検出手段により検出された輝度に応じて範囲を設定するものである。
請求項14の発明は、請求項9〜13のいずれか一項に記載のカメラにおいて、加算範囲設定手段は、結像光学系による撮影距離に応じて範囲を設定するものである。
請求項15の発明は、請求項10〜14のいずれか一項に記載のカメラにおいて、加算範囲設定手段は、結像光学系の焦点距離に応じて範囲を設定するものである。
請求項16の発明によるカメラは、結像光学系を介して入射する光に応じた電荷を蓄積する複数の光電変換部が配列された受光素子と、複数の光電変換部の電荷を加算する加算手段と、電荷に基づいて結像光学系による像の第1状態と、該第1状態と異なる第2状態とを検出する検出手段と、検出手段が検出する状態に応じて加算手段が加算する光電変換部の範囲を設定する加算範囲設定手段とを備える。
The light-receiving element according to the first aspect of the present invention is a light-receiving element in which a plurality of photoelectric conversion units for accumulating charges corresponding to the amount of received light are arranged, and an addition unit that adds the charges of the plurality of photoelectric conversion units, and an addition unit And an addition range setting means for setting a range of the photoelectric conversion unit to which charges are added.
According to a second aspect of the present invention, a light receiving device includes the light receiving element according to the first aspect and output means capable of outputting the added electric charges corresponding to different ranges.
According to a third aspect of the present invention, there is provided a focus detection device according to the first aspect, the focus detection optical system that guides light through the imaging optical system to the light reception element, and the charge added by the adding means. Focus detection means for detecting the focus adjustment state of the imaging optical system based on the signal.
According to a fourth aspect of the present invention, in the focus detection apparatus according to the third aspect, the plurality of photoelectric conversion units have different spectral sensitivity characteristics, and the adding means has the same spectral sensitivity characteristic among the photoelectric conversion units within the range. The apparatus further includes a second addition unit that adds the charges of the photoelectric conversion unit and adds the charges added by the addition unit to the photoelectric conversion units having different spectral sensitivity characteristics, and the focus detection unit adds the charges by the second addition unit. The focus adjustment state is detected based on a signal corresponding to the generated charge.
According to a fifth aspect of the present invention, in the focus detection apparatus according to the third or fourth aspect, the addition range setting means corresponds to a focus detection region set in the screen by the imaging optical system among the plurality of photoelectric conversion units. The range of the photoelectric conversion unit to be set is set.
According to a sixth aspect of the present invention, in the focus detection apparatus according to the fifth aspect, the position of the focus detection area in the screen can be changed, and the addition range setting means sets the range according to the change of the position of the focus detection area. To change.
According to a seventh aspect of the present invention, in the focus detection apparatus according to any one of the third to sixth aspects, the addition range setting means sets the range according to the focal length of the imaging optical system.
According to an eighth aspect of the present invention, there is provided a camera comprising: the light receiving element according to the first aspect; and a control unit capable of executing a plurality of different controls based on the charge. The range is set according to the type of control executed by the means.
According to a ninth aspect of the present invention, there is provided a camera comprising: the light receiving element according to the first aspect; and an imaging optical system that forms an image of a light beam on the light receiving element. The range is set according to the focal length.
According to a tenth aspect of the present invention, in the camera according to the eighth aspect, an imaging optical system for forming an image of a light beam on the light receiving element is provided, and the control means performs image discrimination processing and exposure calculation by the imaging optical system. Control of at least one of the processing and focus detection control of the imaging optical system are performed.
According to an eleventh aspect of the present invention, in the camera according to the tenth aspect, when the control means controls the discrimination process or the exposure calculation process, the plurality of photoelectric conversion units set a substantially square range. In addition, when the control means performs focus detection control, a rectangular range is set.
According to a twelfth aspect of the present invention, in the camera according to the tenth or eleventh aspect, the plurality of photoelectric conversion units have different spectral sensitivity characteristics, and the addition unit controls the discrimination process or the exposure calculation process. Is to add charges of photoelectric conversion units having the same spectral sensitivity characteristics.
A thirteenth aspect of the present invention is the camera according to any one of the eighth to twelfth aspects, further comprising luminance detection means for detecting the luminance of incident light, wherein the addition range setting means is detected by the luminance detection means. The range is set according to the brightness.
According to a fourteenth aspect of the present invention, in the camera according to any one of the ninth to thirteenth aspects, the addition range setting means sets the range according to the photographing distance by the imaging optical system.
According to a fifteenth aspect of the present invention, in the camera according to any one of the tenth to fourteenth aspects, the addition range setting means sets the range according to the focal length of the imaging optical system.
According to a sixteenth aspect of the present invention, there is provided a camera comprising: a light receiving element in which a plurality of photoelectric conversion units that store charges according to light incident through an imaging optical system are arranged; and an addition that adds the charges of the plurality of photoelectric conversion units. Means for detecting the first state of the image by the imaging optical system based on the charge and a second state different from the first state, and the adding means adds according to the state detected by the detecting means Addition range setting means for setting the range of the photoelectric conversion unit.

本発明によれば、一つの受光素子を複数の用途に利用する際、用途ごとに適した出力を受光素子から得ることができる。   According to the present invention, when one light receiving element is used for a plurality of applications, an output suitable for each application can be obtained from the light receiving element.

図1は、本発明の一実施の形態によるカメラの構成図である。図1に示すカメラは、レンズ部100とカメラ本体200とによって構成される。レンズ部100は、撮影レンズ1、絞り2、駆動機構3、レンズデータ部4を有している。カメラ本体200は、焦点検出装置5、ペンタプリズム6、信号処理部7、駆動モータ8、マイコン9、シャッター11、撮像素子12、メインミラー13、サブミラー14、接眼レンズ15、エリアセンサ16、背面モニタ18およびファインダースクリーン19を有している。   FIG. 1 is a configuration diagram of a camera according to an embodiment of the present invention. The camera shown in FIG. 1 includes a lens unit 100 and a camera body 200. The lens unit 100 includes a photographing lens 1, a diaphragm 2, a drive mechanism 3, and a lens data unit 4. The camera body 200 includes a focus detection device 5, a pentaprism 6, a signal processing unit 7, a drive motor 8, a microcomputer 9, a shutter 11, an image sensor 12, a main mirror 13, a sub mirror 14, an eyepiece 15, an area sensor 16, and a rear monitor. 18 and a viewfinder screen 19.

撮影レンズ1は、被写体像を結像するための結像光学系であり、複数のレンズによって構成される。撮影レンズ1を介してカメラ本体200へ入射された光は、メインミラー13において一部反射され、撮像素子12と光学的に等価な位置に設けられたファインダースクリーン19上に被写体像を結像する。ファインダースクリーン19上に結像された被写体像は、ペンタプリズム6から接眼レンズ15へと導かれる。撮影者は、この接眼レンズ15を覗いて被写体像を視認することで、撮影前に構図を確認することができる。   The photographing lens 1 is an imaging optical system for forming a subject image, and is constituted by a plurality of lenses. The light incident on the camera body 200 via the photographing lens 1 is partially reflected by the main mirror 13 and forms a subject image on a finder screen 19 provided at a position optically equivalent to the image sensor 12. . The subject image formed on the finder screen 19 is guided from the pentaprism 6 to the eyepiece lens 15. The photographer can confirm the composition before photographing by looking through the eyepiece 15 and visually recognizing the subject image.

また、撮影レンズ1を介してカメラ本体200へ入射された光のうち、メインミラー13を透過した光は、サブミラー14において反射され、焦点検出装置5へ入力される。焦点検出装置5は、周知の瞳分割による位相差検出方式で撮影レンズ1の焦点調節状態を検出するための装置であり、エリアセンサ16を有すると共に、焦点検出光学系を内蔵している。この焦点検出光学系により、撮影レンズ1を介した光がエリアセンサ16へ導かれる。   Of the light incident on the camera body 200 via the photographing lens 1, the light transmitted through the main mirror 13 is reflected by the sub mirror 14 and input to the focus detection device 5. The focus detection device 5 is a device for detecting the focus adjustment state of the photographing lens 1 by a known phase difference detection method using pupil division, and has an area sensor 16 and a focus detection optical system. The focus detection optical system guides light through the photographing lens 1 to the area sensor 16.

エリアセンサ16は、受光量に応じた電荷を蓄積する複数の光電変換部(画素)が二次元状に配列されている。各画素によって蓄積された電荷は、後で説明するようにして設定された範囲ごとに加算され、その加算結果に応じて、エリアセンサ16から受光信号が出力される。こうしてエリアセンサ16から出力された受光信号に基づいて、マイコン9は、撮影レンズ1の焦点調節状態を示すデフォーカス量を検出する。なお、エリアセンサ16には、CMOS(Complementary Metal Oxide Semiconductor)方式の受光素子や、CCD(Charge Coupled Device)などを用いることができる。また、エリアセンサ16から出力される受光信号は、マイコン9にも入力される。   In the area sensor 16, a plurality of photoelectric conversion units (pixels) that accumulate electric charges according to the amount of received light are two-dimensionally arranged. The charge accumulated by each pixel is added for each range set as will be described later, and a light reception signal is output from the area sensor 16 according to the addition result. Based on the light reception signal output from the area sensor 16 in this way, the microcomputer 9 detects a defocus amount indicating the focus adjustment state of the photographing lens 1. The area sensor 16 may be a CMOS (Complementary Metal Oxide Semiconductor) type light receiving element, a CCD (Charge Coupled Device), or the like. The light reception signal output from the area sensor 16 is also input to the microcomputer 9.

マイコン9は、エリアセンサ16から出力される受光信号に基づいて、各種の制御を行う。たとえば、デフォーカス量を算出し、撮影レンズ1の焦点調節を行うAF処理がマイコン9により行われる。また、エリアセンサ16からの受光信号に基づいて、主要被写体の判別処理、すなわち撮影レンズ1による像の判別処理や、適正露出を算出するための露出演算処理などがマイコン9により実行される。   The microcomputer 9 performs various controls based on the light reception signal output from the area sensor 16. For example, the microcomputer 9 performs AF processing for calculating the defocus amount and adjusting the focus of the photographing lens 1. Further, based on the light reception signal from the area sensor 16, main microcomputer determination processing, that is, image determination processing by the photographing lens 1, exposure calculation processing for calculating appropriate exposure, and the like are executed by the microcomputer 9.

駆動機構3は、撮影レンズ1に含まれる焦点調節レンズやズームレンズを駆動するための機構であり、カップリング部10を介して駆動モータ8と接続されている。マイコン9が駆動モータ8に対して駆動指令を出力すると、その駆動指令に応じて駆動モータ8が駆動され、発生した駆動力が駆動機構3へと伝えられる。これにより、駆動機構3によって焦点調節レンズやズームレンズが駆動され、撮影レンズ1のピント調節や焦点距離調節が行われる。なお、駆動モータ8をカメラ本体200ではなくレンズ部100に内蔵するようにしてもよい。   The drive mechanism 3 is a mechanism for driving a focus adjustment lens and a zoom lens included in the photographing lens 1, and is connected to the drive motor 8 through the coupling unit 10. When the microcomputer 9 outputs a drive command to the drive motor 8, the drive motor 8 is driven according to the drive command, and the generated drive force is transmitted to the drive mechanism 3. As a result, the focus adjustment lens and the zoom lens are driven by the drive mechanism 3, and the focus adjustment and the focal length adjustment of the photographing lens 1 are performed. The drive motor 8 may be built in the lens unit 100 instead of the camera body 200.

レンズデータ部4は、カップリング部10を介してマイコン9と接続されている。このレンズデータ部4は、撮影レンズ1の焦点距離の調節状態を検出し、焦点距離情報をマイコン9へ出力する。なお、レンズ部100がズームレンズでない場合、すなわち撮影レンズ1の焦点距離が固定である場合は、その焦点距離を予めレンズデータ部4に記憶させておくようにしてもよい。シャッター11は、マイコン9が行う露出算出処理により求められた適正露出に応じて設定されるシャッター速度にしたがって、撮影時の露光時間を制御する。   The lens data unit 4 is connected to the microcomputer 9 via the coupling unit 10. The lens data unit 4 detects the adjustment state of the focal length of the photographing lens 1 and outputs focal length information to the microcomputer 9. When the lens unit 100 is not a zoom lens, that is, when the focal length of the photographing lens 1 is fixed, the focal length may be stored in the lens data unit 4 in advance. The shutter 11 controls the exposure time at the time of shooting according to the shutter speed set according to the appropriate exposure obtained by the exposure calculation process performed by the microcomputer 9.

カメラ本体200において不図示のレリーズボタンが撮影者によって半押し操作されると、撮影レンズ1によってエリアセンサ16上に結像された光束の像の出力に基づいて、マイコン9によりデフォーカス量が検出される。そして、検出されたデフォーカス量に基づいて、マイコン9により駆動モータ8に駆動指示が与えられ、撮影レンズ1のピントが調節される。その後、レリーズボタンが撮影者によって全押し操作されると、撮影が行われる。   When a release button (not shown) in the camera body 200 is pressed halfway by the photographer, the defocus amount is detected by the microcomputer 9 based on the output of the light beam image formed on the area sensor 16 by the photographing lens 1. Is done. Then, based on the detected defocus amount, the microcomputer 9 gives a drive instruction to the drive motor 8 to adjust the focus of the photographing lens 1. Thereafter, when the release button is fully pressed by the photographer, photographing is performed.

図2は、撮影時のカメラの動作の様子を示している。図2に示すように、撮影時には、メインミラー13およびサブミラー14が撮影レンズ1の光路上から退避され、シャッター11が設定されたシャッター速度の間だけ開くことにより、撮像素子12が露光される。このとき、撮影レンズ1によって撮像素子12上に光束の像が結像される。撮像素子12は、エリアセンサ16と同様に、複数の光電変換部(画素)が二次元状に配列された受光素子であり、受光量に応じた電荷を画素ごとに蓄積して、信号処理部7へ受光信号を出力する。   FIG. 2 shows how the camera operates during shooting. As shown in FIG. 2, at the time of photographing, the main mirror 13 and the sub mirror 14 are retracted from the optical path of the photographing lens 1, and the image pickup device 12 is exposed by opening the shutter 11 only for the set shutter speed. At this time, an image of a light beam is formed on the image sensor 12 by the photographing lens 1. Similar to the area sensor 16, the image sensor 12 is a light receiving element in which a plurality of photoelectric conversion units (pixels) are two-dimensionally arranged, accumulates charges corresponding to the amount of received light for each pixel, and performs signal processing. A light reception signal is output to 7.

信号処理部7は、撮像素子12から出力された受光信号に対してアナログ−デジタル変換処理を行うことにより、その受光信号を画像データに変換する。さらに必要に応じて所定の画像処理を行った後、マイコン9へ画像データを出力する。マイコン9は、信号処理部7から出力された画像データに基づく画像を背面モニタ18に表示すると共に、その画像データを不図示の記録媒体に記録する。このように、撮像素子12において得られた被写体からの光に基づく画像データを記録媒体に記録することで、被写体の撮影が行われる。撮影後は、メインミラー13およびサブミラー14が元の位置に戻されると共にシャッター11が閉じて、図1の状態へと戻る。   The signal processing unit 7 converts the received light signal into image data by performing analog-digital conversion processing on the received light signal output from the image sensor 12. Further, after performing predetermined image processing as required, image data is output to the microcomputer 9. The microcomputer 9 displays an image based on the image data output from the signal processing unit 7 on the rear monitor 18 and records the image data on a recording medium (not shown). As described above, the image of the subject is photographed by recording the image data based on the light from the subject obtained in the image sensor 12 on the recording medium. After shooting, the main mirror 13 and the sub mirror 14 are returned to their original positions and the shutter 11 is closed to return to the state shown in FIG.

なお、ライブビューモードと呼ばれる所定のモードがカメラ本体200において設定されているときには、撮影時でなくても図2に示すような状態を維持して被写体からの光による画像データを連続的に取得し、被写体の動画像を背面モニタ18に表示してもよい。このとき背面モニタ18に表示される被写体の動画像は、スルー画と呼ばれている。スルー画の表示中にレリーズボタンが半押し操作されると、マイコン9により、撮像素子12からの画像信号に基づくAF処理が実行される。このAF処理は、焦点検出装置5によって検出されるデフォーカス量を用いずに、周知のコントラスト検出方式により行われる。または、メインミラー13およびサブミラー14を図1の位置に戻すことにより、被写体からの光を焦点検出装置5へ導いて、エリアセンサ16からの出力信号に基づいてマイコン9によりデフォーカス量を算出し、位相差検出方式のAF処理を行うこととしてもよい。   When a predetermined mode called a live view mode is set in the camera body 200, image data based on light from the subject is continuously acquired while maintaining the state shown in FIG. The moving image of the subject may be displayed on the rear monitor 18. The moving image of the subject displayed on the rear monitor 18 at this time is called a through image. When the release button is pressed halfway during the through image display, the microcomputer 9 executes AF processing based on the image signal from the image sensor 12. This AF process is performed by a known contrast detection method without using the defocus amount detected by the focus detection device 5. Alternatively, by returning the main mirror 13 and the sub mirror 14 to the positions shown in FIG. 1, the light from the subject is guided to the focus detection device 5 and the defocus amount is calculated by the microcomputer 9 based on the output signal from the area sensor 16. Alternatively, phase difference detection AF processing may be performed.

あるいは、撮像素子12において、瞳分割式の位相差検出を行うための焦点検出用画素を混在させ、この焦点検出用画素を用いて撮影レンズ1の射出瞳の部分領域からの光束を受光してデフォーカス量を検出することで、マイコン9によりAF処理を行うようにしてもよい。このようにした場合、図2のようにミラーアップの状態のままでも位相差検出方式のAF処理を行うことができる。   Alternatively, in the image pickup device 12, focus detection pixels for performing pupil division type phase difference detection are mixed, and light beams from a partial region of the exit pupil of the photographing lens 1 are received using the focus detection pixels. The AF process may be performed by the microcomputer 9 by detecting the defocus amount. In such a case, the phase difference detection AF process can be performed even in the mirror-up state as shown in FIG.

以上説明したように、レリーズボタンが半押し操作されたときには、マイコン9において、エリアセンサ16を用いてAF処理を行うことができる。さらに、主要被写体の判別処理および露出算出処理についても、エリアセンサ16を用いて行うことができる。すなわち、図1の状態において、マイコン9は、エリアセンサ16に対して設定された範囲ごとに加算された電荷に基づいて、AF処理、主要被写体判別処理、露出演算処理などを実行する。一方、ライブビューモードが設定されているときには、マイコン9において、撮像素子12を用いてAF処理、主要被写体の判別処理および露出算出処理が行われる。すなわち、図2の状態において、マイコン9は、撮像素子12で設定された範囲ごとに加算された電荷に基づいて、AF処理、主要被写体判別処理、露出演算処理などを実行する。   As described above, when the release button is half-pressed, the microcomputer 9 can perform the AF process using the area sensor 16. Furthermore, the main sensor discrimination process and the exposure calculation process can also be performed using the area sensor 16. That is, in the state of FIG. 1, the microcomputer 9 performs AF processing, main subject determination processing, exposure calculation processing, and the like based on the charges added for each range set for the area sensor 16. On the other hand, when the live view mode is set, the microcomputer 9 performs AF processing, main subject discrimination processing, and exposure calculation processing using the image sensor 12. That is, in the state of FIG. 2, the microcomputer 9 executes AF processing, main subject determination processing, exposure calculation processing, and the like based on the charge added for each range set by the image sensor 12.

次に、エリアセンサ16の構成について説明する。図3は、CCD方式による二次元イメージセンサを用いたエリアセンサ16の概略的な構成図である。このエリアセンサ16は、センサアレイ部161、水平転送回路162、垂直転送回路163、加算範囲設定部164および出力回路165を有している。   Next, the configuration of the area sensor 16 will be described. FIG. 3 is a schematic configuration diagram of the area sensor 16 using a CCD type two-dimensional image sensor. The area sensor 16 includes a sensor array unit 161, a horizontal transfer circuit 162, a vertical transfer circuit 163, an addition range setting unit 164, and an output circuit 165.

センサアレイ部161は、受光を行って電荷を蓄積する部分であり、前述のように複数の画素が二次元状に配列されている。このセンサアレイ部161の各画素により、所定の蓄積時間内における受光量に応じた電荷が蓄積される。垂直転送回路163は、センサアレイ部161の各画素において蓄積された電荷の量、すなわち電荷蓄積量を読み出すとともに、加算範囲設定部14で設定された範囲の画素の電荷を加算するための回路である。また、水平転送回路162は、垂直転送回路163から転送された電荷を、加算範囲設定部164で設定された範囲に対応して加算し、出力回路165へ出力する。   The sensor array unit 161 is a part that receives light and accumulates charges, and a plurality of pixels are arranged two-dimensionally as described above. Charges corresponding to the amount of received light within a predetermined accumulation time are accumulated by each pixel of the sensor array unit 161. The vertical transfer circuit 163 is a circuit for reading the amount of charge accumulated in each pixel of the sensor array unit 161, that is, the amount of accumulated charge, and adding the charges of the pixels in the range set by the addition range setting unit 14. is there. The horizontal transfer circuit 162 adds the charges transferred from the vertical transfer circuit 163 in accordance with the range set by the addition range setting unit 164 and outputs the result to the output circuit 165.

加算範囲設定部164は、水平転送回路162と垂直転送回路163に対して、センサアレイ部161の電荷蓄積量を加算する範囲をそれぞれ設定する。   The addition range setting unit 164 sets a range in which the charge accumulation amount of the sensor array unit 161 is added to the horizontal transfer circuit 162 and the vertical transfer circuit 163, respectively.

出力回路165は、水平転送回路162および垂直転送回路163によって読み出されて加算された電荷蓄積量に応じた受光信号をマイコン9へ出力する。すなわち、センサアレイ部161において二次元状に配列された各画素のうち、加算範囲設定部164により設定された範囲内にある複数の画素について、所定の蓄積時間内に蓄積された電荷を加算する。こうして加算された電荷に応じた受光信号をマイコン9に対して出力する。   The output circuit 165 outputs to the microcomputer 9 a light reception signal corresponding to the charge accumulation amount read and added by the horizontal transfer circuit 162 and the vertical transfer circuit 163. That is, among the pixels arrayed two-dimensionally in the sensor array unit 161, the charges accumulated within a predetermined accumulation time are added to a plurality of pixels within the range set by the addition range setting unit 164. . A light reception signal corresponding to the added electric charge is output to the microcomputer 9.

以上説明したように、加算範囲設定部164は、電荷を加算するセンサアレイ部161の画素の範囲を設定する。こうして設定された範囲について、垂直転送回路163、水平転送回路162は所定の蓄積時間内に蓄積された各画素の電荷を加算し、出力回路165を介して受光信号をマイコン9へ出力する。なお、このとき加算範囲設定部164が設定する画素の範囲は、マイコン9からの指示に応じて決定される。   As described above, the addition range setting unit 164 sets the pixel range of the sensor array unit 161 to which charges are added. In the range thus set, the vertical transfer circuit 163 and the horizontal transfer circuit 162 add the charges of each pixel accumulated within a predetermined accumulation time, and output a light reception signal to the microcomputer 9 via the output circuit 165. At this time, the pixel range set by the addition range setting unit 164 is determined according to an instruction from the microcomputer 9.

図4は、マイコン9が加算範囲設定部164に対して画素の範囲を指定する際に実行する処理の内容を示した加算モード決定フローのフローチャートである。ステップS10において、マイコン9は、エリアセンサ16の用途がAF用であるか否かを判定する。AF用である場合はステップS20へ進み、AF用でない場合、すなわちエリアセンサ16を主要被写体の判別処理や露出演算処理に用いる場合は、ステップS60へ進む。   FIG. 4 is a flowchart of an addition mode determination flow showing the contents of processing executed when the microcomputer 9 designates a pixel range to the addition range setting unit 164. In step S10, the microcomputer 9 determines whether or not the application of the area sensor 16 is for AF. If it is for AF, the process proceeds to step S20. If it is not for AF, that is, if the area sensor 16 is used for the main subject discrimination process or exposure calculation process, the process proceeds to step S60.

ステップS20において、マイコン9は、カメラ本体200に対して入射する光の輝度に関する輝度情報を取得する。この輝度情報は、たとえば、エリアセンサ16から出力される受光信号に基づいて、マイコン9により算出される。また、たとえばライブビューモード時などは、撮像素子12から出力される受光信号に基づいて輝度を算出してもよい。あるいは、輝度検出用のセンサをカメラ本体200内に設置し、このセンサからの検出信号に基づいて輝度情報を取得するようにしてもよい。   In step S <b> 20, the microcomputer 9 acquires luminance information related to the luminance of light incident on the camera body 200. For example, the luminance information is calculated by the microcomputer 9 based on a light reception signal output from the area sensor 16. Further, for example, in the live view mode, the luminance may be calculated based on the light reception signal output from the image sensor 12. Alternatively, a brightness detection sensor may be installed in the camera body 200, and brightness information may be acquired based on a detection signal from the sensor.

ステップS30において、マイコン9は、ステップS20で取得した輝度情報に基づいて、Y方向すなわち垂直方向の画素加算数を決定する。このとき、輝度が低いほど画素加算数を大きくし、輝度が高いほど画素加算数を小さくする。   In step S30, the microcomputer 9 determines the number of pixels to be added in the Y direction, that is, the vertical direction, based on the luminance information acquired in step S20. At this time, the pixel addition number is increased as the luminance is lower, and the pixel addition number is decreased as the luminance is higher.

ステップS40において、マイコン9は、撮影レンズ1の焦点距離情報を取得する。この焦点距離情報は、前述のようにレンズデータ部4から出力される。   In step S <b> 40, the microcomputer 9 acquires focal length information of the photographing lens 1. The focal length information is output from the lens data unit 4 as described above.

ステップS50において、マイコン9は、ステップS40で取得した焦点距離情報に基づいて、X方向すなわち水平方向の画素加算数を決定する。このとき、焦点距離が短いほど画素加算数を小さくし、焦点距離が長いほど画素加算数を大きくする。たとえば、撮影レンズ1として焦点距離の短いワイドレンズが用いられている場合や、ズームレンズでワイド側に設定されている場合は、画素加算数を小さくする。反対に、ズームレンズでテレ側に設定されている場合は、画素加算数を大きくする。ステップS50を実行したら、ステップS80へ進む。   In step S50, the microcomputer 9 determines the number of pixels to be added in the X direction, that is, in the horizontal direction, based on the focal length information acquired in step S40. At this time, the smaller the focal length, the smaller the pixel addition number, and the longer the focal length, the larger the pixel addition number. For example, when a wide lens with a short focal length is used as the photographing lens 1 or when the zoom lens is set to the wide side, the pixel addition number is reduced. Conversely, when the zoom lens is set to the tele side, the number of added pixels is increased. If step S50 is performed, it will progress to step S80.

以上説明したステップS20〜S50の処理が実行されることにより、AF処理時、すなわちマイコン9が撮影レンズ1の焦点検出制御を行う場合は、長方形状の範囲が設定される。   By executing the processing of steps S20 to S50 described above, a rectangular range is set during AF processing, that is, when the microcomputer 9 performs focus detection control of the photographing lens 1.

一方、ステップS10からステップS60へ進んだ場合、ステップS60において、マイコン9は、ステップS40と同様に、撮影レンズ1の焦点距離情報を取得する。   On the other hand, when the process proceeds from step S10 to step S60, in step S60, the microcomputer 9 acquires the focal length information of the photographing lens 1 in the same manner as in step S40.

ステップS70において、マイコン9は、ステップS60で取得した焦点距離情報に基づいて、正方形の画素加算数を決定する。すなわち、X方向(水平方向)およびY方向(垂直方向)の画素加算数を決定する。このとき、ステップS50と同様に、焦点距離が短いほど画素加算数を小さくし、焦点距離が長いほど画素加算数を大きくする。ステップS70を実行したら、ステップS80へ進む。   In step S70, the microcomputer 9 determines the square pixel addition number based on the focal length information acquired in step S60. That is, the pixel addition numbers in the X direction (horizontal direction) and the Y direction (vertical direction) are determined. At this time, as in step S50, the smaller the focal length, the smaller the pixel addition number, and the longer the focal length, the larger the pixel addition number. If step S70 is performed, it will progress to step S80.

以上説明したステップS60およびS70の処理が実行されることにより、マイコン9が主要被写体の判別処理または露出演算処理を行う場合は、正方形状の範囲が設定される。なお、必ずしも正確な正方形状でなくとも、ほぼ正方形状の範囲を設定すればよい。   When the processing of steps S60 and S70 described above is executed, when the microcomputer 9 performs the main subject determination processing or exposure calculation processing, a square range is set. Note that a substantially square range may be set, even if it is not necessarily an exact square shape.

ステップS80において、マイコン9は、ステップS30とS50、またはステップS70で決定された加算数に応じて、センサアレイ部161の各画素に対するデータ加算範囲を設定する。ステップS80を実行したら、マイコン9は、図4のフローチャートを終了する。   In step S80, the microcomputer 9 sets a data addition range for each pixel of the sensor array unit 161 in accordance with the addition number determined in steps S30 and S50 or step S70. If step S80 is performed, the microcomputer 9 will complete | finish the flowchart of FIG.

上記のようにしてデータ加算範囲を設定したら、マイコン9は、加算範囲設定部164に対して、設定したデータ加算範囲を指示するための信号を送信する。このようにして、加算範囲設定部164が設定する画素の範囲がマイコン9により指定される。これにより、加算範囲設定部164は、マイコン9が実行する制御の種類や、入射する光の輝度、撮影レンズ1の焦点距離などに応じて、電荷を加算する画素の範囲を設定することができる。   When the data addition range is set as described above, the microcomputer 9 transmits a signal for instructing the set data addition range to the addition range setting unit 164. In this way, the range of pixels set by the addition range setting unit 164 is designated by the microcomputer 9. Thereby, the addition range setting unit 164 can set the range of pixels to which charges are added according to the type of control executed by the microcomputer 9, the luminance of incident light, the focal length of the photographing lens 1, and the like. .

以上説明した処理により設定される画素の範囲の例を図5〜10に示す。図5〜7は、AF処理を行う際に、エリアセンサ16のセンサアレイ部161において設定される画素範囲の例である。図5は低輝度時、図6は高輝度時、図7は焦点距離の短いワイドレンズを用いたときの画素範囲をそれぞれ示しており、いずれにも破線で囲われた長方形の範囲a1、a2、a3等が設定されている。このように、AF処理時には長方形状の範囲を設定することにより、適切なデフォーカス量を得るために必要な電荷の蓄積時間や読み出し時間を短縮すると共に、AF処理の分解能を向上させることができる。   Examples of pixel ranges set by the processing described above are shown in FIGS. 5 to 7 are examples of pixel ranges set in the sensor array unit 161 of the area sensor 16 when performing AF processing. 5 shows a pixel range when the luminance is low, FIG. 6 shows a high luminance, and FIG. 7 shows a pixel range when a wide lens with a short focal length is used, both of which are rectangular ranges a1 and a2 surrounded by broken lines. , A3, etc. are set. In this way, by setting a rectangular range during AF processing, it is possible to shorten the charge accumulation time and readout time necessary to obtain an appropriate defocus amount and improve the AF processing resolution. .

一方、図8〜10は、主要被写体の判別処理または露出演算処理を行う際に、センサアレイ部161において設定される画素範囲の例である。これらの図では、破線で囲われた正方形の範囲b1、b2、b3等が設定されている。このように、主要被写体の判別処理または露出演算処理の際は、ほぼ正方形状の範囲を設定することにより、横方向すなわちX方向と、縦方向すなわちY方向とを同じ分解能で処理することができる。   On the other hand, FIGS. 8 to 10 are examples of pixel ranges set in the sensor array unit 161 when the main subject discrimination process or the exposure calculation process is performed. In these figures, square ranges b1, b2, b3, etc. enclosed by broken lines are set. As described above, in the main subject discrimination process or the exposure calculation process, by setting a substantially square range, the horizontal direction, that is, the X direction, and the vertical direction, that is, the Y direction can be processed with the same resolution. .

なお、図5〜10において、センサアレイ部161の各画素は、R(赤)、G(緑)またはB(青)のいずれかに対応する分光感度特性を有している。すなわち、センサアレイ部161には、画素ごとにR,GまたはBのいずれかに対応するカラーフィルタがそれぞれ設けられている。このカラーフィルタを通過した光の強度を各画素において検出することで、撮影レンズ1により結像された被写体像の色成分ごとの光強度を検出することができる。このように、センサアレイ部161において、各画素は異なる分光感度特性を有している。なお、図5〜10に示すような画素の配列は、ベイヤー配列と呼ばれる。なお、これ以外の配列としてもよい。   5 to 10, each pixel of the sensor array unit 161 has a spectral sensitivity characteristic corresponding to any of R (red), G (green), and B (blue). That is, the sensor array unit 161 is provided with a color filter corresponding to any of R, G, or B for each pixel. By detecting the intensity of the light that has passed through the color filter in each pixel, the light intensity for each color component of the subject image formed by the photographing lens 1 can be detected. Thus, in the sensor array unit 161, each pixel has a different spectral sensitivity characteristic. The pixel arrangement as shown in FIGS. 5 to 10 is called a Bayer arrangement. Other arrangements may be used.

図5と図6の例を比較すると、低輝度時の範囲a1〜a3は、高輝度時のものよりもY方向の画素数が多くなるように設定されていることが分かる。すなわち、低輝度時は電荷を加算する画素の数を多くして、AF処理に必要な像の明るさが得られるようにする。このように、検出された輝度に応じて電荷を加算する範囲を設定することにより、受光信号のダイナミックレンジを向上させることができる。   Comparing the examples of FIG. 5 and FIG. 6, it can be seen that the range a1 to a3 at the time of low luminance is set so that the number of pixels in the Y direction is larger than that at the time of high luminance. That is, when the luminance is low, the number of pixels to which charges are added is increased so that the image brightness necessary for AF processing can be obtained. In this way, by setting the range in which charges are added according to the detected luminance, the dynamic range of the received light signal can be improved.

また、図5と図7の例を比較すると、焦点距離が短い時すなわちワイドレンズ時は、通常よりもX方向の画素数が少なくなるように範囲a1〜a3が設定されていることが分かる。すなわち、焦点距離が短いときは、位相差を検出するためのラインセンサの画素幅を短くして、AF処理に必要な分解能が得られるようにする。なお、ここでいうラインセンサとは、センサアレイ部161に対して図5〜7のように設定される範囲の列を表している。すなわち、ラインセンサの画素幅とは、センサアレイ部161において画素を加算する範囲のX軸方向の幅のことである。   Further, comparing the examples of FIGS. 5 and 7, it can be seen that the ranges a1 to a3 are set so that the number of pixels in the X direction is smaller than usual when the focal length is short, that is, when the wide lens is used. That is, when the focal length is short, the pixel width of the line sensor for detecting the phase difference is shortened so that the resolution necessary for the AF processing can be obtained. In addition, the line sensor here represents the row | line | column of the range set with respect to the sensor array part 161 like FIG. In other words, the pixel width of the line sensor is the width in the X-axis direction of the range in which pixels are added in the sensor array unit 161.

焦点距離が短い場合は、撮影レンズ1による画面内において被写体像が比較的小さくなることから、被写体像に含まれる周波数成分は高周波成分が多くなる傾向がある。したがって、上記のように撮影レンズ1の焦点距離に応じて電荷を加算する範囲を狭く設定することにより、被写体像の高周波成分の検出が可能となる。   When the focal length is short, the subject image is relatively small in the screen of the photographing lens 1, and therefore the frequency component included in the subject image tends to increase in high frequency components. Therefore, by setting a narrow range in which charges are added according to the focal length of the photographic lens 1 as described above, it is possible to detect a high-frequency component of the subject image.

なお、撮影レンズ1の焦点距離の代わりに、撮影レンズ1による撮影距離に応じて電荷を加算する範囲を設定するようにしてもよい。すなわち、一度AF処理を行うことによってデフォーカス量が求められると、そのデフォーカス量と撮影レンズ1の焦点距離に基づいて、カメラ本体200から被写体までの撮影距離を求めることができる。この撮影距離に応じて電荷を加算する範囲を設定することで、より高精度なAF処理を行うことができる。このとき、撮影レンズ1の焦点距離をさらに加味してもよい。   Instead of the focal length of the photographing lens 1, a range in which charges are added may be set according to the photographing distance by the photographing lens 1. That is, once the defocus amount is obtained by performing AF processing, the photographing distance from the camera body 200 to the subject can be obtained based on the defocus amount and the focal length of the photographing lens 1. By setting a range in which charges are added according to the shooting distance, more accurate AF processing can be performed. At this time, the focal length of the photographic lens 1 may be further added.

一方、図8〜10では、X方向とY方向の画素数を等しくすることにより、正方形の範囲b1〜b3が設定されていることが分かる。この正方形の範囲b1〜b3の大きさは、前述のように焦点距離に応じて変更される。   On the other hand, in FIGS. 8 to 10, it can be seen that square ranges b1 to b3 are set by equalizing the number of pixels in the X direction and the Y direction. The sizes of the square ranges b1 to b3 are changed according to the focal length as described above.

図8はRの画素、図9はGの画素、図10はBの画素について、それぞれ設定された範囲内で電荷を加算する様子を示している。たとえば範囲b1では、図8に示すように、太枠で囲われた合計4つのRの画素における電荷が加算される。同様に、図9に示すように、8つのGの画素における電荷が加算され、図10に示すように、4つのBの画素における電荷が加算される。範囲b2、b3等についても同様である。なお、R画素を含む列のG画素とB画素を含む列のG画素とを個別に加算するようにしてもよい。   FIG. 8 shows a state where charges are added within a set range for the R pixel, FIG. 9 for the G pixel, and FIG. 10 for the B pixel. For example, in the range b1, as shown in FIG. 8, charges in a total of four R pixels surrounded by a thick frame are added. Similarly, as shown in FIG. 9, the charges in the eight G pixels are added, and as shown in FIG. 10, the charges in the four B pixels are added. The same applies to the ranges b2, b3, and the like. Note that the G pixel in the column including the R pixel and the G pixel in the column including the B pixel may be individually added.

以上説明したように、加算範囲設定部164は、マイコン9が実行する制御の種類に応じて、センサアレイ部161の各画素に対して異なる範囲を設定する。すなわち、加算範囲設定部164は、マイコン9が主要被写体の判別処理または露出演算処理を制御する場合は、複数の画素がほぼ正方形状の範囲を設定すると共に、マイコン9がAF処理を行う場合は、長方形状の範囲を設定する。なお、このときマイコン9が主要被写体の判別処理または露出演算処理のいずれか一方のみを実行することとしてもよい。   As described above, the addition range setting unit 164 sets different ranges for each pixel of the sensor array unit 161 according to the type of control executed by the microcomputer 9. In other words, the addition range setting unit 164 sets a range in which a plurality of pixels have a substantially square shape when the microcomputer 9 controls the main subject discrimination process or the exposure calculation process, and the microcomputer 9 performs the AF process. Set a rectangular range. At this time, the microcomputer 9 may execute only one of the main subject determination process and the exposure calculation process.

また、垂直転送回路163、水平転送回路162は、マイコン9が主要被写体の判別処理または露出演算処理を制御する場合は、加算範囲設定部164によって設定された正方形状の範囲内にある画素の電荷を加算し、マイコン9がAF処理を行う場合は、加算範囲設定部164によって設定された長方形状の範囲内にある画素の電荷を加算する。こうして加算された電荷に応じた受光信号が、設定された範囲ごとに出力回路165から出力される。このようにすることで、一つのエリアセンサ16を複数の用途に利用する際、用途ごとに適した出力をエリアセンサ16から得ることができる。   The vertical transfer circuit 163 and the horizontal transfer circuit 162 also charge the pixels within the square range set by the addition range setting unit 164 when the microcomputer 9 controls the main subject discrimination process or the exposure calculation process. When the microcomputer 9 performs the AF process, the charges of the pixels within the rectangular range set by the addition range setting unit 164 are added. A light reception signal corresponding to the added electric charge is output from the output circuit 165 for each set range. In this way, when one area sensor 16 is used for a plurality of applications, an output suitable for each application can be obtained from the area sensor 16.

また、マイコン9が主要被写体の判別処理または露出演算処理を制御する場合は、正方形状の範囲内にあるR,G,Bそれぞれの画素について電荷を加算する。こうして同じ分光感度特性を有する各画素の電荷を加算して色情報を取得することにより、主要被写体の判別処理や露出演算処理を適切に行うことができる。たとえば、肌色や目の色、唇の色などを検出して人間の顔を抽出することで、その顔の部分を主要被写体であると判別したり、色合いに応じた露出を定めたりすることができる。   Further, when the microcomputer 9 controls the main subject discrimination process or the exposure calculation process, charges are added to the R, G, and B pixels within the square range. Thus, by adding the charge of each pixel having the same spectral sensitivity characteristic to acquire color information, it is possible to appropriately perform main subject discrimination processing and exposure calculation processing. For example, by extracting the human face by detecting the skin color, eye color, lip color, etc., it is possible to determine that the face part is the main subject or to determine the exposure according to the hue. it can.

なお、マイコン9がAF処理を行う場合にも、主要被写体の判別処理または露出演算処理を行う場合と同様に、同じ分光感度特性を有する各画素の電荷を加算するようにしてもよい。このようにした場合、加算された電荷を、後段の処理によって分光感度特性の異なる画素についてさらに加算し、その加算結果に基づいてAF処理を行うようにする。たとえば、焦点検出装置5に第二加算回路を設け、この第二加算回路により、設定された範囲ごとに出力回路165から出力されたR,G,Bそれぞれの受光量に基づいて、各範囲の電荷の合計を算出し、その算出結果に応じた信号を出力する。こうして第二加算回路から出力された信号に基づいて、マイコン9はデフォーカス量を求めて撮影レンズ1の焦点調節状態を検出する。このような方法により検出されたデフォーカス量に基づいて、マイコン9はAF処理を実行することができる。したがって、エリアセンサ16において分光感度特性の異なる画素について画素を加算できない場合でも、デフォーカス量を検出することができる。   When the microcomputer 9 performs the AF process, the charge of each pixel having the same spectral sensitivity characteristic may be added as in the case where the main subject determination process or the exposure calculation process is performed. In such a case, the added charges are further added to pixels having different spectral sensitivity characteristics by subsequent processing, and AF processing is performed based on the addition result. For example, the focus detection device 5 is provided with a second adder circuit, and the second adder circuit allows each range to be determined based on the received light amounts of R, G, and B output from the output circuit 165 for each set range. The total charge is calculated, and a signal corresponding to the calculation result is output. Thus, based on the signal output from the second adder circuit, the microcomputer 9 obtains the defocus amount and detects the focus adjustment state of the photographing lens 1. Based on the defocus amount detected by such a method, the microcomputer 9 can execute the AF process. Therefore, even when the area sensor 16 cannot add pixels for pixels having different spectral sensitivity characteristics, the defocus amount can be detected.

上記ではCCD方式による二次元イメージセンサを用いたエリアセンサ16の例を説明したが、エリアセンサ16にCMOSを用いた場合にも同様の処理を行うことができる。さらに、CMOSを用いた場合は、加算範囲設定部164がアドレス指定部に対して加算範囲を設定し、アドレス指定部によって指定された画素の電荷を電圧にして加算して出力するようにする。   Although the example of the area sensor 16 using the CCD type two-dimensional image sensor has been described above, the same processing can be performed when a CMOS is used for the area sensor 16. Further, when CMOS is used, the addition range setting unit 164 sets an addition range for the address designation unit, adds the charges of the pixels designated by the address designation unit as a voltage, and outputs the voltage.

エリアセンサ16ではなく撮像素子12を用いてマイコン9がAF処理、主要被写体の判別処理または露出算出処理を行う場合にも、上記と同様の方法により行うことができる。すなわち、図2のようなミラーアップ状態でAF処理を行う場合は、撮像素子12において、図5〜7に示すような長方形状の範囲を設定し、その範囲内にある画素の電荷をまとめて加算する。但し、画質に影響が出るので、この場合は後段のASICにより加算を行った方が良い。このようにして加算された電荷に基づいて、マイコン9はAF処理を実行する。この際、コントラスト検出方式と位相差検出方式どちらのAF処理を用いることとしてもよい。一方、主要被写体の判別処理や露出演算処理を行う場合は、撮像素子12において、図8〜10に示すような正方形状の範囲を設定し、その範囲内にあるR,G,Bそれぞれの画素について電荷を加算する。このようにして加算された電荷に基づいて、マイコン9は主要被写体の判別処理または露出演算処理を制御する。このようにすることで、一つの撮像素子12を複数の用途に利用する際、用途ごとに適した出力を撮像素子12から得ることができる。   Even when the microcomputer 9 uses the image sensor 12 instead of the area sensor 16 to perform AF processing, main subject discrimination processing, or exposure calculation processing, the same method as described above can be used. That is, when AF processing is performed in the mirror-up state as shown in FIG. 2, a rectangular range as shown in FIGS. 5 to 7 is set in the image sensor 12, and the charges of the pixels in the range are collected together. to add. However, since the image quality is affected, in this case, it is better to perform addition using an ASIC at a later stage. Based on the charges thus added, the microcomputer 9 executes AF processing. At this time, either the contrast detection method or the phase difference detection method may be used. On the other hand, when the main subject discrimination process and the exposure calculation process are performed, a square range as shown in FIGS. 8 to 10 is set in the image sensor 12, and each of the R, G, and B pixels within the range is set. Add the charge for. On the basis of the charges thus added, the microcomputer 9 controls the main subject discrimination processing or exposure calculation processing. By doing in this way, when using one image sensor 12 for a plurality of uses, an output suitable for each use can be obtained from the image sensor 12.

次に、焦点検出装置5によりデフォーカス量を検出する方法について説明する。図11は、焦点検出装置5における焦点検出光学系の構成を示す斜視図であり、図12は、図11の焦点検出光学系をy軸方向から見た光路図である。被写界からの光束は、撮影レンズ1の射出瞳領域1aを通過して視野マスク26の近傍に結像する。視野マスク26の視野開口26aを通過した光束はコンデンサレンズ22を透過し、撮影レンズの射出瞳領域1a、1bとほぼ共役な位置に配置される絞りマスク23の絞り開口23a、23bおよび再結像光学系24の再結像レンズ24a、24bを通過して分割され、それぞれエリアセンサ16のセンサアレイ部161に設定されたラインセンサ25上に結像する。なお、このラインセンサ25は、AFに使用する画素範囲を表している。   Next, a method for detecting the defocus amount by the focus detection device 5 will be described. FIG. 11 is a perspective view showing the configuration of the focus detection optical system in the focus detection device 5, and FIG. 12 is an optical path diagram of the focus detection optical system of FIG. 11 viewed from the y-axis direction. The light flux from the object field passes through the exit pupil region 1 a of the photographing lens 1 and forms an image in the vicinity of the field mask 26. The light beam that has passed through the field opening 26a of the field mask 26 is transmitted through the condenser lens 22, and the diaphragm openings 23a and 23b and the re-imaging of the diaphragm mask 23 that are arranged at positions almost conjugate with the exit pupil regions 1a and 1b of the photographing lens. The image is divided by passing through re-imaging lenses 24 a and 24 b of the optical system 24, and forms an image on the line sensor 25 set in the sensor array unit 161 of the area sensor 16. The line sensor 25 represents a pixel range used for AF.

上記により、被写界からの光束がx軸方向の一対の二次像に分割される。したがって、この一対の二次像の状態を検出することは、x軸方向に輝度変化のある被写体に対して撮影レンズ1の焦点調節状態を検出することになる。そして、ラインセンサ25上に結像された一対の被写体像を光電変換することによって、撮影レンズ1の焦点調節状態を検出することができる。   As described above, the light beam from the object scene is divided into a pair of secondary images in the x-axis direction. Therefore, detecting the state of the pair of secondary images detects the focus adjustment state of the photographing lens 1 with respect to a subject whose luminance changes in the x-axis direction. The focus adjustment state of the photographic lens 1 can be detected by photoelectrically converting a pair of subject images formed on the line sensor 25.

つまり、撮影レンズ1が撮像面と等価な予定結像面上に鮮鋭像を結ぶ、いわゆる合焦時には、図12(a)に示すように、ラインセンサ25上の一対の被写体像が、前ピン状態と後ピン状態との間の所定の間隔L0で結像する。また、撮影レンズ1が予定結像面よりも前に鮮鋭像を結ぶ、いわゆる前ピン状態の場合には、図12(b)に示すように、ラインセンサ25上の一対の被写体像は、合焦時の間隔L0よりも短い間隔L1で結像する。逆に、撮影レンズ1が予定結像面よりも後に鮮鋭像を結ぶ、いわゆる後ピン状態の場合には、ラインセンサ25上の一対の被写体像は、合焦時の間隔L0よりも長い間隔L2で結像する。したがって、この一対の被写体像をラインセンサ25で光電変換して電気信号に変え、これらの電気信号から相関演算等を行うことによって一対の被写体像の相対位置ずれ量が求まり、焦点検出領域での撮影レンズ1の焦点調節状態が検出される。   That is, at the time of so-called in-focus, in which the photographing lens 1 forms a sharp image on a planned imaging surface equivalent to the imaging surface, a pair of subject images on the line sensor 25 are displayed in front pins as shown in FIG. An image is formed at a predetermined interval L0 between the state and the rear pin state. Further, in the case of a so-called front pin state in which the photographic lens 1 forms a sharp image before the planned image plane, a pair of subject images on the line sensor 25 are aligned as shown in FIG. An image is formed at an interval L1 shorter than the interval L0 at the time of focusing. On the other hand, when the photographing lens 1 forms a sharp image after the planned image plane, the pair of subject images on the line sensor 25 has an interval L2 longer than the interval L0 at the time of focusing. To form an image. Accordingly, the pair of subject images are photoelectrically converted by the line sensor 25 to be converted into electrical signals, and the correlation calculation or the like is performed from these electrical signals to determine the relative positional deviation amount between the pair of subject images. The focus adjustment state of the taking lens 1 is detected.

上記において、センサアレイ部161上には、図12のように、一対の視野開口26aの像28a、28bが投影される。この一対の像28a、28bの内側にのみ、被写体像がそれぞれ結像される。したがって、主要被写体の判別処理または露出演算処理を行う場合、マイコン9は、一対の像28aまたは28bのいずれか一方を選択し、その内側に結像された被写体像の検出結果を利用するようにする。   In the above, the images 28a and 28b of the pair of field openings 26a are projected on the sensor array portion 161 as shown in FIG. Subject images are formed only inside the pair of images 28a and 28b. Therefore, when performing the main subject discrimination process or the exposure calculation process, the microcomputer 9 selects either one of the pair of images 28a or 28b and uses the detection result of the subject image formed on the inside thereof. To do.

なお、センサアレイ部161において、ラインセンサ25に相当する画素の範囲は、撮影レンズ1による画面内に設定された焦点検出領域に対応して設定される。すなわち、加算範囲設定部164は、センサアレイ部161の複数の画素のうち、撮影レンズ1による画面内に設定された焦点検出領域に対応する画素の範囲をセンサアレイ部161の転送回路に対して設定する。このようにして設定する画素の範囲を制限することにより、不要な電荷蓄積量の読み出しを防ぎ、短時間でAF処理を行うことができる。   In the sensor array unit 161, the pixel range corresponding to the line sensor 25 is set corresponding to the focus detection area set in the screen by the photographing lens 1. That is, the addition range setting unit 164 sets a pixel range corresponding to the focus detection region set in the screen by the photographing lens 1 among the plurality of pixels of the sensor array unit 161 to the transfer circuit of the sensor array unit 161. Set. By limiting the range of pixels to be set in this way, unnecessary charge accumulation amount can be prevented from being read and AF processing can be performed in a short time.

ここで、焦点検出領域の位置を変更可能としてもよい。その場合、加算範囲設定部164は、焦点検出領域の位置の変更に応じて、センサアレイ部161の転送回路に対して設定する画素の範囲を変更する。このようにすることで、焦点検出領域の位置が変更されても、焦点検出装置5によってデフォーカス量を正しく検出することができる。   Here, the position of the focus detection area may be changeable. In this case, the addition range setting unit 164 changes the pixel range set for the transfer circuit of the sensor array unit 161 in accordance with the change of the position of the focus detection region. In this way, even when the position of the focus detection area is changed, the focus detection device 5 can correctly detect the defocus amount.

以上説明したように、AF処理時には、マイコン9によってデフォーカス量が求められることにより、撮影レンズ1による像のピント調節状態が検出される。これに対して、主要被写体の判別処理や露出演算処理の場合は、マイコン9により、撮影レンズ1による像の形状や色合い、明るさなどの状態が検出される。こうしてマイコン9が検出する状態に応じて、加算範囲設定部164は、加算する画素の範囲をセンサアレイ部161に対して設定する。このようにしたので、一つのエリアセンサ16を複数の用途に利用する際、各用途に適した出力をエリアセンサ16から得ることができる。なお、撮像素子12を用いる場合も同様である。   As described above, at the time of AF processing, the defocus amount is obtained by the microcomputer 9, and the focus adjustment state of the image by the photographing lens 1 is detected. On the other hand, in the main subject discrimination process and the exposure calculation process, the microcomputer 9 detects the state of the image by the photographing lens 1 such as the shape, hue, and brightness. Thus, the addition range setting unit 164 sets the pixel range to be added to the sensor array unit 161 according to the state detected by the microcomputer 9. Since it did in this way, when using one area sensor 16 for a plurality of uses, the output suitable for each use can be obtained from area sensor 16. The same applies when the image sensor 12 is used.

以上説明した実施の形態によれば、次の作用効果を奏する。
(1)エリアセンサ16は、センサアレイ部161において、受光量に応じた電荷を蓄積する複数の光電変換部(画素)が配列されている。この画素のうちいずれか複数の画素の電荷を、垂直転送回路163、水平転送回路162により加算する。こうして垂直転送回路163、水平転送回路162によって電荷を加算する画素の範囲を、加算範囲設定部164により設定することとした。このようにしたので、一つのエリアセンサ16を複数の用途に利用する際、用途ごとに適した出力をエリアセンサ16から得ることができる。
According to the embodiment described above, the following operational effects are obtained.
(1) In the area sensor 16, in the sensor array unit 161, a plurality of photoelectric conversion units (pixels) that accumulate charges according to the amount of received light are arranged. The charges of any one of the pixels are added by the vertical transfer circuit 163 and the horizontal transfer circuit 162. Thus, the range of pixels to which charges are added by the vertical transfer circuit 163 and the horizontal transfer circuit 162 is set by the addition range setting unit 164. Since it did in this way, when using one area sensor 16 for a some use, the output suitable for every use can be obtained from the area sensor 16. FIG.

(2)マイコン9は、垂直転送回路163、水平転送回路162により加算された電荷に応じてエリアセンサ16から出力される受光信号に基づいて、撮影レンズ1の焦点調節状態を示すデフォーカス量を検出する。このようにしたので、撮影レンズ1の焦点調節を適切に行うことができる。 (2) The microcomputer 9 sets the defocus amount indicating the focus adjustment state of the photographing lens 1 based on the light reception signal output from the area sensor 16 according to the charges added by the vertical transfer circuit 163 and the horizontal transfer circuit 162. To detect. Since it did in this way, the focus adjustment of the photographic lens 1 can be performed appropriately.

(3)また、マイコン9に第二加算回路を設けることとしてもよい。この場合、マイコン9は、垂直転送回路163、水平転送回路162により同じ分光感度特性を有する各画素の電荷を加算し、その加算された電荷を第二加算回路により分光感度特性の異なる画素についてさらに加算して、その加算結果に基づいてデフォーカス量を検出することができる。このようにすれば、エリアセンサ16において分光感度特性の異なる画素について画素を加算できない場合でも、マイコン9によりデフォーカス量を検出することができる。 (3) The microcomputer 9 may be provided with a second addition circuit. In this case, the microcomputer 9 adds the charges of the respective pixels having the same spectral sensitivity characteristics by the vertical transfer circuit 163 and the horizontal transfer circuit 162, and further adds the added charges to the pixels having different spectral sensitivity characteristics by the second addition circuit. The defocus amount can be detected based on the addition result. In this way, the defocus amount can be detected by the microcomputer 9 even when the area sensor 16 cannot add pixels for pixels having different spectral sensitivity characteristics.

(4)加算範囲設定部164は、センサアレイ部161の複数の画素のうち、撮影レンズ1による画面内に設定された焦点検出領域に対応する画素の範囲をセンサアレイ部161に対して設定することとした。このようにしたので、不要な電荷蓄積量の読み出しを防ぎ、短時間でAF処理を行うことができる。 (4) The addition range setting unit 164 sets, for the sensor array unit 161, a pixel range corresponding to the focus detection region set in the screen by the photographing lens 1 among the plurality of pixels of the sensor array unit 161. It was decided. Since it did in this way, reading of an unnecessary charge accumulation amount can be prevented and AF processing can be performed in a short time.

(5)また、焦点検出領域の位置を変更可能としてもよい。その場合、加算範囲設定部164は、焦点検出領域の位置の変更に応じて、センサアレイ部161に対して設定する画素の範囲を変更する。このようにすれば、焦点検出領域の位置が変更されても、マイコン9によってデフォーカス量を正しく検出することができる。 (5) The position of the focus detection area may be changeable. In this case, the addition range setting unit 164 changes the pixel range set for the sensor array unit 161 in accordance with the change in the position of the focus detection region. In this way, even if the position of the focus detection area is changed, the defocus amount can be correctly detected by the microcomputer 9.

(6)加算範囲設定部164は、マイコン9が実行する制御の種類、入射する光の輝度、撮影レンズ1の焦点距離、撮影レンズ1による撮影距離などに応じて、垂直転送回路163、水平転送回路162によって電荷を加算する画素の範囲をセンサアレイ部161に対して設定することとした。このようにしたので、状況に応じて適切な範囲を設定することができる。 (6) The addition range setting unit 164 performs vertical transfer circuit 163 and horizontal transfer according to the type of control executed by the microcomputer 9, the brightness of incident light, the focal length of the photographing lens 1, the photographing distance by the photographing lens 1, and the like. The range of pixels to which charges are added by the circuit 162 is set for the sensor array unit 161. Since it did in this way, an appropriate range can be set according to a situation.

(7)マイコン9は、撮影レンズ1による像の判別を行う主要被写体判別処理と露出演算処理の少なくとも一方の制御、および、撮影レンズ1の焦点検出制御のためのAF処理を行う。加算範囲設定部164は、マイコン9が主要被写体判別処理または露出演算処理を制御する場合は、センサアレイ部161に対して複数の画素がほぼ正方形状の範囲を設定すると共に、マイコン9がAF処理を行う場合は、センサアレイ部161に対して長方形状の範囲を設定することとした。このようにしたので、主要被写体判別処理または露出演算処理においては、横方向と縦方向とを同じ分解能で処理することができ、AF処理においては、電荷の蓄積時間や読み出し時間を短縮すると共に、分解能を向上させることができる。 (7) The microcomputer 9 performs control of at least one of main subject discrimination processing and exposure calculation processing for discriminating an image by the photographing lens 1, and AF processing for focus detection control of the photographing lens 1. When the microcomputer 9 controls the main subject determination process or the exposure calculation process, the addition range setting unit 164 sets a range in which a plurality of pixels are substantially square with respect to the sensor array unit 161 and the microcomputer 9 performs the AF process. When performing the above, a rectangular range is set for the sensor array portion 161. In this way, in the main subject discrimination process or the exposure calculation process, the horizontal direction and the vertical direction can be processed with the same resolution. In the AF process, the charge accumulation time and readout time are shortened, The resolution can be improved.

(8)垂直転送回路163、水平転送回路162は、マイコン9が主要被写体判別処理または露出演算処理を制御する場合は、同じ分光感度特性を有する画素の電荷を加算することとした。このようにしたので、色情報を取得して主要被写体の判別処理や露出演算処理を適切に行うことができる。 (8) The vertical transfer circuit 163 and the horizontal transfer circuit 162 add the charges of pixels having the same spectral sensitivity characteristics when the microcomputer 9 controls the main subject determination process or the exposure calculation process. Since it did in this way, color information can be acquired and the main subject discrimination processing and exposure calculation processing can be appropriately performed.

(9)加算範囲設定部164は、焦点検出装置5が検出する撮影レンズ1による像の状態に応じて、垂直転送回路163、水平転送回路162が加算する画素の範囲をセンサアレイ部161に対して設定する。このようにしたので、上記と同様に、一つのエリアセンサ16を複数の用途に利用する際、用途ごとに適した出力をエリアセンサ16から得ることができる。 (9) The addition range setting unit 164 indicates the pixel range to be added by the vertical transfer circuit 163 and the horizontal transfer circuit 162 to the sensor array unit 161 according to the state of the image by the photographing lens 1 detected by the focus detection device 5. To set. Since it did in this way, when using one area sensor 16 for a plurality of uses like the above, the output suitable for every use can be obtained from area sensor 16.

−変形例−
なお、上記の実施の形態では、マイコン9は、エリアセンサ16または撮像素子12を用いて撮影レンズ1からの受光量を検出し、AF処理、主要被写体の判別処理または露出算出処理を行うこととした。しかし、エリアセンサ16または撮像素子12の代わりに、EVF(Electronic View Finder:電子ビューファインダ)用のセンサにより撮影レンズ1からの受光量を検出し、その検出結果に基づいてマイコン9の各処理を行うようにしてもよい。
-Modification-
In the above-described embodiment, the microcomputer 9 detects the amount of light received from the photographing lens 1 using the area sensor 16 or the image sensor 12, and performs AF processing, main subject discrimination processing, or exposure calculation processing. did. However, instead of the area sensor 16 or the image sensor 12, the received light amount from the photographing lens 1 is detected by an EVF (Electronic View Finder) sensor, and each process of the microcomputer 9 is performed based on the detection result. You may make it perform.

図13は、本変形例によるカメラの構成図である。図13に示すカメラにおいて、カメラ本体200には、図1のペンタプリズム6、接眼レンズ15およびペンタプリズム6に替えて、EVF用センサ17とEVF光学系20が設けられている。撮影レンズ1を介してカメラ本体200へ入射された光のうち、メインミラー13において反射された光は、EVF光学系20により、撮像素子12と光学的に等価な位置に設けられたEVF用センサ17上に結像される。このEVF用センサ17により、撮影前の被写体像が撮像され、背面モニタ18に表示される。   FIG. 13 is a configuration diagram of a camera according to this modification. In the camera shown in FIG. 13, the camera body 200 is provided with an EVF sensor 17 and an EVF optical system 20 instead of the pentaprism 6, the eyepiece lens 15, and the pentaprism 6 of FIG. 1. Of the light incident on the camera body 200 via the photographing lens 1, the light reflected by the main mirror 13 is an EVF sensor provided by the EVF optical system 20 at a position optically equivalent to the image sensor 12. 17 is imaged. The EVF sensor 17 captures a subject image before photographing and displays it on the rear monitor 18.

EVF用センサ17は、エリアセンサ16や撮像素子12と同様の構造を有している。したがって、このEVF用センサ17において、前述のように電荷を加算する画素の範囲を設定することにより、一つのEVF用センサ17を複数の用途に利用する際、用途ごとに適した出力をEVF用センサ17から得ることができる。なお、AF処理を行う場合、コントラスト検出方式を用いてもよい。または、撮像素子12の撮像画素配列中に瞳分割式の位相差検出を行うための焦点検出用画素の配列を混在させ、この焦点検出用画素を用いてデフォーカス量を検出してもよい。あるいは、AF処理については焦点検出装置5を用いて行うようにしてもよい。   The EVF sensor 17 has the same structure as the area sensor 16 and the image sensor 12. Therefore, in this EVF sensor 17, by setting the range of pixels to which charges are added as described above, when one EVF sensor 17 is used for a plurality of uses, an output suitable for each use is used for the EVF. It can be obtained from the sensor 17. Note that when performing AF processing, a contrast detection method may be used. Alternatively, an array of focus detection pixels for performing pupil division type phase difference detection may be mixed in the image pickup pixel array of the image sensor 12, and the defocus amount may be detected using the focus detection pixels. Alternatively, the AF processing may be performed using the focus detection device 5.

以上説明した実施の形態や変形例においては、レンズ鏡筒が交換可能なカメラとして説明したが、これに限定されるものではなく、レンズ一体型のカメラであってもよい。また、撮像素子を用いたデジタルカメラに限らず、フィルムカメラに適用してもよい。   In the embodiments and modifications described above, the lens barrel has been described as a replaceable camera. However, the present invention is not limited to this, and a lens-integrated camera may be used. Further, the present invention is not limited to a digital camera using an image sensor, and may be applied to a film camera.

以上説明した実施の形態や変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。本発明の技術的思想の範囲内で考えられるその他の態様についても、本発明の範囲内に含まれる。   The embodiments and modifications described above are merely examples, and the present invention is not limited to these contents as long as the features of the invention are not impaired. Other aspects conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

本発明の一実施の形態によるカメラの構成図である。It is a block diagram of the camera by one embodiment of this invention. 撮影時のカメラの動作の様子を示す図である。It is a figure which shows the mode of operation | movement of the camera at the time of imaging | photography. CCD方式による二次元イメージセンサを用いたエリアセンサの概略的な構成図である。1 is a schematic configuration diagram of an area sensor using a CCD type two-dimensional image sensor. FIG. 加算モード決定フローのフローチャートである。It is a flowchart of an addition mode determination flow. 低輝度時にAF処理を行う際に設定される画素の範囲の例を示す図である。It is a figure which shows the example of the range of the pixel set when performing AF process at the time of low brightness | luminance. 高輝度時にAF処理を行う際に設定される画素の範囲の例を示す図である。It is a figure which shows the example of the range of the pixel set when performing AF process at the time of high brightness | luminance. ワイドレンズ使用時にAF処理を行う際に設定される画素の範囲の例を示す図である。It is a figure which shows the example of the range of the pixel set when performing AF process at the time of wide lens use. 主要被写体の判別処理または露出演算処理の際に設定される画素の範囲の例を示す図であり、Rの画素について電荷を加算する様子を示している。It is a figure which shows the example of the range of the pixel set in the discrimination | determination process of a main subject, or an exposure calculation process, and shows a mode that an electric charge is added about R pixel. 主要被写体の判別処理または露出演算処理の際に設定される画素の範囲の例を示す図であり、Gの画素について電荷を加算する様子を示している。It is a figure which shows the example of the range of the pixel set in the discrimination | determination process of a main subject, or an exposure calculation process, and has shown a mode that an electric charge is added about the pixel of G. 主要被写体の判別処理または露出演算処理の際に設定される画素の範囲の例を示す図であり、Bの画素について電荷を加算する様子を示している。It is a figure which shows the example of the range of the pixel set in the discrimination | determination process of a main subject, or an exposure calculation process, and has shown a mode that an electric charge is added about the B pixel. 焦点検出光学系の構成を示す斜視図である。It is a perspective view which shows the structure of a focus detection optical system. 焦点検出光学系をy軸方向から見た光路図である。It is the optical path figure which looked at the focus detection optical system from the y-axis direction. 本発明の変形例によるカメラの構成図である。It is a block diagram of the camera by the modification of this invention.

符号の説明Explanation of symbols

1:撮影レンズ、2:絞り、3:駆動機構、4:レンズデータ部、5:焦点検出装置、
6:ペンタプリズム、7:信号処理部、8:駆動モータ、9:マイコン、
10:カップリング部、11:シャッター、12:撮像素子、13:メインミラー、
14:サブミラー、15:接眼レンズ、16:エリアセンサ、17:EVF用センサ、
18:背面モニタ、19:ファインダースクリーン、20:EVF光学系、
100:レンズ部、200:カメラ本体
1: photographing lens, 2: aperture, 3: drive mechanism, 4: lens data section, 5: focus detection device,
6: Penta prism, 7: Signal processing unit, 8: Drive motor, 9: Microcomputer,
10: coupling unit, 11: shutter, 12: image sensor, 13: main mirror,
14: Submirror, 15: Eyepiece, 16: Area sensor, 17: EVF sensor,
18: Rear monitor, 19: Viewfinder screen, 20: EVF optical system,
100: Lens part, 200: Camera body

Claims (16)

受光量に応じた電荷を蓄積する複数の光電変換部が配列された受光素子であって、
複数の前記光電変換部の電荷を加算する加算手段と、
前記加算手段によって電荷を加算する前記光電変換部の範囲を設定する加算範囲設定手段とを備えることを特徴とする受光素子。
A light receiving element in which a plurality of photoelectric conversion units that accumulate electric charges according to the amount of received light are arranged,
Adding means for adding the charges of the plurality of photoelectric conversion units;
An addition range setting unit that sets a range of the photoelectric conversion unit that adds charges by the addition unit.
請求項1に記載の受光素子と、
異なる前記範囲に対応して加算された前記電荷を出力可能な出力手段とを備えたことを特徴とする受光装置。
A light receiving element according to claim 1;
And an output means capable of outputting the charges added corresponding to the different ranges.
請求項1に記載の受光素子と、
結像光学系を介した光を前記受光素子へ導く焦点検出光学系と、
前記加算手段により加算された前記電荷に応じた信号に基づいて、前記結像光学系の焦点調節状態を検出する焦点検出手段とを備えることを特徴とする焦点検出装置。
A light receiving element according to claim 1;
A focus detection optical system for guiding light through the imaging optical system to the light receiving element;
A focus detection apparatus comprising: focus detection means for detecting a focus adjustment state of the imaging optical system based on a signal corresponding to the charge added by the addition means.
請求項3に記載の焦点検出装置において、
前記複数の光電変換部は、異なる分光感度特性を有し、
前記加算手段は、前記範囲内の光電変換部のうち前記分光感度特性が同じ光電変換部の電荷を加算し、
前記加算手段により加算された電荷を、前記分光感度特性の異なる光電変換部について加算する第2の加算手段をさらに備え、
前記焦点検出手段は、前記第2の加算手段によって加算された電荷に応じた信号に基づいて前記焦点調節状態を検出することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 3,
The plurality of photoelectric conversion units have different spectral sensitivity characteristics,
The adding means adds the charges of the photoelectric conversion units having the same spectral sensitivity characteristic among the photoelectric conversion units within the range,
A second addition means for adding the charges added by the addition means for the photoelectric conversion units having different spectral sensitivity characteristics;
The focus detection apparatus, wherein the focus detection unit detects the focus adjustment state based on a signal corresponding to the electric charge added by the second addition unit.
請求項3または4に記載の焦点検出装置において、
前記加算範囲設定手段は、前記複数の光電変換部のうち、前記結像光学系による画面内に設定された焦点検出領域に対応する光電変換部の範囲を設定することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 3 or 4,
The addition range setting means sets a range of a photoelectric conversion unit corresponding to a focus detection region set in a screen by the imaging optical system among the plurality of photoelectric conversion units. .
請求項5に記載の焦点検出装置において、
前記画面内における前記焦点検出領域の位置を変更可能であり、
前記加算範囲設定手段は、前記焦点検出領域の位置の変更に応じて前記範囲を変更することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 5,
The position of the focus detection area in the screen can be changed,
The focus detection apparatus characterized in that the addition range setting means changes the range according to a change in the position of the focus detection area.
請求項3〜6のいずれか一項に記載の焦点検出装置において、
前記加算範囲設定手段は、前記結像光学系の焦点距離に応じて前記範囲を設定することを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 3 to 6,
The focus detection apparatus characterized in that the addition range setting means sets the range in accordance with a focal length of the imaging optical system.
請求項1に記載の受光素子と、
前記電荷に基づいて、異なる複数の制御を実行可能な制御手段とを備えたカメラであって、
前記加算範囲設定手段は、前記制御手段が実行する前記制御の種類に応じて、前記範囲を設定することを特徴とするカメラ。
A light receiving element according to claim 1;
A camera having control means capable of executing a plurality of different controls based on the charge,
The camera according to claim 1, wherein the addition range setting means sets the range according to a type of the control executed by the control means.
請求項1に記載の受光素子と、
前記受光素子上に光束の像を結像する結像光学系を備えたカメラにおいて、
前記加算範囲設定手段は、前記結像光学系の焦点距離に応じて前記範囲を設定することを特徴とするカメラ。
A light receiving element according to claim 1;
In a camera including an imaging optical system that forms an image of a light beam on the light receiving element,
The camera according to claim 1, wherein the addition range setting means sets the range in accordance with a focal length of the imaging optical system.
請求項8に記載のカメラにおいて、
前記受光素子上に光束の像を結像する結像光学系を備え、
前記制御手段は、前記結像光学系による像の判別処理と露出演算処理の少なくとも一方の制御、および前記結像光学系の焦点検出制御を行うことを特徴とするカメラ。
The camera according to claim 8, wherein
An imaging optical system that forms an image of a light beam on the light receiving element;
The camera according to claim 1, wherein the control means performs control of at least one of image discrimination processing and exposure calculation processing by the imaging optical system, and focus detection control of the imaging optical system.
請求項10に記載のカメラにおいて、
前記加算範囲設定手段は、前記制御手段が前記判別処理または前記露出演算処理を制御する場合は、前記複数の光電変換部がほぼ正方形状の範囲を設定するとともに、前記制御手段が前記焦点検出制御を行う場合は、長方形状の範囲を設定することを特徴とするカメラ。
The camera of claim 10, wherein
When the control unit controls the determination process or the exposure calculation process, the addition range setting unit sets the substantially square range in the plurality of photoelectric conversion units, and the control unit controls the focus detection control. A camera characterized by setting a rectangular range when performing.
請求項10または11に記載のカメラにおいて、
前記複数の光電変換部は、異なる分光感度特性を有し、
前記加算手段は、前記制御手段が前記判別処理または前記露出演算処理を制御する場合は、同じ分光感度特性を有する前記光電変換部の電荷を加算することを特徴とするカメラ。
The camera according to claim 10 or 11,
The plurality of photoelectric conversion units have different spectral sensitivity characteristics,
The addition unit adds the charges of the photoelectric conversion units having the same spectral sensitivity characteristics when the control unit controls the determination process or the exposure calculation process.
請求項8〜12のいずれか一項に記載のカメラにおいて、
入射する光の輝度を検出する輝度検出手段をさらに備え、
前記加算範囲設定手段は、前記輝度検出手段により検出された前記輝度に応じて前記範囲を設定することを特徴とするカメラ。
The camera according to any one of claims 8 to 12,
A luminance detecting means for detecting the luminance of the incident light;
The camera according to claim 1, wherein the addition range setting unit sets the range in accordance with the luminance detected by the luminance detection unit.
請求項9〜13のいずれか一項に記載のカメラにおいて、
前記加算範囲設定手段は、前記結像光学系による撮影距離に応じて前記範囲を設定することを特徴とするカメラ。
The camera according to any one of claims 9 to 13,
The camera according to claim 1, wherein the addition range setting means sets the range according to a shooting distance by the imaging optical system.
請求項10〜14のいずれか一項に記載のカメラにおいて、
前記加算範囲設定手段は、前記結像光学系の焦点距離に応じて前記範囲を設定することを特徴とするカメラ。
The camera according to any one of claims 10 to 14,
The camera according to claim 1, wherein the addition range setting means sets the range in accordance with a focal length of the imaging optical system.
結像光学系を介して入射する光に応じた電荷を蓄積する複数の光電変換部が配列された受光素子と、
複数の前記光電変換部の電荷を加算する加算手段と、
前記電荷に基づいて前記結像光学系による像の第1状態と、該第1状態と異なる第2状態とを検出する検出手段と、
前記検出手段が検出する状態に応じて前記加算手段が加算する前記光電変換部の範囲を設定する加算範囲設定手段とを備えたことを特徴とするカメラ。
A light receiving element in which a plurality of photoelectric conversion units that accumulate charges according to light incident through the imaging optical system are arranged;
Adding means for adding the charges of the plurality of photoelectric conversion units;
Detecting means for detecting a first state of the image by the imaging optical system based on the charge and a second state different from the first state;
An addition range setting unit configured to set a range of the photoelectric conversion unit added by the addition unit according to a state detected by the detection unit.
JP2007195886A 2007-07-27 2007-07-27 Light receiving element, light receiver, focus detecting device, camera Pending JP2009031562A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007195886A JP2009031562A (en) 2007-07-27 2007-07-27 Light receiving element, light receiver, focus detecting device, camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007195886A JP2009031562A (en) 2007-07-27 2007-07-27 Light receiving element, light receiver, focus detecting device, camera

Publications (1)

Publication Number Publication Date
JP2009031562A true JP2009031562A (en) 2009-02-12

Family

ID=40402129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007195886A Pending JP2009031562A (en) 2007-07-27 2007-07-27 Light receiving element, light receiver, focus detecting device, camera

Country Status (1)

Country Link
JP (1) JP2009031562A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102830045A (en) * 2012-07-26 2012-12-19 浙江理工大学 Fabric spray rating objective evaluating method based on image processing
WO2015141081A1 (en) * 2014-03-18 2015-09-24 富士フイルム株式会社 Imaging device and focus control method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63172207A (en) * 1987-01-12 1988-07-15 Canon Inc Focus detector
JPH04175618A (en) * 1990-11-07 1992-06-23 Canon Inc Photoelectric sensor
JPH0983860A (en) * 1995-09-07 1997-03-28 Hitachi Ltd Image pickup device
JPH10126682A (en) * 1996-10-17 1998-05-15 Minolta Co Ltd Image detection system
JP2000324377A (en) * 1999-05-10 2000-11-24 Olympus Optical Co Ltd Electronic image pickup unit
JP2005345501A (en) * 2004-05-31 2005-12-15 Nikon Corp Electronic camera
JP2006071656A (en) * 2004-08-31 2006-03-16 Canon Inc Focus detector
JP2007148338A (en) * 2005-11-07 2007-06-14 Canon Inc Optical apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63172207A (en) * 1987-01-12 1988-07-15 Canon Inc Focus detector
JPH04175618A (en) * 1990-11-07 1992-06-23 Canon Inc Photoelectric sensor
JPH0983860A (en) * 1995-09-07 1997-03-28 Hitachi Ltd Image pickup device
JPH10126682A (en) * 1996-10-17 1998-05-15 Minolta Co Ltd Image detection system
JP2000324377A (en) * 1999-05-10 2000-11-24 Olympus Optical Co Ltd Electronic image pickup unit
JP2005345501A (en) * 2004-05-31 2005-12-15 Nikon Corp Electronic camera
JP2006071656A (en) * 2004-08-31 2006-03-16 Canon Inc Focus detector
JP2007148338A (en) * 2005-11-07 2007-06-14 Canon Inc Optical apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102830045A (en) * 2012-07-26 2012-12-19 浙江理工大学 Fabric spray rating objective evaluating method based on image processing
WO2015141081A1 (en) * 2014-03-18 2015-09-24 富士フイルム株式会社 Imaging device and focus control method
JP5982600B2 (en) * 2014-03-18 2016-08-31 富士フイルム株式会社 Imaging apparatus and focus control method
CN106062607B (en) * 2014-03-18 2018-09-25 富士胶片株式会社 Photographic device and focusing control method

Similar Documents

Publication Publication Date Title
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
JP3975395B2 (en) Camera system
US8259215B2 (en) Image pickup apparatus having focus control using phase difference detection
EP2340455B1 (en) Camera and camera system
US7620312B2 (en) Focus detection apparatus and signal processing method for focus detection
JP2012113171A (en) Imaging device and control method therefor
JP5402298B2 (en) Focus detection device and camera
JP5963552B2 (en) Imaging device
JP2006254413A (en) Imaging apparatus and camera body
JP2010014788A (en) Imaging element and imaging device
JP2013113857A (en) Imaging device, and control method therefor
JP2017032646A (en) Image-capturing device and method for controlling the same
JP4693709B2 (en) Image processing apparatus and image processing method
JP6656584B2 (en) Imaging equipment
JP2015043026A (en) Image capturing device and control method therefor
JP6561437B2 (en) Focus adjustment device and imaging device
JP6845912B2 (en) Imaging device and its control method
JP2009031562A (en) Light receiving element, light receiver, focus detecting device, camera
JP2006023653A (en) Optical equipment
JP5590850B2 (en) Imaging device and focus control method of imaging device
JP2011125055A (en) Imaging apparatus, and camera body
JP2017032874A (en) Focus detection device and method, and imaging apparatus
JP2014211589A (en) Focus adjustment device and imaging device
JP2019074634A (en) Imaging apparatus
JP2018205762A (en) Focus adjustment device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110812

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121113