JP2008039976A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2008039976A
JP2008039976A JP2006211902A JP2006211902A JP2008039976A JP 2008039976 A JP2008039976 A JP 2008039976A JP 2006211902 A JP2006211902 A JP 2006211902A JP 2006211902 A JP2006211902 A JP 2006211902A JP 2008039976 A JP2008039976 A JP 2008039976A
Authority
JP
Japan
Prior art keywords
optical system
optical path
focus
focus detection
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006211902A
Other languages
Japanese (ja)
Other versions
JP4863370B2 (en
Inventor
Makoto Oikawa
真 追川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006211902A priority Critical patent/JP4863370B2/en
Publication of JP2008039976A publication Critical patent/JP2008039976A/en
Application granted granted Critical
Publication of JP4863370B2 publication Critical patent/JP4863370B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of enhancing the precision of a focus detection result by a phase difference detection system. <P>SOLUTION: The imaging apparatus includes: a first detection means (135) for detecting the focusing state of a photographing optical system by a contrast detection system by using the output of an imaging device (106); a second detection means (167) for detecting the focusing state of the photographing optical system by the phase difference detection system; light splitting means (111 and 122) for splitting the luminous flux from the photographing optical system and guiding the luminous flux to the imaging device and the second detection means; and a control means (135) for correcting the detection result of the second detection means based on the detection result of the first detection means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮影光学系の焦点調節状態を2つの検出手段を用いて検出し、一方の検出手段の検出結果に基づいて、他方の検出手段の検出結果を補正する撮像装置に関するものである。   The present invention relates to an imaging apparatus that detects a focus adjustment state of a photographing optical system using two detection units and corrects the detection result of the other detection unit based on the detection result of one detection unit.

従来、撮影光学系の焦点調節状態を検出する方式としては、コントラスト検出方式と位相差検出方式が知られている。   Conventionally, a contrast detection method and a phase difference detection method are known as methods for detecting the focus adjustment state of the photographing optical system.

コントラスト検出方式とは、撮影光学系によって形成された被写体像の鮮鋭度を撮像素子の出力を所定の関数で評価することによって求め、関数値が極値をとるように撮影光学系に含まれるフォーカスレンズの位置(光軸方向の位置)を調節するものである。ここで、評価関数としては、隣接する画素における輝度信号の差の絶対値を焦点検出領域内で加算するもの、隣接する画素における輝度信号の差の2乗を焦点検出領域内で加算するもの、又はR、G、Bの各画素の出力信号について隣接する信号の差を上記と同様に処理するもの等がある。   The contrast detection method is the focus included in the photographic optical system so that the sharpness of the subject image formed by the photographic optical system is obtained by evaluating the output of the image sensor with a predetermined function, and the function value takes an extreme value. The lens position (position in the optical axis direction) is adjusted. Here, as an evaluation function, an absolute value of a difference between luminance signals in adjacent pixels is added in the focus detection area, a square of a difference in luminance signal in adjacent pixels is added in the focus detection area, Alternatively, there is one that processes the difference between adjacent signals in the same manner as described above for the output signals of the R, G, and B pixels.

一般に、コントラスト検出方式では、焦点検出に用いるセンサと撮像に用いるセンサが同一であるため、経時変化に強く、焦点検出の精度も高いという特徴がある。しかし、フォーカスレンズを光軸方向に僅かに移動させながら評価関数値を求めているために、合焦状態となるまでの時間がかかりすぎることもある。   In general, the contrast detection method is characterized in that the sensor used for focus detection and the sensor used for imaging are the same, so that it is resistant to changes with time and the focus detection accuracy is high. However, since the evaluation function value is obtained while slightly moving the focus lens in the optical axis direction, it may take too much time to reach the in-focus state.

一方、位相差検出方式では、コントラスト検出方式に比べて、撮影光学系の焦点調節に要する時間が短いという特徴がある。この位相差検出方式は、特許文献1にも開示されているように公知の技術である。すなわち、位相差検出方式では、撮影光学系の異なる射出瞳領域を通過した光束によって形成された一対の被写体像の相対的な位置関係に基づいて、撮影光学系の焦点調節状態を検出するものである。   On the other hand, the phase difference detection method is characterized in that the time required for focus adjustment of the photographing optical system is shorter than that of the contrast detection method. This phase difference detection method is a known technique as disclosed in Patent Document 1. In other words, the phase difference detection method detects the focus adjustment state of the photographing optical system based on the relative positional relationship between a pair of subject images formed by light beams that have passed through different exit pupil regions of the photographing optical system. is there.

ここで、位相差検出方式では、合焦位置に対するずれ量とずれ方向がわかるため、この量及び方向に基づいてフォーカスレンズを移動させるだけでよく、コントラスト検出方式のように、フォーカスレンズを全移動範囲で移動させる必要がない。また、コントラスト検出方式では、フォーカスレンズを移動させるたびに、評価関数値を求めているが、位相差検出方式では、1回の検出によって撮影光学系の焦点調節状態を検出することができる。   Here, in the phase difference detection method, since the shift amount and shift direction with respect to the in-focus position are known, it is only necessary to move the focus lens based on this amount and direction, and the focus lens is moved completely as in the contrast detection method. There is no need to move the range. In the contrast detection method, the evaluation function value is obtained every time the focus lens is moved. In the phase difference detection method, the focus adjustment state of the photographing optical system can be detected by one detection.

しかし、位相差検出方式では、焦点検出に用いるセンサと撮像に用いるセンサとが異なるために、経時変化の影響を受けやすく、コントラスト検出方式に比べて、焦点検出の精度が低いという問題がある。   However, in the phase difference detection method, the sensor used for focus detection is different from the sensor used for imaging, so that it is easily affected by changes over time, and there is a problem that the accuracy of focus detection is lower than that of the contrast detection method.

一眼レフレックスタイプのカメラでは、撮影光学系からの光(被写体光)を、ハーフミラーで反射させて、ペンタプリズム等を含むファインダ光学系(OVF、Optical View Finder)に導くことで、撮影光学系で形成された被写体像を正像として観察することができる。また、ハーフミラーを透過した光は、ハーフミラーの後方に位置するサブミラーによって反射され、位相差方式の焦点検出ユニットに導かれる。ファインダ光学系を介して被写体像を観察する場合には、ハーフミラーが撮影光路内に位置しており、焦点検出ユニットにも被写体光が導かれるようになっている。   In a single-lens reflex type camera, the light from the photographing optical system (subject light) is reflected by a half mirror and guided to a finder optical system (OVF, Optical View Finder) including a pentaprism, etc. It is possible to observe the subject image formed in step 1 as a normal image. The light transmitted through the half mirror is reflected by a sub-mirror located behind the half mirror and guided to a phase difference type focus detection unit. When the subject image is observed through the finder optical system, the half mirror is located in the photographing optical path, and the subject light is also guided to the focus detection unit.

上述した構成のカメラにおいて、ハーフミラー及びサブミラーは、カメラ本体内に設けられた位置決め部材との当接によって、所定位置(撮影光路から退避した第1位置と、撮影光路内の第2位置)に位置決めされる。この構成では、上記ミラーの第1位置及び第2位置間の動作が繰り返し行われることで、位置決め部材との当接面が摩耗し、撮影光路内におけるハーフミラー及びサブミラーの位置が変化してしまうことがある。   In the camera having the above-described configuration, the half mirror and the sub mirror are brought into predetermined positions (a first position retracted from the photographing optical path and a second position in the photographing optical path) by contact with a positioning member provided in the camera body. Positioned. In this configuration, the operation between the first position and the second position of the mirror is repeatedly performed, so that the contact surface with the positioning member is worn, and the positions of the half mirror and the sub mirror in the photographing optical path are changed. Sometimes.

このようにミラーの位置が変化すると、ハーフミラーで反射した光束の焦点検出ユニットに対する入射角度が変化してしまうことがある。この場合には、焦点検出ユニットの焦点検出結果(位相差検出方式)に基づく合焦位置と、撮像素子を用いた焦点検出結果(コントラスト検出方式)に基づく合焦位置との関係が、初期状態の位置関係に対して変化してしまう。すなわち、焦点検出ユニットで得られる焦点検出結果に誤差が生じてしまう。   When the mirror position changes in this way, the incident angle of the light beam reflected by the half mirror with respect to the focus detection unit may change. In this case, the relationship between the focus position based on the focus detection result (phase difference detection method) of the focus detection unit and the focus position based on the focus detection result (contrast detection method) using the image sensor is the initial state. It will change with respect to the positional relationship. That is, an error occurs in the focus detection result obtained by the focus detection unit.

そこで、位相差検出方式による焦点検出結果の誤差を抑制するために、コントラスト検出方式による検出結果を用いて、位相差検出方式による検出結果を補正することが考えられる。   Therefore, in order to suppress an error in the focus detection result by the phase difference detection method, it is conceivable to correct the detection result by the phase difference detection method using the detection result by the contrast detection method.

ここで、特許文献2には、手動で位相差検出方式とコントラスト検出方式を選択できるカメラが開示されている。位相差検出方式が選択された場合には、ミラーが撮影光路内に位置し、被写体光がミラーで反射して焦点検出ユニットに導かれる。これにより、焦点検出ユニットにおいて、位相差検出方式による焦点検出が行われる。一方、コントラスト検出方式が選択された場合には、ミラーが撮影光路から退避することにより、被写体光が撮像素子側に導かれる。これにより、撮像素子の出力を用いてコントラスト検出方式による焦点検出が行われる。   Here, Patent Document 2 discloses a camera that can manually select a phase difference detection method and a contrast detection method. When the phase difference detection method is selected, the mirror is positioned in the photographing optical path, and the subject light is reflected by the mirror and guided to the focus detection unit. Thereby, the focus detection by the phase difference detection method is performed in the focus detection unit. On the other hand, when the contrast detection method is selected, the subject light is guided to the image sensor side by retracting the mirror from the photographing optical path. Thereby, focus detection by the contrast detection method is performed using the output of the image sensor.

上述したカメラの構成においては、コントラスト検出方式による焦点検出結果を用いて、位相差検出方式による焦点検出結果を補正することができる。   In the above-described camera configuration, the focus detection result by the phase difference detection method can be corrected using the focus detection result by the contrast detection method.

一方、同一のタイミングにおける同一の被写体に対して、位相差検出方式及びコントラスト検出方式を行うことが可能な撮像装置がある(例えば、特許文献3参照)。この撮像装置では、単一の光電変換部を構成する第1光電変換部群と、2分割された光電変換部を構成する第2光電変換部群とを備えた撮像素子を有している。そして、第2光電変換部群における1対の光電変換部から出力される像信号の位相差に基づいて、撮影光学系の焦点状態を検出している。そして、この構成によれば、第1光電変換部群又は第2光電変換部群からの出力信号を用いてコントラスト検出方式による焦点検出を行うことができる。
特開平05−127074号公報(段落番号0023、図1等) 特開2001−275033号公報(図2等) 特開2000−292685号公報(段落番号0046−0077、図4等)
On the other hand, there is an imaging apparatus that can perform a phase difference detection method and a contrast detection method on the same subject at the same timing (see, for example, Patent Document 3). This imaging apparatus has an imaging device including a first photoelectric conversion unit group constituting a single photoelectric conversion unit and a second photoelectric conversion unit group constituting a photoelectric conversion unit divided into two. The focus state of the photographing optical system is detected based on the phase difference between the image signals output from the pair of photoelectric conversion units in the second photoelectric conversion unit group. And according to this structure, the focus detection by a contrast detection system can be performed using the output signal from a 1st photoelectric conversion part group or a 2nd photoelectric conversion part group.
Japanese Patent Laid-Open No. 05-127074 (paragraph number 0023, FIG. 1, etc.) JP 2001-275033 A (FIG. 2 etc.) JP 2000-292585 (paragraph number 0046-0077, FIG. 4 etc.)

しかしながら、特許文献2に記載のカメラでは、ミラーが撮影光路内に位置しているときには、位相差検出方式による焦点検出しか行うことができず、ミラーが撮影光路から退避しているときには、コントラスト検出方式による焦点検出しか行うことができない。この場合には、位相差検出方式の焦点検出を行うタイミングと、コントラスト検出方式の焦点検出を行うタイミングがずれてしまう。   However, in the camera described in Patent Document 2, focus detection by the phase difference detection method can be performed only when the mirror is located in the photographing optical path, and contrast detection is performed when the mirror is retracted from the photographing optical path. Only focus detection by the method can be performed. In this case, the timing for performing the focus detection by the phase difference detection method and the timing for performing the focus detection by the contrast detection method are shifted.

したがって、位相差検出方式による焦点検出結果と、コントラスト検出方式による焦点検出結果は、時間的に同一の被写体像に対する焦点検出結果ではないことになる。例えば、位相差検出方式及びコントラスト検出方式による焦点検出のタイミング間で、被写体が動いたり、手振れ等によって撮像装置が動いたりした場合には、異なる被写体に対して焦点検出を行うことになってしまう。すなわち、位相差検出方式及びコントラスト検出方式による焦点検出結果の整合性を図ることができない。   Therefore, the focus detection result by the phase difference detection method and the focus detection result by the contrast detection method are not the focus detection results for the same subject image in terms of time. For example, if the subject moves between the timings of focus detection by the phase difference detection method and the contrast detection method, or if the imaging device moves due to camera shake or the like, focus detection is performed on different subjects. . That is, the consistency of the focus detection results by the phase difference detection method and the contrast detection method cannot be achieved.

ここで、特許文献3に記載の撮像装置では、同一のタイミングにおいて、位相差検出方式及びコントラスト検出方式による焦点検出を行うことができるが、以下に説明する問題が生じる。   Here, in the imaging device described in Patent Document 3, focus detection can be performed by the phase difference detection method and the contrast detection method at the same timing, but the following problems arise.

特許文献3に記載の構成において、光電変換部を2分割すると、光電変換部に蓄積された電荷を垂直転送路に転送するためのトランスファーゲートが2倍必要になる。しかも、トランスファーゲートを駆動するための回路が必要になり、撮像素子の構造が複雑になってしまう。このような複雑な構造を実現するためには、高度な微細化が必要であり、撮像装置のコストアップとなってしまう。   In the configuration described in Patent Document 3, when the photoelectric conversion unit is divided into two, twice as many transfer gates are required to transfer charges accumulated in the photoelectric conversion unit to the vertical transfer path. In addition, a circuit for driving the transfer gate is required, and the structure of the image sensor is complicated. In order to realize such a complicated structure, a high degree of miniaturization is required, which increases the cost of the imaging apparatus.

また、第2光電変換部群は第1光電変換部群と受光部形状が異なるために、感度が異なるとともに、デフォーカス状態でのボケ具合も異なる。このため、第2光電変換部群の像信号を用いて撮影画像を生成することは困難であり、周辺に位置する第1光電変換部の出力信号を用いて補間処理を行う必要がある。   In addition, since the second photoelectric conversion unit group is different in shape from the first photoelectric conversion unit group, the sensitivity is different, and the degree of blur in the defocused state is also different. For this reason, it is difficult to generate a captured image using the image signal of the second photoelectric conversion unit group, and it is necessary to perform interpolation processing using the output signal of the first photoelectric conversion unit located in the vicinity.

さらに、第2光電変換部群は焦点検出領域内に位置しているために、以下に説明する不具合が生じる。すなわち、撮影者は被写体の重要部分を焦点検出領域に合わせることが多く、焦点検出領域内に第2光電変換部群が位置していると、被写体の重要部分を補間処理しなければならなくなる。この場合には、撮影画像の画質を低下させてしまうおそれがある。   Furthermore, since the second photoelectric conversion unit group is located in the focus detection region, the following problems occur. That is, the photographer often aligns the important part of the subject with the focus detection area, and if the second photoelectric conversion unit group is located in the focus detection area, the important part of the subject must be interpolated. In this case, there is a possibility that the image quality of the photographed image is deteriorated.

本発明である撮像装置は、撮影光学系からの光束によって形成された被写体像を光電変換する撮像素子と、撮像素子の出力を用いて、コントラスト検出方式により撮影光学系の焦点調節状態を検出するための第1の検出手段とを有する。また、位相差検出方式により撮影光学系の焦点調節状態を検出するための第2の検出手段と、撮影光学系からの光束を分割して、撮像素子及び第2の検出手段に導くための光分割手段とを有する。さらに、第1の検出手段の検出結果に基づいて、第2の検出手段の検出結果を補正する制御手段とを有する。   An imaging apparatus according to the present invention detects a focus adjustment state of an imaging optical system by a contrast detection method using an imaging element that photoelectrically converts a subject image formed by a light beam from the imaging optical system and an output of the imaging element. First detection means. Also, a second detection means for detecting the focus adjustment state of the photographic optical system by the phase difference detection method, and light for dividing the light beam from the photographic optical system and guiding it to the image sensor and the second detection means And dividing means. Furthermore, it has a control means which correct | amends the detection result of a 2nd detection means based on the detection result of a 1st detection means.

ここで、制御手段は、第1及び第2の検出手段の検出結果に基づいて、第2の検出手段の検出結果を補正するための補正値を算出することができる。そして、光分割手段を、撮影光路内に位置して撮影光学系からの光束を撮像素子及び第2の検出手段に導く状態と、撮影光路から退避した状態との間で動作させることができる。ここで、光分割手段が撮影光路内に位置しているときに、補正値の算出を行うことができる。この補正値は、記憶手段に記憶しておくことができる。   Here, the control means can calculate a correction value for correcting the detection result of the second detection means based on the detection results of the first and second detection means. Then, the light splitting means can be operated between a state where the light splitting means is positioned in the photographing optical path and the light beam from the photographing optical system is guided to the image sensor and the second detecting means, and a state where the light splitting means is retracted from the photographing optical path. Here, the correction value can be calculated when the light dividing means is located in the photographing optical path. This correction value can be stored in the storage means.

また、第1の検出手段による検出動作と、第2の検出手段による検出動作とを等しいタイミングで行うことができる。   In addition, the detection operation by the first detection unit and the detection operation by the second detection unit can be performed at the same timing.

さらに、光分割手段として、撮影光路に対して進退可能な光学素子を用い、光学素子が撮影光路内に位置している場合において、撮影光学系からの光束のうち一部の光束を第2の検出手段に導くとともに、他の光束を撮像素子に導くことができる。   Further, when the optical element that can advance and retreat with respect to the photographing optical path is used as the light splitting means and the optical element is located in the photographing optical path, a part of the light flux from the photographing optical system is secondly reflected. In addition to being guided to the detection means, other light beams can be guided to the image sensor.

また、撮影光学系からの光束を用いて被写体を観察するためのファインダ光学系を有している場合において、光分割手段を第1及び第2の状態間で切り換えることができる。ここで、第1の状態とは、撮影光学系からの光束をファインダ光学系及び第2の検出手段に導く状態であり、第2の状態とは、撮影光学系からの光束を撮像素子及び第2の検出手段に導く状態である。   In addition, in the case of having a finder optical system for observing a subject using a light beam from the photographing optical system, the light dividing means can be switched between the first and second states. Here, the first state is a state in which the light beam from the photographing optical system is guided to the finder optical system and the second detection means, and the second state is a state in which the light beam from the photographing optical system is guided to the imaging element and the first element. This is a state of leading to the second detection means.

光分割手段において、互いに独立して移動可能な第1及び第2のミラーを用いることができる。ここで、光分割手段が上記第1の状態にあるとき、第1のミラーによって撮影光学系からの光束のうち一部の光束をファインダ光学系に反射させて、他の光束を透過させることができる。そして、第2のミラーによって第1のミラーを透過した光束を第2の検出手段に反射させることができる。   In the light splitting means, first and second mirrors that can move independently of each other can be used. Here, when the light splitting means is in the first state, the first mirror reflects a part of the light beam from the photographing optical system to the finder optical system and transmits the other light beam. it can. And the light beam which permeate | transmitted the 1st mirror with the 2nd mirror can be reflected to a 2nd detection means.

一方、光分割手段が上記第2の状態にあるとき、第1のミラーによって上記一部の光束を第2の検出手段に反射させ、他の光束を透過させることができる。そして、第2のミラーを撮影光路から退避させることができる。   On the other hand, when the light splitting means is in the second state, the first mirror can reflect the part of the light flux to the second detecting means and allow the other light flux to pass therethrough. Then, the second mirror can be retracted from the photographing optical path.

また、光分割手段が上記第1の状態にあるとき、第2のミラーによって、第1のミラーを透過した光束のうち一部の光束を第2の検出手段に反射させつつ、他の光束を透過させて撮像素子に導くことができる。   Further, when the light splitting means is in the first state, the second mirror reflects a part of the light flux transmitted through the first mirror to the second detection means, while allowing the other light flux to be reflected. The light can be transmitted to the image sensor.

本発明によれば、光分割手段によって撮影光学系からの光束を撮像素子及び第2の検出手段に導いているため、コントラスト検出方式及び位相差検出方式による撮影光学系の焦点調節状態を略同時に行うことができる。そして、コントラスト検出方式での検出結果に基づいて、位相差検出方式での検出結果を補正することで、位相差検出方式での検出結果の精度を向上させることができる。   According to the present invention, since the light beam from the photographing optical system is guided to the image sensor and the second detection means by the light splitting means, the focus adjustment state of the photographing optical system by the contrast detection method and the phase difference detection method is substantially simultaneously. It can be carried out. Then, the accuracy of the detection result in the phase difference detection method can be improved by correcting the detection result in the phase difference detection method based on the detection result in the contrast detection method.

以下、本発明の実施例について説明する。   Examples of the present invention will be described below.

以下、本発明の実施例1であるカメラシステムについて、図1から図15を用いて説明する。   A camera system that is Embodiment 1 of the present invention will be described below with reference to FIGS.

図1は、本実施例のカメラシステムの構成を示す概略図である。本実施例におけるカメラは、CCDセンサ又はCMOSセンサなどの撮像素子を用いた単板式のデジタルカラーカメラであり、撮像素子を連続的または単発的に駆動することで動画像又は静止画像を表わす画像信号を得ることができる。ここで、撮像素子は、各画素において、受光した光を電気信号に光電変換して、受光量に応じた電荷を蓄積し、この電荷を読み出すタイプのエリアセンサである。   FIG. 1 is a schematic diagram showing the configuration of the camera system of the present embodiment. The camera in this embodiment is a single-plate digital color camera using an image sensor such as a CCD sensor or a CMOS sensor, and an image signal representing a moving image or a still image by driving the image sensor continuously or once. Can be obtained. Here, the image sensor is an area sensor of a type that photoelectrically converts received light into an electrical signal in each pixel, accumulates charges according to the amount of received light, and reads the charges.

図1において、101はカメラ本体、102は、撮影光学系103を有し、カメラ本体101に対して着脱可能なレンズ装置である。レンズ装置102は、マウント機構(不図示)を介してカメラ本体101に電気的及び機械的に接続される。ここで、焦点距離の異なるレンズ装置102を交換することによって、様々な画角の撮影画面を得ることができる。   In FIG. 1, reference numeral 101 denotes a camera body, and reference numeral 102 denotes a lens apparatus that has a photographing optical system 103 and is detachable from the camera body 101. The lens device 102 is electrically and mechanically connected to the camera body 101 via a mount mechanism (not shown). Here, by replacing the lens devices 102 having different focal lengths, it is possible to obtain shooting screens having various angles of view.

レンズ装置102は、撮影光学系103に含まれるフォーカスレンズやズームレンズを光軸L1方向に移動させるための駆動機構(不図示)を有している。本実施例では、フォーカスレンズを光軸L1方向に移動させることによって、撮影光学系103の焦点調節を行うものであるが、これに限るものではない。例えば、フォーカスレンズを柔軟性のある透明弾性部材や液体レンズで構成し、この界面形状(屈折力)を変化させることで、焦点調節を行うこともできる。   The lens device 102 has a drive mechanism (not shown) for moving the focus lens and zoom lens included in the photographing optical system 103 in the direction of the optical axis L1. In this embodiment, the focus of the photographing optical system 103 is adjusted by moving the focus lens in the direction of the optical axis L1, but the present invention is not limited to this. For example, the focus lens can also be adjusted by configuring the focus lens with a flexible transparent elastic member or a liquid lens and changing the interface shape (refractive power).

106は、パッケージ124に収納された撮像素子である。撮像素子106の受光面側には、被写体光に含まれる高周波数成分が撮像素子106に到達しないように、撮影光学系103のカットオフ周波数を制限する光学ローパスフィルタ156が設けられている。また、撮影光学系103には、赤外線カットフィルタも形成されている。   Reference numeral 106 denotes an image sensor housed in the package 124. An optical low-pass filter 156 that limits the cutoff frequency of the photographing optical system 103 is provided on the light receiving surface side of the image sensor 106 so that a high-frequency component included in the subject light does not reach the image sensor 106. The photographing optical system 103 is also formed with an infrared cut filter.

撮像素子106を用いて撮像された被写体像は、ディスプレイユニット107で表示される。ディスプレイユニット107は、カメラの背面に取り付けられており、使用者は、ディスプレイユニット107に表示された画像を直接観察することができる。ディスプレイユニット107を、有機EL空間変調素子、液晶空間変調素子、微粒子の電気泳動を利用した空間変調素子などで構成すれば、消費電力を低減しつつ、薄型化することができる。   A subject image captured using the image sensor 106 is displayed on the display unit 107. The display unit 107 is attached to the back of the camera, and the user can directly observe the image displayed on the display unit 107. If the display unit 107 is composed of an organic EL spatial modulation element, a liquid crystal spatial modulation element, a spatial modulation element using microparticle electrophoresis, etc., the display unit 107 can be reduced in thickness while reducing power consumption.

本実施例では、撮像素子106として、増幅型固体撮像素子の1つであるCMOSプロセスコンパチブルのセンサ(CMOSセンサ)を用いている。CMOSセンサでは、エリアセンサ部のMOSトランジスタと撮像素子駆動回路、AD変換回路、画像処理回路といった周辺回路を同一工程で形成することができる。このため、マスク枚数やプロセス工程を、CCDセンサと比べて大幅に削減することができる。また、CMOSセンサでは、任意の画素へのランダムアクセスが可能であり、ディスプレイ用に間引いた読み出しができる。これにより、高い表示レートでリアルタイムの表示を行うことができる。   In this embodiment, a CMOS process compatible sensor (CMOS sensor), which is one of amplification type solid-state image sensors, is used as the image sensor 106. In a CMOS sensor, a peripheral circuit such as a MOS transistor in an area sensor unit and an image sensor driving circuit, an AD conversion circuit, and an image processing circuit can be formed in the same process. For this reason, the number of masks and the process steps can be greatly reduced as compared with the CCD sensor. In addition, the CMOS sensor allows random access to arbitrary pixels, and can read out thinned out for display. Thereby, real-time display can be performed at a high display rate.

111はハーフミラーであり、撮影光学系103からの光束(被写体光)のうち、一部の光束を反射させてファインダ光学系に導くとともに、他の光束を透過させる。105は、被写体像の予定結像面に配置されたフォーカシングスクリーンである。フォーカシングスクリーン105の位置と、撮像素子106の位置とは、光学的に共役な関係となっている。   A half mirror 111 reflects a part of the light flux (subject light) from the photographing optical system 103 and guides it to the finder optical system, and transmits the other light flux. Reference numeral 105 denotes a focusing screen arranged on the planned image formation plane of the subject image. The position of the focusing screen 105 and the position of the image sensor 106 have an optically conjugate relationship.

112はペンタプリズムであり、撮影光学系103からの光束を複数回反射させることで、正立正像に変換する。109は、被写体像(光学像)を観察するための接眼レンズであり、実際には3つのレンズ(図3のレンズ109a、109b、109c)で構成されている。上述したフォーカシングスクリーン105、ペンタプリズム112、レンズ109によって、ファインダ光学系が構成される。   Reference numeral 112 denotes a pentaprism, which converts the light beam from the photographing optical system 103 into an erect image by reflecting the light beam a plurality of times. Reference numeral 109 denotes an eyepiece for observing a subject image (optical image), and actually includes three lenses (lenses 109a, 109b, and 109c in FIG. 3). The focusing screen 105, pentaprism 112, and lens 109 described above constitute a finder optical system.

ハーフミラー111の屈折率は略1.5であり、厚さは0.5mmである。ハーフミラー111の背後には、サブミラー122が設けられており、ハーフミラー111を透過した光束のうち光軸に近い光束を焦点検出ユニット121に向けて反射させる。焦点検出ユニット121は、位相差検出方式による焦点検出を行う。   The half mirror 111 has a refractive index of approximately 1.5 and a thickness of 0.5 mm. A sub-mirror 122 is provided behind the half mirror 111, and reflects the light beam close to the optical axis among the light beams transmitted through the half mirror 111 toward the focus detection unit 121. The focus detection unit 121 performs focus detection by a phase difference detection method.

104は照明ユニットであり、被写体に対して照明光を照射する。照明ユニット104は、使用時にはカメラ本体101から突出し、不使用時にはカメラ本体101内に収納される。113はフォーカルプレンシャッタ(以下、シャッタという)であり、撮像素子106に入射する光量を制御する。シャッタ113は、複数枚の遮光羽根で構成される先幕および後幕を有している。   An illumination unit 104 irradiates the subject with illumination light. The lighting unit 104 protrudes from the camera body 101 when in use, and is housed in the camera body 101 when not in use. Reference numeral 113 denotes a focal plane shutter (hereinafter referred to as a shutter) that controls the amount of light incident on the image sensor 106. The shutter 113 has a front curtain and a rear curtain composed of a plurality of light shielding blades.

シャッタ113において、非撮影時には光通過口となるアパーチャを先幕又は後幕で覆うことで撮影光束を遮光しており、撮影時には先幕および後幕がスリットを形成しながら走行することで撮影光束を像面側に通過させる。119はメインスイッチであり、カメラ本体101を動作させるために操作される。   The shutter 113 covers the aperture serving as a light passage opening with the front curtain or the rear curtain when not photographing, and shields the photographing light flux. During photographing, the front curtain and the rear curtain travel while forming a slit to take the photographing light flux. Is passed to the image plane side. A main switch 119 is operated to operate the camera body 101.

118はキャリブレーションスイッチであり、撮影者がキャリブレーションを実行するときに操作される。120はレリーズボタンであり、撮影準備動作(焦点調節動作や測光動作を含む)及び撮影動作の開始を指示するために操作される。123はファインダモード切換スイッチであり、光学ファインダモード(OVFモード)および電子ファインダモード(EVFモード)の設定を切り換えることができる。ここで、OVFモードでは、ファインダ光学系を介して物体像を観察することができ、EVFモードでは、ディスプレイユニット107を介して物体像を観察することができる。   Reference numeral 118 denotes a calibration switch, which is operated when the photographer executes calibration. Reference numeral 120 denotes a release button, which is operated to instruct the start of a shooting preparation operation (including a focus adjustment operation and a photometry operation) and a shooting operation. Reference numeral 123 denotes a finder mode changeover switch, which can switch the setting of the optical finder mode (OVF mode) and the electronic finder mode (EVF mode). Here, in the OVF mode, an object image can be observed through the finder optical system, and in the EVF mode, the object image can be observed through the display unit 107.

なお、撮影モード切換スイッチ123は、スライド式のスイッチとなっている。そして、撮影モード切換スイッチ123を、OVFモード又はEVFモードに対応した位置に移動させると、この撮影モードが維持されるようになっている。180は情報表示ユニットであり、ファインダ光学系内において所定の情報(例えば、撮影情報)を表示させる。これにより、撮影者は、接眼レンズ109を覗くことで被写体像とともに所定の情報を観察することができる。   The photographing mode changeover switch 123 is a slide type switch. When the shooting mode changeover switch 123 is moved to a position corresponding to the OVF mode or EVF mode, this shooting mode is maintained. Reference numeral 180 denotes an information display unit that displays predetermined information (for example, photographing information) in the finder optical system. Thereby, the photographer can observe predetermined information together with the subject image by looking into the eyepiece lens 109.

上述した構成において、ハーフミラー111およびサブミラー122は、後述するように第1の光路状態から第3の光路状態における3つの状態を選択的にとることができる。第1の光路状態(第1の状態)では、撮影光学系103からの光が、ファインダ光学系および焦点検出ユニット121に導かれる。第2の光路状態(第2の状態)では、撮影光学系103からの光が、撮像素子106および焦点検出ユニット121に導かれる。第3の光路状態(第3の状態)では、撮影光学系103からの光が、直接、撮像素子106に到達する。   In the configuration described above, the half mirror 111 and the sub mirror 122 can selectively take three states from the first optical path state to the third optical path state, as will be described later. In the first optical path state (first state), the light from the photographing optical system 103 is guided to the finder optical system and the focus detection unit 121. In the second optical path state (second state), light from the photographing optical system 103 is guided to the image sensor 106 and the focus detection unit 121. In the third optical path state (third state), the light from the imaging optical system 103 reaches the image sensor 106 directly.

具体的には、第1の光路状態では、ハーフミラー111およびサブミラー122が撮影光路内に斜設されている。そして、結像光学系103からの光が、ハーフミラー111で反射することによりファインダ光学系に導かれるとともに、ハーフミラー111を透過した光がサブミラー122で反射することにより焦点検出ユニット121に導かれる。これにより、第1の光路状態では、接眼レンズ109を介して物体像を観察することができるとともに、焦点検出ユニット121において焦点検出を行うことができる。   Specifically, in the first optical path state, the half mirror 111 and the sub mirror 122 are obliquely installed in the photographing optical path. The light from the imaging optical system 103 is guided to the finder optical system by being reflected by the half mirror 111, and the light transmitted through the half mirror 111 is guided to the focus detection unit 121 by being reflected by the sub mirror 122. . Thereby, in the first optical path state, the object image can be observed through the eyepiece lens 109 and the focus detection unit 121 can perform focus detection.

また、第2の光路状態では、ハーフミラー111だけが撮影光路中で斜設されたままとなっている。そして、撮影光学系103からの光が、ハーフミラー111で反射することにより焦点検出ユニット121に導かれるとともに、ハーフミラー111を透過した光が撮像素子106に到達可能となっている。なお、サブミラー122は、撮影光路から退避した状態となっている。   In the second optical path state, only the half mirror 111 remains obliquely installed in the photographing optical path. The light from the photographing optical system 103 is reflected by the half mirror 111 and guided to the focus detection unit 121, and the light transmitted through the half mirror 111 can reach the image sensor 106. Note that the sub mirror 122 is in a state of being retracted from the photographing optical path.

これにより、第2の光路状態では、撮像素子106の出力に基づいて撮影画像をディスプレイユニット107に表示させたり、撮影(連続撮影や動画撮影)を行ったりすることができるとともに、焦点検出ユニット121において焦点検出を行うことができる。   As a result, in the second optical path state, a captured image can be displayed on the display unit 107 based on the output of the image sensor 106, or shooting (continuous shooting or movie shooting) can be performed, and the focus detection unit 121 can be used. Focus detection can be performed at.

第3の光路状態では、ハーフミラー111およびサブミラー122が撮影光路から退避しており、撮影光学系103からの光が直接、撮像素子106に到達可能となっている。これにより、第3の光路状態では、撮像素子の106の出力に基づいて撮影画像をディスプレイユニット107に表示したり、撮影を行ったりすることができる。この撮影では、高精細な画像を生成することができ、撮影画像を拡大して大型プリントを行う場合等において好適である。   In the third optical path state, the half mirror 111 and the sub mirror 122 are retracted from the imaging optical path, and the light from the imaging optical system 103 can reach the image sensor 106 directly. As a result, in the third optical path state, a captured image can be displayed on the display unit 107 or photographed based on the output of the image sensor 106. This shooting can generate a high-definition image, and is suitable for enlarging the shot image and performing a large print.

上述した3通りの光路状態を高速で切り換えるために、ハーフミラー111は透明樹脂で構成され、軽量化が図られている。また、ハーフミラー111の裏面には複屈折性をもつ高分子薄膜が貼り付けられている。このため、第2の光路状態において、撮影画像をディスプレイユニット107でモニタする場合や高速連続撮影を行う場合には、撮像素子106の全画素を用いて撮像しないことに対応して、さらに強いローパス効果を付与する。   In order to switch the above-described three optical path states at high speed, the half mirror 111 is made of a transparent resin to reduce the weight. In addition, a polymer thin film having birefringence is attached to the back surface of the half mirror 111. For this reason, in the second optical path state, when a captured image is monitored by the display unit 107 or when high-speed continuous shooting is performed, a stronger low-pass is achieved in correspondence with the fact that all the pixels of the image sensor 106 are not used for imaging. Gives an effect.

なお、ハーフミラー111の表面に、可視光の波長よりも小さなピッチをもつ微細な角錐状の周期構造を樹脂によって形成し、いわゆるフォトニック結晶として作用させることもできる。これによって、空気と樹脂との屈折率差による光の表面反射を低減し、光の利用効率を高めることが可能である。そして、第2の光路状態において、ハーフミラー111の表裏面での光の多重反射によってゴーストが発生するのを防ぐことができる。   Note that a fine pyramid-shaped periodic structure having a pitch smaller than the wavelength of visible light can be formed on the surface of the half mirror 111 with a resin so as to act as a so-called photonic crystal. As a result, it is possible to reduce the surface reflection of light due to the difference in refractive index between air and resin, and to increase the light utilization efficiency. And in a 2nd optical path state, it can prevent that a ghost generate | occur | produces by the multiple reflection of the light in the front and back of the half mirror 111. FIG.

不図示の電磁モータとギア列からなるミラー駆動機構は、ハーフミラー111およびサブミラー122の位置を変化させることにより、光路状態を、上述した第1の光路状態、第2の光路状態および第3の光路状態で切り換える。   A mirror driving mechanism including an electromagnetic motor (not shown) and a gear train changes the optical path state by changing the positions of the half mirror 111 and the sub mirror 122, and the first optical path state, the second optical path state, and the third optical path state described above. Switch according to the optical path condition.

第2の光路状態における撮像では、後述するようにハーフミラー111およびサブミラー122が所定位置に保持されたままであり、ミラー駆動機構を作動させる必要がない。このため、画像信号処理を高速化させることで超高速連続撮影を行うことができる。また、ディスプレイユニット107に画像が表示されているときでも、焦点調節を行うことができる。   In imaging in the second optical path state, as will be described later, the half mirror 111 and the sub mirror 122 remain held at predetermined positions, and there is no need to operate the mirror drive mechanism. For this reason, it is possible to perform ultra high-speed continuous shooting by speeding up the image signal processing. Further, the focus adjustment can be performed even when an image is displayed on the display unit 107.

図2は、本実施例であるカメラシステムの電気的構成を示すブロック図である。このカメラシステムは、撮像系、画像処理系、記録再生系および制御系を有する。まず、物体像の撮像、記録に関する説明を行う。なお、図2において、図1で説明した部材と同じ部材については同一符号を付す。   FIG. 2 is a block diagram illustrating an electrical configuration of the camera system according to the present embodiment. This camera system has an imaging system, an image processing system, a recording / reproducing system, and a control system. First, an explanation will be given regarding imaging and recording of an object image. In FIG. 2, the same members as those described in FIG.

撮像系は、撮影光学系103および撮像素子106を含み、画像処理系は、A/D変換器130、RGB画像処理回路131およびYC処理回路132を含む。また、記録再生系は、記録処理回路133および再生処理回路134を含み、制御系は、カメラシステム制御回路(制御回路)135、操作検出回路136および撮像素子駆動回路137を含む。   The imaging system includes a photographing optical system 103 and an imaging element 106, and the image processing system includes an A / D converter 130, an RGB image processing circuit 131, and a YC processing circuit 132. The recording / reproducing system includes a recording processing circuit 133 and a reproducing processing circuit 134, and the control system includes a camera system control circuit (control circuit) 135, an operation detection circuit 136, and an image sensor driving circuit 137.

138は、外部のコンピュータ等に接続され、データの送受信を行うための規格化された接続端子である。上記の電気回路は、不図示の小型燃料電池によって駆動される。   Reference numeral 138 denotes a standardized connection terminal that is connected to an external computer or the like and transmits and receives data. The above electric circuit is driven by a small fuel cell (not shown).

撮像系は、被写体からの光を、撮影光学系103を介して撮像素子106の撮像面に結像する光学処理系である。そして、レンズ装置102内の絞り(光量調節ユニット)143と、必要に応じてシャッタ113における先幕および後幕の走行を調節し、適切な光量の被写体光を撮像素子106に露光する。   The imaging system is an optical processing system that forms an image of light from a subject on the imaging surface of the imaging element 106 via the imaging optical system 103. Then, the aperture (light quantity adjustment unit) 143 in the lens device 102 and the travel of the front curtain and rear curtain in the shutter 113 are adjusted as necessary, and the image sensor 106 is exposed to subject light having an appropriate light quantity.

撮像素子106は、正方画素が長辺方向に3700個、短辺方向に2800個並べられ、合計約1000万個の画素数を有している。また、各画素にR(赤色)G(緑色)B(青色)のカラーフィルタを交互に配して4画素が1組となる、いわゆるベイヤー配列を形成している。   The image sensor 106 has 3700 square pixels arranged in the long side direction and 2800 in the short side direction, and has a total of about 10 million pixels. In addition, R (red), G (green), and B (blue) color filters are alternately arranged in each pixel to form a so-called Bayer arrangement in which four pixels form one set.

ベイヤー配列では、撮影者が画像を見たときに強く感じやすいGの画素をRやBの画素よりも多く配置することで、総合的な画像性能を上げている。一般に、この方式の撮像素子106を用いる画像処理では、輝度信号は主にGから生成し、色信号はR、G、Bから生成する。   In the Bayer array, the overall image performance is improved by arranging more G pixels that are easily felt when the photographer looks at the image than the R and B pixels. In general, in image processing using this type of image sensor 106, a luminance signal is generated mainly from G, and a color signal is generated from R, G, and B.

撮像素子106から読み出された画像信号は、A/D変換器130を介して画像処理系に供給される。A/D変換器130は、露光した各画素の出力信号の振幅に応じて、例えば10ビットのデジタル信号に変換して出力する信号変換回路であり、以降の画像信号処理はデジタル処理にて実行される。   The image signal read from the image sensor 106 is supplied to the image processing system via the A / D converter 130. The A / D converter 130 is a signal conversion circuit that converts and outputs, for example, a 10-bit digital signal according to the amplitude of the output signal of each exposed pixel, and the subsequent image signal processing is executed by digital processing. Is done.

画像処理系は、R、G、Bのデジタル信号から所望の形式の画像信号を得る信号処理系であり、R、G、Bの色信号を輝度信号Yおよび色差信号(R−Y)、(B−Y)にて表されるYC信号などに変換する。RGB画像処理回路131は、A/D変換器130を介して撮像素子106から受けた3700×2800画素の画像信号を処理する信号処理回路であり、ホワイトバランス回路、ガンマ補正回路、補間演算による高解像度化を行う補間演算回路を有する。   The image processing system is a signal processing system that obtains an image signal of a desired format from R, G, and B digital signals. The R, G, and B color signals are converted into luminance signals Y and color difference signals (R−Y), ( (B−Y) and the like. The RGB image processing circuit 131 is a signal processing circuit that processes an image signal of 3700 × 2800 pixels received from the image sensor 106 via the A / D converter 130, and is a white balance circuit, a gamma correction circuit, and an interpolation calculation high It has an interpolation operation circuit that performs resolution.

YC処理回路132は、輝度信号Yおよび色差信号R−Y、B−Yを生成する信号処理回路である。YC処理回路132は、高域輝度信号YHを生成する高域輝度信号発生回路、低域輝度信号YLを生成する低域輝度信号発生回路、および色差信号R−Y、B−Yを生成する色差信号発生回路で構成されている。輝度信号Yは、高域輝度信号YHと低域輝度信号YLを合成することによって形成される。   The YC processing circuit 132 is a signal processing circuit that generates a luminance signal Y and color difference signals RY and BY. The YC processing circuit 132 includes a high-frequency luminance signal generation circuit that generates a high-frequency luminance signal YH, a low-frequency luminance signal generation circuit that generates a low-frequency luminance signal YL, and a color difference that generates color difference signals RY and BY. It consists of a signal generation circuit. The luminance signal Y is formed by combining the high frequency luminance signal YH and the low frequency luminance signal YL.

記録再生系は、メモリ(記録媒体、不図示)への画像信号の出力と、ディスプレイユニット107への画像信号の出力とを行う処理系である。記録処理回路133は、メモリへの画像信号の書き込み処理および読み出し処理を行う。再生処理回路134は、メモリから読み出した画像信号を再生して、ディスプレイユニット107に出力する。   The recording / reproducing system is a processing system that outputs an image signal to a memory (recording medium, not shown) and outputs an image signal to the display unit 107. The recording processing circuit 133 performs a writing process and a reading process of the image signal to the memory. The reproduction processing circuit 134 reproduces the image signal read from the memory and outputs it to the display unit 107.

また、記録処理回路133は、静止画像および動画像を表すYC信号を所定の圧縮形式(例えば、JPEG形式)にて圧縮するとともに、圧縮データを読み出した際に圧縮データを伸張する圧縮伸張回路を有する。圧縮伸張回路は、信号処理のためのフレームメモリなどを含み、このフレームメモリに画像処理系からのYC信号をフレーム毎に蓄積して、それぞれ複数のブロック毎に読み出して圧縮符号化する。圧縮符号化は、例えば、ブロック毎の画像信号を2次元直交変換、正規化およびハフマン符号化することにより行われる。   The recording processing circuit 133 also includes a compression / decompression circuit that compresses YC signals representing still images and moving images in a predetermined compression format (for example, JPEG format) and decompresses the compressed data when the compressed data is read out. Have. The compression / decompression circuit includes a frame memory for signal processing. The YC signal from the image processing system is stored in this frame memory for each frame, and is read and compressed for each of a plurality of blocks. The compression encoding is performed, for example, by subjecting the image signal for each block to two-dimensional orthogonal transformation, normalization, and Huffman encoding.

再生処理回路134は、輝度信号Yおよび色差信号R−Y、B−Yをマトリックス変換して、例えばRGB信号に変換する回路である。再生処理回路134によって変換された信号は、ディスプレイユニット107に出力され、可視画像が表示(再生)される。再生処理回路134およびディスプレイユニット107は、Bluetoothなどの無線通信回線を介して接続することができる。このように構成すれば、カメラで撮像した画像を離れたところからモニタすることができる。   The reproduction processing circuit 134 is a circuit that converts the luminance signal Y and the color difference signals RY and BY into a matrix signal, for example, an RGB signal. The signal converted by the reproduction processing circuit 134 is output to the display unit 107, and a visible image is displayed (reproduced). The reproduction processing circuit 134 and the display unit 107 can be connected via a wireless communication line such as Bluetooth. If comprised in this way, the image imaged with the camera can be monitored from the distant place.

一方、制御系の一部である操作検出回路136は、レリーズボタン120やファインダモード切り換えスイッチ123等の操作を検出する。また、カメラシステム制御回路135は、操作検出回路136の検出信号に応じてハーフミラー111やサブミラー122を含むカメラ内の各部材の駆動を制御し、撮像の際のタイミング信号などを生成して出力する。   On the other hand, the operation detection circuit 136 which is a part of the control system detects operations of the release button 120, the finder mode changeover switch 123, and the like. The camera system control circuit 135 controls driving of each member in the camera including the half mirror 111 and the sub mirror 122 according to the detection signal of the operation detection circuit 136, and generates and outputs a timing signal at the time of imaging. To do.

撮像素子駆動回路137は、カメラシステム制御回路135の制御の下に撮像素子106を駆動する駆動信号を生成する。情報表示回路142は、情報表示ユニット180の駆動を制御する。   The image sensor drive circuit 137 generates a drive signal for driving the image sensor 106 under the control of the camera system control circuit 135. The information display circuit 142 controls driving of the information display unit 180.

制御系は、外部操作に応じて撮像系、画像処理系および記録再生系における各回路の駆動を制御する。例えば、制御系は、レリーズボタン120が押圧操作されたことを検出して、撮像素子106の駆動、RGB画像処理回路131の動作、記録処理回路133の圧縮処理などを制御する。また、制御系は、情報表示回路142によって光学ファインダ内に表示される情報における各セグメントの状態を制御する。   The control system controls driving of each circuit in the imaging system, the image processing system, and the recording / reproducing system in accordance with an external operation. For example, the control system detects that the release button 120 has been pressed, and controls the driving of the image sensor 106, the operation of the RGB image processing circuit 131, the compression processing of the recording processing circuit 133, and the like. The control system controls the state of each segment in the information displayed in the optical viewfinder by the information display circuit 142.

次に、焦点調節に関する説明を行う。カメラシステム制御回路135には、AF制御回路140およびレンズシステム制御回路141が接続されている。これらの制御回路140、141は、カメラシステム制御回路135を中心にして各々の処理に必要とするデータを相互に通信している。   Next, the focus adjustment will be described. An AF control circuit 140 and a lens system control circuit 141 are connected to the camera system control circuit 135. These control circuits 140 and 141 communicate with each other data necessary for each processing with the camera system control circuit 135 as a center.

AF制御回路140は、撮影画面上の所定位置に設けられた焦点検出領域に対応する焦点検出用センサ167の信号出力を受けることにより焦点検出信号を生成し、撮影光学系103の合焦状態(デフォーカス量)を検出する。デフォーカス量が検出されると、このデフォーカス量を撮影光学系103内のフォーカスレンズの駆動量に変換し、カメラシステム制御回路135を介してレンズシステム制御回路141に送信する。   The AF control circuit 140 generates a focus detection signal by receiving a signal output of the focus detection sensor 167 corresponding to the focus detection area provided at a predetermined position on the shooting screen, and the focus state ( Defocus amount) is detected. When the defocus amount is detected, the defocus amount is converted into a drive amount of the focus lens in the photographing optical system 103 and transmitted to the lens system control circuit 141 via the camera system control circuit 135.

移動する物体に対しては、レリーズボタン120が操作されてから実際の撮影動作が開始されるまでのタイムラグを勘案して、適切なレンズ停止位置を予測した結果に基づいてフォーカスレンズの駆動量を指示する。また、被写体の輝度が低く、十分な焦点検出精度が得られない場合には、照明ユニット104又はカメラ本体101に設けられた不図示の白色LEDや蛍光管によって物体を照明する。ここで、被写体の輝度は、カメラ本体101内に設けられた輝度検出ユニット(不図示)によって検出することができる。   For a moving object, the focus lens drive amount is determined based on the result of predicting an appropriate lens stop position, taking into account the time lag from when the release button 120 is operated until the actual shooting operation starts. Instruct. When the brightness of the subject is low and sufficient focus detection accuracy cannot be obtained, the object is illuminated by a white LED or a fluorescent tube (not shown) provided in the illumination unit 104 or the camera body 101. Here, the luminance of the subject can be detected by a luminance detection unit (not shown) provided in the camera body 101.

レンズシステム制御回路141は、カメラシステム制御回路135から送られたフォーカスレンズの駆動量を受信すると、レンズ装置102内の不図示の駆動機構によってフォーカスレンズを光軸L1方向に移動させるなどの動作を行い、焦点調節を行う。AF制御回路140において被写体にピントが合ったことが検出されると、この検出情報はカメラシステム制御回路135に伝えられる。このとき、レリーズボタン120が操作されていれば、上述したように撮像系、画像処理系、記録再生系により撮像制御が行われる。   When the lens system control circuit 141 receives the driving amount of the focus lens sent from the camera system control circuit 135, the lens system control circuit 141 performs an operation such as moving the focus lens in the direction of the optical axis L1 by a driving mechanism (not shown) in the lens device 102. And adjust the focus. When the AF control circuit 140 detects that the subject is in focus, this detection information is transmitted to the camera system control circuit 135. At this time, if the release button 120 is operated, the imaging control is performed by the imaging system, the image processing system, and the recording / reproducing system as described above.

絞り143は、レンズシステム制御回路141からの指令に応じて像面側に向かう被写体光の光量を調節する。なお、カメラシステム制御135とレンズシステム制御回路141は、レンズ装置102側のマウント部の電気接点(通信ユニット)144aおよびカメラ本体101側のマウント部の電気接点144bを介して通信が行えるように構成されている。   The diaphragm 143 adjusts the amount of subject light directed toward the image plane in accordance with a command from the lens system control circuit 141. The camera system control 135 and the lens system control circuit 141 are configured to be able to communicate via the electrical contact (communication unit) 144a of the mount unit on the lens device 102 side and the electrical contact 144b of the mount unit on the camera body 101 side. Has been.

図3から図7は、本実施例であるカメラシステムの縦断面図である。なお、レンズ装置102については、この一部を示している。これらの図では、主にハーフミラー111およびサブミラー122の駆動機構(ミラー駆動機構)の動作を時系列で示している。なお、図1および図2で説明した部材と同じ部材については同一符号を付す。   3 to 7 are longitudinal sectional views of the camera system according to the present embodiment. A part of the lens device 102 is shown. In these drawings, operations of the driving mechanisms (mirror driving mechanisms) of the half mirror 111 and the sub mirror 122 are mainly shown in time series. The same members as those described in FIGS. 1 and 2 are denoted by the same reference numerals.

図5を用いてミラー駆動機構の構成について説明する。図5は、カメラが上述した第1の光路状態にあるときの図を示している。   The configuration of the mirror drive mechanism will be described with reference to FIG. FIG. 5 shows a view when the camera is in the first optical path state described above.

図5において、101はカメラ本体、102はレンズ装置、103aは撮影光学系を構成する複数のレンズのうち最も像面側に位置するレンズ、105はファインダ光学系のフォーカシングスクリーンである。164は焦点検出ユニット121における光束の取り込み窓となるコンデンサーレンズ、107はディスプレイユニットである。163は、ファインダ光学系の光路内に進退可能なアイピースシャッタ(遮光部材)である。この遮光部材は、接眼レンズ109a側からの光による撮像への影響を回避するための部材である。   In FIG. 5, reference numeral 101 denotes a camera body, 102 denotes a lens device, 103a denotes a lens positioned closest to the image plane among a plurality of lenses constituting the photographing optical system, and 105 denotes a focusing screen of the finder optical system. Reference numeral 164 denotes a condenser lens that serves as a light beam capturing window in the focus detection unit 121, and 107 denotes a display unit. Reference numeral 163 denotes an eyepiece shutter (light-shielding member) that can advance and retract in the optical path of the finder optical system. This light shielding member is a member for avoiding an influence on imaging due to light from the eyepiece lens 109a side.

可動型のハーフミラー111は、不図示のハーフミラー受け板に保持されている。このハーフミラー受け板にはピン173、174が設けられており、ハーフミラー111およびピン173、174はハーフミラー受け板を介して一体となって移動可能となっている。170はハーフミラー駆動レバー、171はハーフミラー支持アームである。ハーフミラー駆動レバー170は、回転軸170aに対して回転可能に支持されており、ハーフミラー支持アーム171は、回転軸171aに対して回転可能に支持されている。   The movable half mirror 111 is held by a half mirror receiving plate (not shown). The half mirror receiving plate is provided with pins 173 and 174, and the half mirror 111 and the pins 173 and 174 are movable together through the half mirror receiving plate. Reference numeral 170 denotes a half mirror drive lever, and 171 denotes a half mirror support arm. The half mirror drive lever 170 is supported to be rotatable with respect to the rotation shaft 170a, and the half mirror support arm 171 is supported to be rotatable with respect to the rotation shaft 171a.

ハーフミラー駆動レバー170は、不図示の動力伝達機構を介して駆動源に連結されており、駆動源からの駆動力を受けることにより回転軸170aを中心に回転することができる。また、ハーフミラー支持アーム171は、接続部171bを介してミラーボックスの対向する壁面側にある略同一形状の構造と接続されている。   The half mirror drive lever 170 is connected to a drive source via a power transmission mechanism (not shown), and can rotate around the rotation shaft 170a by receiving a drive force from the drive source. Further, the half mirror support arm 171 is connected to a structure having substantially the same shape on the opposite wall surface side of the mirror box via the connection portion 171b.

ハーフミラー支持アーム171の先端に設けられた貫通孔171cには、不図示のハーフミラー受け板に設けられたピン173が摺動可能に係合している。これにより、ハーフミラー111は、ハーフミラー受け板を介して貫通孔171cを中心に回動可能となっている。また、ハーフミラー受け板のうちピン173とピン174の中間位置には、不図示のトーションバネによって矢印A方向の付勢力が付与されている。   A pin 173 provided on a half mirror receiving plate (not shown) is slidably engaged with a through hole 171c provided at the tip of the half mirror support arm 171. Thereby, the half mirror 111 can be rotated centering on the through-hole 171c via the half mirror receiving plate. Further, an urging force in the direction of arrow A is applied to an intermediate position between the pin 173 and the pin 174 in the half mirror receiving plate by a torsion spring (not shown).

第1の光路状態(図5)においては、ミラーストッパ(ストッパ部材)160、161が、撮影光路外であってハーフミラー111の移動軌跡内に進入した状態にある。この状態にあるとき、ハーフミラー111は、トーションバネによる矢印A方向の付勢力を受けることにより、ミラーストッパ160、161に当接して位置決めされる。これにより、ハーフミラー111は、撮影光路上に斜設された状態となる。   In the first optical path state (FIG. 5), the mirror stoppers (stopper members) 160 and 161 are in the state of entering the movement locus of the half mirror 111 outside the imaging optical path. In this state, the half mirror 111 is positioned in contact with the mirror stoppers 160 and 161 by receiving a biasing force in the direction of arrow A by the torsion spring. As a result, the half mirror 111 is inclined on the photographing optical path.

ここで、ピン173は、ハーフミラー駆動レバー170の第1カム面170bに当接しておらず、ピン174はハーフミラー駆動レバー170の第2カム面170cに当接していない。また、サブミラー122は回転軸125周りの回転が抑制された状態で、ハーフミラー111の背後に位置している。   Here, the pin 173 does not contact the first cam surface 170b of the half mirror drive lever 170, and the pin 174 does not contact the second cam surface 170c of the half mirror drive lever 170. Further, the sub mirror 122 is located behind the half mirror 111 in a state in which the rotation around the rotation axis 125 is suppressed.

上述した第1の光路状態において、撮影光学系103から射出した光束のうちハーフミラー111で反射した光束はファインダ光学系に導かれる。そして、ハーフミラー111を透過した光束は、ハーフミラー111の背後にあるサブミラー122で反射して焦点検出ユニット121に導かれる。   In the first optical path state described above, the light beam reflected by the half mirror 111 out of the light beam emitted from the photographing optical system 103 is guided to the finder optical system. Then, the light beam transmitted through the half mirror 111 is reflected by the sub-mirror 122 behind the half mirror 111 and guided to the focus detection unit 121.

ミラーストッパ160、161がハーフミラー111の移動軌跡から退避したときや、ハーフミラー駆動レバー170が図5中時計回りに回転したときには、ピン173、174は、不図示のトーションバネによる矢印A方向の付勢力を受ける。これにより、ピン173は、ハーフミラー駆動レバー170の第1カム面170bに当接し、ピン174は、ハーフミラー駆動レバー170の第2カム面170cに当接する。   When the mirror stoppers 160 and 161 are retracted from the movement locus of the half mirror 111 or when the half mirror drive lever 170 is rotated clockwise in FIG. 5, the pins 173 and 174 are moved in the direction of arrow A by a torsion spring (not shown). Receive a biasing force. Accordingly, the pin 173 contacts the first cam surface 170b of the half mirror drive lever 170, and the pin 174 contacts the second cam surface 170c of the half mirror drive lever 170.

そして、ピン173、174はそれぞれ、ハーフミラー駆動レバー170の回転量に応じて、第1カム面170bおよび第2カム面170cに沿って移動する。これにより、ハーフミラー111の姿勢(光軸L1に対する傾き)が変化する。すなわち、ハーフミラー駆動レバー170の回転に連動してハーフミラー支持アーム171が回転する。そして、ハーフミラー駆動レバー170およびハーフミラー支持アーム171にピン173、174を介して連結しているハーフミラー受け板が作動し、ハーフミラー受け板とともにハーフミラー111が作動する。   Then, the pins 173 and 174 move along the first cam surface 170b and the second cam surface 170c in accordance with the rotation amount of the half mirror drive lever 170, respectively. Thereby, the attitude | position (inclination with respect to the optical axis L1) of the half mirror 111 changes. That is, the half mirror support arm 171 rotates in conjunction with the rotation of the half mirror drive lever 170. Then, the half mirror receiving plate connected to the half mirror driving lever 170 and the half mirror supporting arm 171 via the pins 173 and 174 is operated, and the half mirror 111 is operated together with the half mirror receiving plate.

図3から図7は、ハーフミラー111やサブミラー122の動作を示す図である。図3は、上述した第2の光路状態を示し、図4は、第1の光路状態から第2の光路状態への移行過程を示す。図6は、第1の光路状態から第3の光路状態への移行過程を示し、図7は上述した第3の光路状態を示す。   3 to 7 are diagrams illustrating the operation of the half mirror 111 and the sub mirror 122. FIG. 3 shows the second optical path state described above, and FIG. 4 shows a transition process from the first optical path state to the second optical path state. FIG. 6 shows a transition process from the first optical path state to the third optical path state, and FIG. 7 shows the third optical path state described above.

第1の光路状態(図5)にあるとき、ハーフミラー111およびサブミラー122は、上述したように撮像光学系103から射出された被写体光を、ファインダ光学系および焦点検出ユニット121に導くように作用する。また、第2の光路状態(図3)にあるときには、ハーフミラー111が撮像光学系103から射出した被写体光を、撮像素子106および焦点検出ユニット121に導くように作用する。第2の光路状態では、ディスプレイユニット107を用いて被写体像を観察しつつ、焦点検出ユニット121の焦点検出結果を用いた高速な焦点調節動作を行うことができる。さらに、第3の光路状態(図7)にあるときには、ハーフミラー111およびサブミラー122が撮影光路から退避する。   When in the first optical path state (FIG. 5), the half mirror 111 and the sub mirror 122 act so as to guide the subject light emitted from the imaging optical system 103 to the finder optical system and the focus detection unit 121 as described above. To do. Further, when in the second optical path state (FIG. 3), the half mirror 111 acts to guide the subject light emitted from the imaging optical system 103 to the imaging element 106 and the focus detection unit 121. In the second optical path state, it is possible to perform a high-speed focus adjustment operation using the focus detection result of the focus detection unit 121 while observing a subject image using the display unit 107. Further, when in the third optical path state (FIG. 7), the half mirror 111 and the sub mirror 122 are retracted from the photographing optical path.

次に、焦点検出ユニット121と焦点検出のための信号処理について説明する。   Next, the focus detection unit 121 and signal processing for focus detection will be described.

図3から図7において、164はコンデンサーレンズ、165は反射ミラー、166は再結像レンズ、167は焦点検出用センサである。   3 to 7, reference numeral 164 denotes a condenser lens, 165 denotes a reflecting mirror, 166 denotes a re-imaging lens, and 167 denotes a focus detection sensor.

撮影光学系103から射出し、ハーフミラー111(第2の光路状態のとき)又は、サブミラー122(第1の光路状態のとき)で反射した光束は、ミラーボックス下部のコンデンサーレンズ164に入射する。そして、反射ミラー165で偏向し、再結像レンズ166の作用によって焦点検出用センサ167上に物体の2次像を形成する。   The light beam emitted from the photographing optical system 103 and reflected by the half mirror 111 (in the second optical path state) or the sub mirror 122 (in the first optical path state) is incident on the condenser lens 164 below the mirror box. Then, the light is deflected by the reflection mirror 165, and a secondary image of the object is formed on the focus detection sensor 167 by the action of the re-imaging lens 166.

焦点検出用センサ167には少なくとも2つの画素列が備えられている。2つの画素列の出力信号波形の間には、焦点検出領域上に撮影光学系103によって形成された物体像の結像状態に応じて、相対的に横シフトした状態が観測される。前ピン、後ピンでは出力信号波形のシフト方向が逆になり、相関演算などの手法を用いてこの位相差(シフト量)を、シフト方向を含めて検出するのが焦点検出(位相差検出方式)の原理である。   The focus detection sensor 167 includes at least two pixel columns. Between the output signal waveforms of the two pixel columns, a relatively laterally shifted state is observed according to the imaging state of the object image formed by the photographing optical system 103 on the focus detection region. The shift direction of the output signal waveform is reversed at the front and rear pins, and this phase difference (shift amount), including the shift direction, is detected using a method such as correlation calculation. ).

図8及び図9は、AF制御回路140に入力された焦点検出用センサ167の出力信号波形を表す図である。横軸は画素の並びを、縦軸は出力値を表している。図8は被写体像にピントが合っていない状態での出力信号波形を示し、図9は被写体像にピントが合った状態での出力信号波形を示す。   8 and 9 are diagrams illustrating output signal waveforms of the focus detection sensor 167 input to the AF control circuit 140. FIG. The horizontal axis represents the pixel arrangement, and the vertical axis represents the output value. FIG. 8 shows an output signal waveform when the subject image is not in focus, and FIG. 9 shows an output signal waveform when the subject image is in focus.

一般に、焦点検出のための光束は、絞り開放状態での結像光束と同じではなく、結像光束の一部を使用して焦点検出が行われる。すなわち、焦点検出には暗いFナンバーの光束が用いられる。また、機構の誤差を考慮すると、撮像素子106の位置と焦点検出用センサ167の位置が厳密な意味で光学的に共役とはいえない。この結果、被写体像にピントが合った状態であっても、2つの出力信号波形の間には僅かの初期位相差Δが残る(図9)。   In general, the light beam for focus detection is not the same as the imaged light beam in the open aperture state, and focus detection is performed using a part of the imaged light beam. That is, a dark F-number light beam is used for focus detection. Further, in consideration of mechanism errors, the position of the image sensor 106 and the position of the focus detection sensor 167 are not optically conjugate in a strict sense. As a result, even if the subject image is in focus, a slight initial phase difference Δ remains between the two output signal waveforms (FIG. 9).

これは、後述する電子画像表示のピントをシャープにするためのピント補正モードでの補正(図11のステップS207参照)とは異なるものである。初期位相差Δの存在自体は、これを2像の相関演算で検出された位相差から差し引けば真の位相差を知ることができるので、通常問題とはならない。   This is different from the correction in the focus correction mode for sharpening the electronic image display focus described later (see step S207 in FIG. 11). The existence of the initial phase difference Δ is not usually a problem because the true phase difference can be known by subtracting this from the phase difference detected by the correlation calculation of the two images.

しかしながら、第1の光路状態におけるサブミラー122の反射面位置と、第2の光路状態におけるハーフミラー111の反射面位置が機構精度上完全には一致しないという問題があり、初期位相差Δも僅かに異なる。通常の部品加工精度では、およそ30μm程度は反射面がその法線方向にずれる可能性があり、この量を小さくしようとすると、部品加工のためのコストが極めて高くなる。   However, there is a problem that the position of the reflecting surface of the sub-mirror 122 in the first optical path state and the position of the reflecting surface of the half mirror 111 in the second optical path state do not completely match in terms of mechanism accuracy, and the initial phase difference Δ is also slightly Different. With normal part processing accuracy, there is a possibility that the reflective surface is shifted in the normal direction of about 30 μm. If this amount is reduced, the cost for processing the part becomes extremely high.

そこで、第1の光路状態と第2の光路状態とで初期位相差Δをそれぞれ設定しておき、光路状態に応じて初期位相差Δの値を変更する。例えば、第1の光路状態および第2の光路状態における初期位相差Δをカメラシステム制御回路135内に設けられたメモリ135aに格納しておく。そして、ミラー(ハーフミラー111およびサブミラー122)の位置を検出したり、ファインダモード(EVFモードおよびOVFモード)を検出したりすることで、第1の光路状態や第2の光路状態における初期位相差Δを読み出すことができる。   Therefore, the initial phase difference Δ is set for each of the first optical path state and the second optical path state, and the value of the initial phase difference Δ is changed according to the optical path state. For example, the initial phase difference Δ in the first optical path state and the second optical path state is stored in a memory 135 a provided in the camera system control circuit 135. Then, by detecting the position of the mirror (half mirror 111 and sub mirror 122) or detecting the finder mode (EVF mode and OVF mode), the initial phase difference in the first optical path state or the second optical path state Δ can be read out.

このように構成することによって、何れの光路状態の場合にも良好な精度で焦点検出を行うことが可能である。   With this configuration, focus detection can be performed with good accuracy in any optical path state.

このように、まず初期位相差の考え方を使って、1組の信号の同一性を判別することで合焦状態の検知を行うことができる。また、相関演算を用いた公知の手法、例えば、特公平05−088445号公報に開示されている手法を用いて位相差を検出することにより、デフォーカス量を求めることができる。得られたデフォーカス量を撮影光学系103のフォーカスレンズを駆動すべき量に換算すれば、自動焦点調節が可能である。   In this way, first, using the idea of the initial phase difference, it is possible to detect the in-focus state by determining the identity of a set of signals. Further, the defocus amount can be obtained by detecting a phase difference using a known method using correlation calculation, for example, a method disclosed in Japanese Patent Publication No. 05-088445. If the obtained defocus amount is converted into an amount by which the focus lens of the photographing optical system 103 should be driven, automatic focus adjustment is possible.

この方法では、フォーカスレンズを駆動すべき量があらかじめ分かるので、通常、フォーカスレンズの合焦位置への駆動はほぼ1回で済み、極めて高速な焦点調節が可能である。   In this method, the amount by which the focus lens is to be driven is known in advance, so that the focus lens is normally driven to the in-focus position only once, and extremely high speed focus adjustment is possible.

次に、本実施例のカメラシステムにおける撮影シーケンスについて、図10を用いて説明する。   Next, a shooting sequence in the camera system of the present embodiment will be described with reference to FIG.

ステップS100では、メインスイッチ119が操作(ON状態)されるまで待機し、操作されることでステップS101に進む。ステップS101では、カメラ本体101内の各種電気回路に電流を供給(起動)する。ステップS200では、ファインダモード切換処理のサブルーチンを実行する。この処理内容については、後述する。   In step S100, the process waits until the main switch 119 is operated (ON state), and the operation proceeds to step S101. In step S101, current is supplied (started) to various electric circuits in the camera body 101. In step S200, a subroutine for finder mode switching processing is executed. Details of this processing will be described later.

ステップS102では、ファインダモード切換スイッチ123の操作が行われたか否かを判別する。ファインダモード切換スイッチ123の操作を検出した場合には、ステップS200に戻り、ファインダモードの切換を実行する。一方、ファインダモード切換スイッチ123の操作を検出しない場合には、ステップS103に進む。   In step S102, it is determined whether or not the finder mode changeover switch 123 has been operated. When the operation of the finder mode changeover switch 123 is detected, the process returns to step S200, and the finder mode is switched. On the other hand, when the operation of the finder mode switch 123 is not detected, the process proceeds to step S103.

ステップS103では、リモート撮影モード又はセルフタイマー撮影モードが設定されているか否かを判別する。これらの撮影モードは、カメラ本体101に設けられた不図示の設定スイッチによって設定することができる。   In step S103, it is determined whether or not the remote shooting mode or the self-timer shooting mode is set. These shooting modes can be set by a setting switch (not shown) provided in the camera body 101.

ここで、リモート撮影モードとは、カメラ本体101とは別体のリモートコントロール装置の操作によって、カメラシステムにおいて撮影動作を行わせるモードである。そして、リモート撮影モードは、撮影者自身も被写体となる場合などに設定されることが多い。また、セルフタイマー撮影モードとは、撮影動作を開始させるための操作(例えば、レリーズボタン120の全押し操作)が行われてから所定時間経過後に、撮影動作を行わせるモードである。このセルフタイマー撮影モードも、撮影者自身が被写体となる場合などに設定されることが多い。   Here, the remote shooting mode is a mode in which a shooting operation is performed in the camera system by operating a remote control device separate from the camera body 101. The remote shooting mode is often set when the photographer himself / herself also becomes a subject. The self-timer shooting mode is a mode in which a shooting operation is performed after a predetermined time has elapsed since an operation for starting a shooting operation (for example, a full pressing operation of the release button 120) is performed. This self-timer shooting mode is also often set when the photographer himself is the subject.

ステップS103において、リモート撮影モードやセルフタイマー撮影モードが設定されている場合には、ステップS104に進み、設定されていない場合には、ステップS105に進む。   If the remote shooting mode or the self-timer shooting mode is set in step S103, the process proceeds to step S104. If not set, the process proceeds to step S105.

ステップS104では、ファインダ光学系のアイピースシャッタ163を閉じ状態とする。ここで、リモート撮影モードやセルフタイマー撮影モードでは、撮影者がファインダ光学系の接眼レンズ109を覗かないため、外部からの光がファインダ光学系を介してカメラ本体101内に入射してしまうことがある。この場合において、ファインダ光学系からの逆入光が焦点検出ユニット121に到達した場合には、焦点検出の誤差が発生するおそれがあり、高精度の焦点検出を行うことができないおそれがある。そこで、ステップS104では、アイピースシャッタ163を閉じ状態とすることで、ファインダ光学系からの逆入光がカメラ本体101内に入射するのを防止するようにしている。   In step S104, the eyepiece shutter 163 of the finder optical system is closed. Here, in the remote shooting mode and the self-timer shooting mode, since the photographer does not look into the eyepiece lens 109 of the finder optical system, light from outside may enter the camera body 101 through the finder optical system. is there. In this case, when back-entered light from the finder optical system reaches the focus detection unit 121, there is a possibility that a focus detection error may occur, and high-precision focus detection may not be performed. Therefore, in step S104, the eyepiece shutter 163 is closed to prevent reverse incident light from the viewfinder optical system from entering the camera body 101.

ステップS105では、キャリブレーションスイッチ118が操作(オン)されたか否かを判別する。ここで、キャリブレーションスイッチ118が操作されている場合には、ステップS700に進み、キャリブレーションモードのサブルーチンを実行する。このサブルーチンの内容については、後述する(図14)。一方、キャリブレーションスイッチ118が操作されていない場合には、ステップS106に進む。   In step S105, it is determined whether or not the calibration switch 118 has been operated (turned on). If the calibration switch 118 has been operated, the process proceeds to step S700, and a calibration mode subroutine is executed. The contents of this subroutine will be described later (FIG. 14). On the other hand, if the calibration switch 118 has not been operated, the process proceeds to step S106.

ステップS106では、操作検出回路136の出力に基づいて、レリーズボタン120が半押し操作されたか否か(言い換えれば、SW1がオン状態であるか否か)を判別する。ここで、SW1がオン状態であれば、ステップS107に進み、オフ状態であれば、ステップS102に戻る。   In step S106, based on the output of the operation detection circuit 136, it is determined whether or not the release button 120 has been pressed halfway (in other words, whether or not SW1 is in an on state). If SW1 is on, the process proceeds to step S107. If SW1 is off, the process returns to step S102.

ステップS107では、被写体輝度の測定(測光動作)が行われるとともに、焦点検出ユニット121において位相差検出方式による焦点検出動作が行われる。これらの検出結果は、カメラシステム制御回路135に送られ、露出値(シャッタ速度及び絞り値)及びデフォーカス量が演算される。ここで、焦点検出ユニット121の検出結果は、後述するように、EVFキャリブレーション(図15)で得られる補正量Δxを用いて補正された値である。   In step S107, subject luminance is measured (photometric operation), and the focus detection unit 121 performs a focus detection operation using a phase difference detection method. These detection results are sent to the camera system control circuit 135, and an exposure value (shutter speed and aperture value) and a defocus amount are calculated. Here, the detection result of the focus detection unit 121 is a value corrected using the correction amount Δx obtained by EVF calibration (FIG. 15), as will be described later.

そして、演算されたデフォーカス量に基づいて、AF制御回路140及びレンズシステム制御回路141の制御により、撮影光学系のフォーカスレンズを駆動してピント合わせを行う。また、演算された絞り値に基づいて、絞り143を駆動して光通過口の開口面積を切り換える。なお、EVFモードに設定されている場合、言い換えれば、カメラ本体101が第2の光路状態(図3)にある場合には、撮像素子106の出力に基づいて、コントラスト検出方式による焦点検出を行うこともできる。   Then, based on the calculated defocus amount, the focus lens of the photographing optical system is driven and focused under the control of the AF control circuit 140 and the lens system control circuit 141. Further, based on the calculated aperture value, the aperture 143 is driven to switch the opening area of the light passage opening. When the EVF mode is set, in other words, when the camera body 101 is in the second optical path state (FIG. 3), focus detection by the contrast detection method is performed based on the output of the image sensor 106. You can also

ステップS108では、操作検出回路136の出力に基づいて、レリーズボタン120が全押し操作されたか否か(言い換えれば、SW2がオン状態であるか否か)を判別する。ここで、SW2がオン状態であれば、ステップS109に進み、オフ状態であれば、ステップS106に戻る。   In step S108, based on the output of the operation detection circuit 136, it is determined whether or not the release button 120 has been fully pressed (in other words, whether or not SW2 is in an ON state). If SW2 is on, the process proceeds to step S109. If SW2 is off, the process returns to step S106.

ステップS109では、ファインダ光学系のアイピースシャッタ163を閉じ状態とする。ステップS110では、ミラー駆動機構を駆動することにより、ハーフミラー111及びサブミラー122を第3の光路状態(図7)とする。ステップS111では、ステップS107で演算されたシャッタ速度に基づいてシャッタ113を動作させることで、撮像素子106への露光を行う。撮像素子106からの出力信号は、上述したように、画像処理系に入力される。   In step S109, the eyepiece shutter 163 of the finder optical system is closed. In Step S110, the half mirror 111 and the sub mirror 122 are set to the third optical path state (FIG. 7) by driving the mirror driving mechanism. In step S111, the image sensor 106 is exposed by operating the shutter 113 based on the shutter speed calculated in step S107. As described above, the output signal from the image sensor 106 is input to the image processing system.

ステップS112では、撮像素子106から読み出された画像信号が、A/D変換器130を介してRGB画像処理回路131に送られ、ホワイトバランス処理、ガンマ補正、補間演算処理が施される。また、YC処理回路132において、YC処理が行われて画像処理が完了する。これらの画像処理により、高精彩な画像の取り込みが可能となる。   In step S112, the image signal read from the image sensor 106 is sent to the RGB image processing circuit 131 via the A / D converter 130, and subjected to white balance processing, gamma correction, and interpolation calculation processing. In the YC processing circuit 132, YC processing is performed and image processing is completed. By these image processes, high-definition images can be captured.

ステップS113では、画像処理後の画像を記録処理回路133に送り、所定の圧縮形式にて圧縮して記録する。ステップS114では、画像処理後の画像を再生処理回路134にも送り、ディスプレイユニット107に撮影画像を表示(プレビュー表示)させる。ステップS114の処理の後は、ステップS200に戻る。   In step S113, the image-processed image is sent to the recording processing circuit 133, and is compressed and recorded in a predetermined compression format. In step S114, the image processed image is also sent to the reproduction processing circuit 134, and the captured image is displayed (preview display) on the display unit 107. After the process of step S114, the process returns to step S200.

次に、ファインダモードの切り換え動作について説明する。   Next, the finder mode switching operation will be described.

カメラ内の電気回路が動作している間は、各操作スイッチの状態が操作検出回路136を介して検出され、ファインダモード切換スイッチ123が操作されたことを検出すると、ファインダモード(OVFモードおよびEVFモード)の切り換え動作が直ちに開始される(図10のステップS200)。   While the electric circuit in the camera is operating, the state of each operation switch is detected via the operation detection circuit 136. When it is detected that the finder mode changeover switch 123 is operated, the finder mode (OVF mode and EVF mode) is detected. The mode switching operation is immediately started (step S200 in FIG. 10).

図11は、ファインダモードの切り換え動作を説明するためのフローチャートであり、以下、このフローに沿って説明する。   FIG. 11 is a flowchart for explaining the finder mode switching operation, which will be described along this flow.

ステップS201において、現在のファインダモードが検知され、ファインダモード切換スイッチ123の操作によりOVFモードからEVFモードへ切り換えられたときには、ステップS202へ移行する。一方、ファインダモード切換スイッチ123の操作により、EVFモードからOVFモードへ切り換えられたときにはステップS220へ移行する。   In step S201, when the current finder mode is detected and the finder mode changeover switch 123 is operated to switch from the OVF mode to the EVF mode, the process proceeds to step S202. On the other hand, when the EVF mode is switched to the OVF mode by operating the finder mode switch 123, the process proceeds to step S220.

まず、OVFモードからEVFモードに切り換えられた場合について説明する。   First, a case where the OVF mode is switched to the EVF mode will be described.

OVFモードにおいては、ハーフミラー111およびサブミラー122からなる光路分割系が第1の光路状態(図5)となっている。EVFモードでは、光学ファインダに物体光を導かないため、まず、ステップS202において、カメラシステム制御回路135は、不図示の駆動源を駆動することによりアイピースシャッタ163を閉じ動作させる。すなわち、アイピースシャッタ163を、レンズ109bおよびレンズ109c間におけるファインダ光路内に進入させる。   In the OVF mode, the optical path splitting system composed of the half mirror 111 and the sub mirror 122 is in the first optical path state (FIG. 5). In the EVF mode, since no object light is guided to the optical viewfinder, first, in step S202, the camera system control circuit 135 drives the driving source (not shown) to close the eyepiece shutter 163. That is, the eyepiece shutter 163 is caused to enter the finder optical path between the lens 109b and the lens 109c.

これは、EVFモードが設定されているときに接眼レンズ109を介して被写体像が見えなくなるのを、撮影者がカメラの故障と誤解しないようにするためである。また、光学ファインダからの逆入光が撮像素子106に入射することにより、ゴーストが発生するのを防ぐためである。   This is to prevent the photographer from misunderstanding that the subject image becomes invisible through the eyepiece lens 109 when the EVF mode is set, as a camera failure. Another reason for this is to prevent the occurrence of a ghost due to the back incident light from the optical viewfinder entering the image sensor 106.

ステップS203では、情報表示ユニット180の駆動制御により光学ファインダ内の情報表示を非表示状態とする。これは、ステップS202において、すでにアイピースシャッタ163を閉じ状態としているため、光学ファインダ内に情報表示を行っても撮影者はこの表示を見ることができないからである。これにより、電力消費を軽減して電池の消耗を抑えることができる。   In step S203, the information display in the optical viewfinder is set to the non-display state by the drive control of the information display unit 180. This is because, since the eyepiece shutter 163 is already closed in step S202, the photographer cannot see this display even if information is displayed in the optical viewfinder. Thereby, power consumption can be reduced and consumption of the battery can be suppressed.

ステップS204では、ミラー駆動機構を動作させることにより、ハーフミラー111を第2の光路状態(図3)に移行させるのに備えて、サブミラー122をミラーボックスの下部に退避させる(図3)。   In step S204, the sub mirror 122 is retracted to the lower part of the mirror box in preparation for moving the half mirror 111 to the second optical path state (FIG. 3) by operating the mirror driving mechanism (FIG. 3).

ステップS205では、ミラーストッパ160、161をハーフミラー111の移動軌跡上から退避させる。ミラーストッパ160、161が退避した後、ステップS206では、ミラー駆動機構によりハーフミラー駆動レバー170を反時計方向に回転させる。これにより、ハーフミラー111は、不図示のトーションバネによる矢印A方向の付勢力を受けることで、図4に示す状態を経て第2の光路状態(図3)となる。   In step S205, the mirror stoppers 160 and 161 are retracted from the movement locus of the half mirror 111. After the mirror stoppers 160 and 161 are retracted, in step S206, the half mirror drive lever 170 is rotated counterclockwise by the mirror drive mechanism. As a result, the half mirror 111 receives the urging force in the direction of arrow A by a torsion spring (not shown), and enters the second optical path state (FIG. 3) through the state shown in FIG.

ハーフミラー111が第2の光路状態にあるときには、撮影光学系103からの光束のうち一部の光束がハーフミラー111で反射して焦点検出ユニット121に導かれる。また、残りの光束は、ハーフミラー111を透過して撮像素子106側に向かう。   When the half mirror 111 is in the second optical path state, a part of the light beam from the photographing optical system 103 is reflected by the half mirror 111 and guided to the focus detection unit 121. Further, the remaining light flux passes through the half mirror 111 and travels toward the image sensor 106 side.

第2の光路状態では、ハーフミラー111が、トーションバネによる矢印A方向の付勢力を受けることにより、撮影光路外に配置されたミラーストッパ175、176に当接して位置決めされる。このとき、ピン173は、ハーフミラー駆動レバー170の第1カム面170bに当接しておらず、ピン174は、ハーフミラー駆動レバー170の第2カム面170cに当接していない。   In the second optical path state, the half mirror 111 is positioned in contact with the mirror stoppers 175 and 176 disposed outside the photographing optical path by receiving a biasing force in the direction of arrow A by the torsion spring. At this time, the pin 173 does not contact the first cam surface 170b of the half mirror drive lever 170, and the pin 174 does not contact the second cam surface 170c of the half mirror drive lever 170.

ハーフミラー111の反射面の位置は、第1の光路状態においてサブミラー122の反射面があった位置と略等しくなっている。このように構成することで、サブミラー122(第1の光路状態)により焦点検出ユニット121に導かれる反射光と、ハーフミラー111(第2の光路状態)により焦点検出ユニット121に導かれる反射光とがずれるのを抑制することができる。これにより、焦点検出領域の位置がほとんど変化しないようにすることができる。   The position of the reflecting surface of the half mirror 111 is substantially the same as the position where the reflecting surface of the sub mirror 122 is located in the first optical path state. With this configuration, the reflected light guided to the focus detection unit 121 by the sub mirror 122 (first optical path state), and the reflected light guided to the focus detection unit 121 by the half mirror 111 (second optical path state). It is possible to suppress the shift. Thereby, the position of the focus detection area can be hardly changed.

ここで、ハーフミラー111を透過した光束が撮像素子106上で結像されることで形成される被写体像のピント位置は、被写体光がハーフミラー111を透過しない場合のピント位置に比べて若干ずれることがある。このため、ステップS207では、ピント位置のずれを補正するために、ピント補正モードを起動する。   Here, the focus position of the subject image formed by the light flux that has passed through the half mirror 111 formed on the image sensor 106 is slightly deviated from the focus position when the subject light does not pass through the half mirror 111. Sometimes. For this reason, in step S207, the focus correction mode is activated in order to correct the shift of the focus position.

第1の光路状態において、焦点検出ユニット121は、ハーフミラー111およびサブミラー122が撮影光路から退避(第3の光路状態)したときに、物体像が撮像素子106上にシャープに結像するように焦点検出信号を出力している。   In the first optical path state, the focus detection unit 121 causes the object image to be sharply formed on the image sensor 106 when the half mirror 111 and the sub mirror 122 are retracted from the imaging optical path (third optical path state). A focus detection signal is output.

これに対して、第2の光路状態でピント補正モードがオン状態にあるときは、ハーフミラー111を透過して撮像素子106上に投影された被写体像がシャープに結像するように焦点検出ユニット121の焦点検出信号を補正する。これにより、第2の光路状態でピント補正モードが設定されている場合、第2の光路状態におけるフォーカスレンズの合焦位置は、焦点検出ユニット121の焦点検出信号を補正した分だけ、第3の光路状態におけるフォーカスレンズの合焦位置に対してずれる。   On the other hand, when the focus correction mode is on in the second optical path state, the focus detection unit transmits the half mirror 111 and projects the subject image projected onto the image sensor 106 sharply. The focus detection signal 121 is corrected. As a result, when the focus correction mode is set in the second optical path state, the focus position of the focus lens in the second optical path state is the third amount corresponding to the correction of the focus detection signal of the focus detection unit 121. It shifts with respect to the focus position of the focus lens in the optical path state.

したがって、EVFモードが設定されている状態において、撮像動作の開始に応じて、第2の光路状態から第3の光路状態に切り換わるときには、これと同期してシャッタ113の先幕駆動機構をチャージ(シャッタ113を閉じ状態)する。また、ピント補正モードにより物体像のピント位置を補正した分だけフォーカスレンズを元の位置(第3の光路状態における合焦位置)に戻す。その後、シャッタ113を所定時間だけ開けて撮像素子106による撮像を行う。   Therefore, when the EVF mode is set, when the second optical path state is switched to the third optical path state in response to the start of the imaging operation, the front curtain drive mechanism of the shutter 113 is charged in synchronization with this. (Shutter 113 is closed). Further, the focus lens is returned to the original position (the in-focus position in the third optical path state) by the amount corresponding to the correction of the focus position of the object image in the focus correction mode. Thereafter, the shutter 113 is opened for a predetermined time, and the image sensor 106 performs imaging.

このように構成することにより、第2の光路状態においてディスプレイユニット107に表示された画像に基づいてピントの状態を正確に確認した上で、第3の光路状態でピントの合った画像を撮像することができる。   With this configuration, the focus state is accurately confirmed based on the image displayed on the display unit 107 in the second optical path state, and then an image in focus in the third optical path state is captured. be able to.

ステップS208では、シャッタ113の先幕だけを走行させてバルブ露光状態にして撮像素子116に連続的に物体光を導き、ディスプレイユニット107上に画像を表示するための撮像を可能にする。   In step S <b> 208, only the front curtain of the shutter 113 is caused to travel so as to be in a bulb exposure state, and object light is continuously guided to the image sensor 116, thereby enabling imaging for displaying an image on the display unit 107.

ステップS300では、EVFキャリブレーションを実行し、コントラスト検出方式の焦点検出結果を用いて、位相差検出方式の焦点検出結果を補正するための補正量を求める。このEVFキャリブレーションの具体的な内容については、後述する(図15)。本実施例では、EVFモードが設定される度に、位相差検出方式の焦点検出結果を補正するための補正量を求めるようにしている。これにより、経時変化に応じた補正量を求めることができ、この補正量を用いることによって位相差検出方式の検出誤差を抑制することができる。そして、位相差検出方式の検出精度を向上させることができる。   In step S300, EVF calibration is executed, and a correction amount for correcting the focus detection result of the phase difference detection method is obtained using the focus detection result of the contrast detection method. The specific contents of this EVF calibration will be described later (FIG. 15). In this embodiment, every time the EVF mode is set, a correction amount for correcting the focus detection result of the phase difference detection method is obtained. Thereby, the correction amount according to the change with time can be obtained, and the detection error of the phase difference detection method can be suppressed by using this correction amount. And the detection accuracy of a phase difference detection system can be improved.

ステップS209では、ディスプレイユニット107の電源を投入する。ステップS210では、撮像素子106にて連続的に物体像を撮像し、ディスプレイユニット107上でリアルタイム表示を開始し、一連のファインダ切り換え処理を終了する。   In step S209, the display unit 107 is powered on. In step S210, object images are continuously picked up by the image pickup device 106, real-time display is started on the display unit 107, and a series of viewfinder switching processes are ended.

EVFモード(第2の光路状態)では、撮影光学系103から射出された被写体光がハーフミラー111での屈折作用を受けるため、ディスプレイユニット107上にリアルタイム表示される被写体の電子画像は、第3の光路状態において実際に撮像される画像に比べて僅かに上下方向にずれる。   In the EVF mode (second optical path state), since the subject light emitted from the photographing optical system 103 is refracted by the half mirror 111, the electronic image of the subject displayed in real time on the display unit 107 is the third one. In the optical path state, the image is slightly shifted in the vertical direction as compared with the actually captured image.

図12は、第2の光路状態でディスプレイユニット107上に表示される画像と、第3の光路状態で実際に撮影される画像とのズレを説明するための図である。図12において、190は、第2の光路状態で撮像される撮像範囲(太線の枠で囲まれた領域)を示す。すなわち、リアルタイム表示の際にディスプレイユニット107に出力可能な撮影画像の範囲を示す。191は、第3の光路状態で撮像される撮像範囲である。   FIG. 12 is a diagram for explaining a difference between an image displayed on the display unit 107 in the second optical path state and an image actually captured in the third optical path state. In FIG. 12, reference numeral 190 denotes an imaging range (region surrounded by a thick line frame) that is imaged in the second optical path state. That is, it indicates the range of captured images that can be output to the display unit 107 during real-time display. Reference numeral 191 denotes an imaging range in which imaging is performed in the third optical path state.

撮像範囲190と撮像範囲191は上下方向にシフトした関係にある。この結果、ディスプレイユニット107には出力可能であるものの、第3の光路状態で撮像されない領域190a、すなわち、撮像範囲190のうち撮像範囲191と重ならない領域が存在する。   The imaging range 190 and the imaging range 191 have a relationship shifted in the vertical direction. As a result, the display unit 107 can output, but there is a region 190 a that is not imaged in the third optical path state, that is, a region that does not overlap the imaging range 191 in the imaging range 190.

そこで、再生処理回路134は、図13に示すように図12の領域190aに相当する領域192を非表示状態とし、撮影範囲190全体をディスプレイユニット107で表示しないように処理する。これにより、ディスプレイユニット107には、撮像領域190のうち領域192を覗く領域が表示されることになる。これにより、EVFモードでディスプレイユニット107に表示されているにもかかわらず、実際には撮影されないという不具合を無くすことができる。   Therefore, the reproduction processing circuit 134 performs processing so that the area 192 corresponding to the area 190a in FIG. 12 is not displayed and the entire photographing range 190 is not displayed on the display unit 107 as shown in FIG. As a result, the display unit 107 displays a region looking into the region 192 in the imaging region 190. As a result, it is possible to eliminate the inconvenience that the image is not actually photographed despite being displayed on the display unit 107 in the EVF mode.

次に、ステップS201におけるファインダモードの判別により、EVFモードからOVFモードへ切り換えるためにステップS220へ移行した場合について説明する。   Next, a case will be described in which the process proceeds to step S220 in order to switch from the EVF mode to the OVF mode by determining the finder mode in step S201.

初期状態のEVFモードにおいては、ハーフミラー111とサブミラー122からなる光路分割系は第2の光路状態(図3)にあり、上述したようにディスプレイユニット107でリアルタイム表示が為されている。   In the EVF mode in the initial state, the optical path division system composed of the half mirror 111 and the sub mirror 122 is in the second optical path state (FIG. 3), and real-time display is performed on the display unit 107 as described above.

ステップS220では、ディスプレイユニット107の電源をオフ状態にするとともに、撮像素子106による撮像を停止する。ステップS221では、シャッタ113の後幕を走行させてシャッタ113を閉じ状態とし、撮影に備えて先幕・後幕駆動機構をチャージする。   In step S220, the power of the display unit 107 is turned off and imaging by the image sensor 106 is stopped. In step S221, the rear curtain of the shutter 113 is moved to close the shutter 113, and the front curtain / rear curtain drive mechanism is charged in preparation for shooting.

ステップS222では、ハーフミラー111の移動を可能にするために、ミラーストッパ160、161をハーフミラー111の移動軌跡から退避させる。ステップS223では、ハーフミラー駆動レバー170を図3中時計回りに回転させることにより、光路分割系であるハーフミラー111およびサブミラー122を図4の状態→図5の状態→図6の状態→図7の状態(第3の光路状態)となるように移動させる。   In step S <b> 222, the mirror stoppers 160 and 161 are retracted from the movement locus of the half mirror 111 in order to enable the movement of the half mirror 111. In step S223, the half mirror drive lever 170 is rotated clockwise in FIG. 3, so that the half mirror 111 and the sub mirror 122, which are optical path dividing systems, are in the state of FIG. 4, the state of FIG. 5, the state of FIG. To be in the state (third optical path state).

ハーフミラー駆動レバー170が時計方向に回転すると、ピン174は第2カム面170cに押し込まれて移動し、ピン173は第1カム面170bに押し込まれて移動する。これにより、ハーフミラー支持アーム171が回転軸171aを中心に時計方向に回転するとともに、ハーフミラー111がピン173を中心に時計方向に回転する。   When the half mirror drive lever 170 rotates in the clockwise direction, the pin 174 is pushed and moved into the second cam surface 170c, and the pin 173 is pushed and moved into the first cam surface 170b. As a result, the half mirror support arm 171 rotates clockwise about the rotation shaft 171a, and the half mirror 111 rotates clockwise about the pin 173.

ステップS224では、ミラーストッパ160、161をハーフミラー111の移動軌跡内に挿入させる。第3の光路状態までハーフミラー111を移動させてからミラーストッパ160、161を挿入するため、ミラーストッパ160、161の挿入に際してハーフミラー111と衝突することはない。そして、ハーフミラー111の位置を切り換える際(OVFモードおよびEVFモード間の切り換え)の機構的信頼性を高くすることができる。   In step S224, the mirror stoppers 160 and 161 are inserted into the movement locus of the half mirror 111. Since the mirror stoppers 160 and 161 are inserted after the half mirror 111 is moved to the third optical path state, there is no collision with the half mirror 111 when the mirror stoppers 160 and 161 are inserted. The mechanical reliability when switching the position of the half mirror 111 (switching between the OVF mode and the EVF mode) can be increased.

なお、本実施例ではハーフミラー111を第3の光路状態まで移動させているが、ミラーストッパ160、161がハーフミラー111に衝突しなければよいため、ハーフミラー111を第3の光路状態に相当する位置の近傍まで移動させてもよい。   In this embodiment, the half mirror 111 is moved to the third optical path state. However, since the mirror stoppers 160 and 161 do not have to collide with the half mirror 111, the half mirror 111 corresponds to the third optical path state. You may move to the vicinity of the position to do.

ステップS225では、ハーフミラー駆動レバー170を図7中反時計回りに回転させることにより、ハーフミラー111を第3の光路状態(図7)から図6の状態を経て第1の光路状態(図5)とする。このとき、ハーフミラー111は、ミラー駆動機構内の不図示のバネの付勢力を受けてミラーストッパ160、161に当接した状態となる。   In Step S225, the half mirror 111 is rotated from the third optical path state (FIG. 7) to the first optical path state (FIG. 5) by rotating the half mirror drive lever 170 counterclockwise in FIG. ). At this time, the half mirror 111 receives a biasing force of a spring (not shown) in the mirror driving mechanism and is in contact with the mirror stoppers 160 and 161.

ステップS226では、アイピースシャッタ163を開く。ステップS227では、操作検出回路136からの出力に基づいてマニュアル(M)フォーカスモードに設定されているか否かを判別する。ここで、マニュアルフォーカスモードであればステップS208に移行し、マニュアルフォーカスモードではなくオートフォーカスモードであれば、ステップ228に進む。   In step S226, the eyepiece shutter 163 is opened. In step S227, based on the output from the operation detection circuit 136, it is determined whether or not the manual (M) focus mode is set. If the manual focus mode is selected, the process proceeds to step S208. If the manual focus mode is selected instead of the manual focus mode, the process proceeds to step 228.

マニュアルフォーカスモードである場合には、焦点検出ユニット121を動作させる必要がなく、背景のボケ具合の把握が光学ファインダよりも電子画像表示の方が正確にできる。このため、ディスプレイユニット107でのリアルタイム表示を行うステップS208に移行する。   In the manual focus mode, it is not necessary to operate the focus detection unit 121, and the electronic image display can be more accurately understood than the optical viewfinder to grasp the background blur. For this reason, the process proceeds to step S208 for performing real-time display on the display unit 107.

ステップS228では、焦点検出ユニット121に被写体光を導くようにサブミラー122を所定の位置にセットする。すなわち、ミラーボックスの下部に収納(図7)されているサブミラー122を、回転軸125を中心に回転させることにより、ハーフミラー111の背後に移動させる(図5)。   In step S228, the sub mirror 122 is set at a predetermined position so as to guide subject light to the focus detection unit 121. That is, the sub mirror 122 housed in the lower part of the mirror box (FIG. 7) is moved behind the half mirror 111 by rotating around the rotation shaft 125 (FIG. 5).

ステップS229では、情報表示ユニット180の駆動制御により所定の情報をファインダ内に点灯表示し、一連のファインダ切り換え処理を終了する。   In step S229, predetermined information is lit and displayed in the viewfinder by the drive control of the information display unit 180, and the series of viewfinder switching processes is terminated.

次に、図14を用いて、キャリブレーションモード(図10のステップS700)について説明する。   Next, the calibration mode (step S700 in FIG. 10) will be described with reference to FIG.

ステップS701では、ファインダモードがEVFモードであるか否かを判別する。ここで、EVFモードが設定されている場合にはステップS300に進み、EVFモードが設定されていない場合にはステップS702に進む。   In step S701, it is determined whether or not the finder mode is the EVF mode. If the EVF mode is set, the process proceeds to step S300. If the EVF mode is not set, the process proceeds to step S702.

ステップS300では、EVFキャリブレーションを実行し、コントラスト検出方式の焦点検出結果を用いて、位相差検出方式の焦点検出結果を補正するための補正量を求める。このEVFキャリブレーションの具体的な内容については、後述する(図15)。本実施例では、キャリブレーションスイッチ118が操作されるたびに、位相差検出方式の焦点検出結果を補正するための補正量を求めるようにしている。これにより、経時変化に応じた補正量を求めることができ、この補正量を用いることによって位相差検出方式の検出誤差を抑制することができる。そして、位相差検出方式の検出精度を向上させることができる。   In step S300, EVF calibration is executed, and a correction amount for correcting the focus detection result of the phase difference detection method is obtained using the focus detection result of the contrast detection method. The specific contents of this EVF calibration will be described later (FIG. 15). In this embodiment, every time the calibration switch 118 is operated, a correction amount for correcting the focus detection result of the phase difference detection method is obtained. Thereby, the correction amount according to the change with time can be obtained, and the detection error of the phase difference detection method can be suppressed by using this correction amount. And the detection accuracy of a phase difference detection system can be improved.

ステップS702では、ファインダ光学系のアイピースシャッタ163を閉じ状態とする。ステップS703では、ミラー駆動機構を動作させることにより、ハーフミラー111を第2の光路状態(図3)に移動させるのに備えて、サブミラー122をミラーボックス下部に退避させる(図3)。   In step S702, the eyepiece shutter 163 of the finder optical system is closed. In step S703, the sub mirror 122 is retracted to the lower part of the mirror box in preparation for moving the half mirror 111 to the second optical path state (FIG. 3) by operating the mirror driving mechanism (FIG. 3).

ステップS704では、ミラーストッパ160、161をハーフミラー111の移動軌跡から退避させる。ミラーストッパ160、161が退避した後、ステップS705では、ミラー駆動機構によりハーフミラー駆動レバー170を反時計方向に回転させる。これにより、ハーフミラー111は、不図示のバネによる矢印A方向の付勢力を受けることで、図4に示す状態を経て第2の光路状態(図3)となる。この結果、被写体光が、ハーフミラー111で反射して、焦点検出ユニット121に導かれる状態となる。   In step S704, the mirror stoppers 160 and 161 are retracted from the movement locus of the half mirror 111. After the mirror stoppers 160 and 161 are retracted, in step S705, the half mirror drive lever 170 is rotated counterclockwise by the mirror drive mechanism. Thereby, the half mirror 111 is in the second optical path state (FIG. 3) through the state shown in FIG. 4 by receiving a biasing force in the direction of arrow A by a spring (not shown). As a result, the subject light is reflected by the half mirror 111 and guided to the focus detection unit 121.

ステップS706では、シャッタ113の先幕だけを走行させてバルブ露光状態にして撮像素子106に連続的に被写体光を導き、ディスプレイユニット107上に画像を表示するための撮像を可能にする。ステップS300では、後述するEVFキャリブレーションを実行する。   In step S <b> 706, only the front curtain of the shutter 113 is caused to travel so as to be in a bulb exposure state, and subject light is continuously guided to the image sensor 106 to enable imaging for displaying an image on the display unit 107. In step S300, EVF calibration described later is executed.

ステップS707では、シャッタ113の後幕を走行させてシャッタ113を閉じ状態とし、撮影に備えて先幕・後幕駆動機構をチャージする。ステップS708では、ハーフミラー111の移動を可能にするために、ミラーストッパ160、161をハーフミラー111の移動軌跡から退避させる。   In step S707, the rear curtain of the shutter 113 is moved to close the shutter 113, and the front curtain / rear curtain drive mechanism is charged in preparation for shooting. In step S <b> 708, the mirror stoppers 160 and 161 are retracted from the movement locus of the half mirror 111 in order to enable the movement of the half mirror 111.

ステップS709では、ハーフミラー駆動レバー170を図3中時計回りに回転させることにより、光路分割系であるハーフミラー111及びサブミラー122を、図4の状態→図5の状態→図6の状態→図7の状態(第3の光路状態)となるように移動させる。   In step S709, by rotating the half mirror drive lever 170 clockwise in FIG. 3, the half mirror 111 and the sub mirror 122, which are optical path dividing systems, are in the state of FIG. 4, the state of FIG. 5, the state of FIG. 7 so as to be in the state 7 (third optical path state).

ステップS710では、ミラーストッパ160、161を、ハーフミラー111の移動軌跡内に挿入させる。第3の光路状態までハーフミラー111を移動させてからミラーストッパ160、161を挿入するため、ミラーストッパ160、161の挿入に際してハーフミラー111と衝突することはない。そして、ハーフミラー111の位置を切り換える際(OVFモード及びEVFモード間の切り換え)の機械的信頼性を向上させることができる。   In step S710, the mirror stoppers 160 and 161 are inserted into the movement locus of the half mirror 111. Since the mirror stoppers 160 and 161 are inserted after the half mirror 111 is moved to the third optical path state, there is no collision with the half mirror 111 when the mirror stoppers 160 and 161 are inserted. And the mechanical reliability at the time of switching the position of the half mirror 111 (switching between OVF mode and EVF mode) can be improved.

ステップS711では、ハーフミラー駆動レバー170を図7中反時計回りに回転させることにより、ハーフミラー111を第3の光路状態(図7)から図6の状態を経て、第1の光路状態(図5)とする。このとき、ハーフミラー111は、ミラー駆動機構内の不図示のバネの付勢力を受けてミラーストッパ160、161に当接した状態となる。   In step S711, the half mirror 111 is rotated from the third optical path state (FIG. 7) to the first optical path state (FIG. 6) by rotating the half mirror drive lever 170 counterclockwise in FIG. 5). At this time, the half mirror 111 receives a biasing force of a spring (not shown) in the mirror driving mechanism and is in contact with the mirror stoppers 160 and 161.

ステップS712では、ファインダ光学系のアイピースシャッタ163を開き状態とする。ステップS713では、焦点検出ユニット121に被写体光が導かれるように、サブミラー122を所定位置(図5に示す位置)に移動させる。   In step S712, the eyepiece shutter 163 of the viewfinder optical system is opened. In step S713, the sub mirror 122 is moved to a predetermined position (position shown in FIG. 5) so that subject light is guided to the focus detection unit 121.

図14で説明したように、本実施例では、EVFモードが設定されていない場合でも、キャリブレーションスイッチ118を操作するだけで、自動的にEVFキャリブレーションが実行される。すなわち、EVFモード及びOVFモードのいずれかが設定されているかに拘わらず、キャリブレーションスイッチ118を操作するだけで、自動的にEVFキャリブレーションを実行させることができる。このため、OVFモードに設定されている場合において、EVFキャリブレーションを実行させるために、ファインダモード切換スイッチ123の操作によって、EVFモードに切り換える必要がない。   As described with reference to FIG. 14, in the present embodiment, EVF calibration is automatically executed only by operating the calibration switch 118 even when the EVF mode is not set. That is, regardless of whether the EVF mode or the OVF mode is set, the EVF calibration can be automatically executed only by operating the calibration switch 118. Therefore, when the OVF mode is set, it is not necessary to switch to the EVF mode by operating the finder mode changeover switch 123 in order to execute EVF calibration.

次に、図15を用いて、EVFキャリブレーション(図11及び図14のステップS300)のサブルーチンについて説明する。   Next, a subroutine for EVF calibration (step S300 in FIGS. 11 and 14) will be described with reference to FIG.

ステップS301では、焦点検出ユニット121を用いて位相差検出方式による焦点検出を行う。ステップS302では、ステップS301で得られた焦点検出結果に基づいて、撮影光学系103のフォーカスレンズを光軸方向に駆動する。具体的には、焦点検出結果におけるずれの方向に、所定量(デフォーカス量に対応した量)だけフォーカスレンズを移動させる。これにより、フォーカスレンズは、位相差検出方式において合焦状態と判断される位置で停止することになる。   In step S <b> 301, focus detection by the phase difference detection method is performed using the focus detection unit 121. In step S302, the focus lens of the photographing optical system 103 is driven in the optical axis direction based on the focus detection result obtained in step S301. Specifically, the focus lens is moved by a predetermined amount (an amount corresponding to the defocus amount) in the direction of deviation in the focus detection result. As a result, the focus lens stops at a position determined to be in focus in the phase difference detection method.

ステップS303では、フォーカスレンズの位置を示すレンズ繰り出し段数nに、初期値「1」を代入する。ステップS304において、カメラシステム制御回路135は、AF制御回路140に制御信号を出力することにより、焦点検出用センサ167による焦点検出動作を開始させる。そして、ステップS305において、カメラシステム制御回路135は、撮像素子駆動回路137を介して撮像素子106の駆動を制御することにより、撮像面における被写体像のコントラスト値Cnを取得する。具体的には、撮像素子106の撮像面のうち、焦点検出領域に対応する撮像領域のコントラスト値Cnを取得する。   In step S303, an initial value “1” is substituted into the lens extension stage number n indicating the position of the focus lens. In step S <b> 304, the camera system control circuit 135 outputs a control signal to the AF control circuit 140 to start the focus detection operation by the focus detection sensor 167. In step S305, the camera system control circuit 135 controls the driving of the image sensor 106 via the image sensor driving circuit 137, thereby acquiring the contrast value Cn of the subject image on the imaging surface. Specifically, the contrast value Cn of the imaging area corresponding to the focus detection area on the imaging surface of the imaging element 106 is acquired.

ここで、上述したように、撮像素子106に到達する光束は、ハーフミラー111での屈折作用を受けるため、ハーフミラー111を透過せずに撮像素子106に到達する光束の結像位置に対して上下方向にずれてしまう。このため、本実施例では、コントラスト検出方式の焦点検出に用いられる撮像領域は、上記ずれを考慮した位置に設定している。これにより、ハーフミラー111の透過光を用いてコントラスト検出方式の焦点検出を行う場合にも、撮像素子106上での焦点検出領域が焦点検出用センサ167での焦点検出領域に対してずれることがない。すなわち、これらの焦点検出領域を光学的に共役な位置関係に維持することができる。   Here, as described above, since the light beam reaching the image sensor 106 is refracted by the half mirror 111, the light beam reaching the image sensor 106 without passing through the half mirror 111 is compared with the imaging position of the light beam. It will shift up and down. For this reason, in the present embodiment, the imaging region used for focus detection in the contrast detection method is set at a position that takes the above-described deviation into consideration. As a result, even when contrast detection focus detection is performed using light transmitted through the half mirror 111, the focus detection area on the image sensor 106 may be shifted from the focus detection area on the focus detection sensor 167. Absent. That is, these focus detection areas can be maintained in an optically conjugate positional relationship.

また、本実施例では、撮像素子106を用いて、高速フレームレートで撮像を行うことで、コントラスト値Cnを取得する。高速フレームレートを実現するために、撮像素子106では間引いた読み出しを行っている。ここで、本実施例では、撮像素子106として、任意の画素へのランダムアクセスが可能であるCMOSセンサを用いているため、コントラスト取得用の間引いた読み出しを行うことができる。   In this embodiment, the contrast value Cn is acquired by performing imaging at a high frame rate using the imaging element 106. In order to realize a high-speed frame rate, the image sensor 106 performs thinned readout. In this embodiment, since a CMOS sensor capable of random access to an arbitrary pixel is used as the image sensor 106, thinning-out readout for contrast acquisition can be performed.

ステップS304における位相差検出方式では、被写体光のうちハーフミラー111で反射した成分を用いて焦点検出を行っている。また、ステップS305におけるコントラスト検出方式では、被写体光のうちハーフミラー111を透過した成分を用いて焦点検出を行っている。すなわち、ステップS304及びステップS305では、同一の被写体からの光を用いて焦点検出を行っていることになる。   In the phase difference detection method in step S304, focus detection is performed using a component reflected by the half mirror 111 in the subject light. In the contrast detection method in step S305, focus detection is performed using a component of the subject light that has passed through the half mirror 111. That is, in steps S304 and S305, focus detection is performed using light from the same subject.

また、ステップS304及びステップS305の各処理を略同じタイミングで行うことで、同一の被写体に対して略同一のタイミングで焦点検出を行うことができる。これにより、略同一のタイミングにおいて、同一の被写体に対する2つの焦点検出結果を得ることができる。   Further, by performing each processing of step S304 and step S305 at substantially the same timing, focus detection can be performed on the same subject at substantially the same timing. Thereby, two focus detection results for the same subject can be obtained at substantially the same timing.

ステップS306において、カメラシステム制御回路135は、レンズシステム制御回路141を介して撮影光学系103のフォーカスレンズを駆動する。具体的には、1ステップ分だけフォーカスレンズを光軸方向一方向に移動させる。ここで、フォーカスレンズの駆動時における1ステップは、許容錯乱円径(δ)と撮影光学系103のFナンバー(F)の定数倍とする。許容錯乱円とは、撮像面上において一定のボケを仮定し、ボケがこれよりも小さければ人間の目にはピンぼけと感じず、合焦していると感じるボケ量のことである。フォーカスレンズをステップ駆動した後でも、撮影光学系103の焦点調節状態が許容錯乱円よりも小さいボケ量を示すために、通常はFδ/2のステップでフォーカスレンズを駆動する。   In step S306, the camera system control circuit 135 drives the focus lens of the photographing optical system 103 via the lens system control circuit 141. Specifically, the focus lens is moved in one direction along the optical axis by one step. Here, one step at the time of driving the focus lens is a constant multiple of the permissible circle of confusion (δ) and the F number (F) of the photographing optical system 103. The permissible circle of confusion is an amount of blur that is assumed to be in focus but not to the human eye if the blur is smaller than this assuming a constant blur on the imaging surface. Even after the focus lens is step-driven, the focus lens is normally driven in steps of Fδ / 2 in order that the focus adjustment state of the photographing optical system 103 shows a blur amount smaller than the allowable circle of confusion.

ステップS307では、再び焦点検出用センサ167を駆動することにより、位相差検出方式による焦点検出を行う。ステップS308では、撮像素子106を駆動することにより、コントラスト値Cnを取得する。このステップS307、S308においても、フォーカスレンズを駆動した後における同一の被写体に対して、略同一のタイミングにて焦点検出を行っている。   In step S307, the focus detection sensor 167 is driven again to perform focus detection by the phase difference detection method. In step S308, the contrast value Cn is acquired by driving the image sensor 106. Also in steps S307 and S308, focus detection is performed at substantially the same timing on the same subject after driving the focus lens.

ステップS309では、ステップS305で得られたコントラスト値CnとステップS308で得られたコントラスト値Cn+1とを比較して、コントラスト値のピークが発生したか否かを判別する。ここで、ピーク値が発生したか否かの判別方法としては、幾つかの方法がある。例えば、今回取得時のコントラスト値が前回取得時のコントラスト値を下回ったら、今回取得時のコントラスト値をピーク値と決定する方法がある。また、過去取得時のコントラスト値の最大値を連続して3回下回ったらピーク値を越えたものと判別する方法もある。さらに、過去取得時のコントラスト値の最大値に対して所定値以上下回った場合に、ピーク値を越えたものと判別する方法もある。なお、本発明は、これらの方法に限定されるものではない。   In step S309, the contrast value Cn obtained in step S305 is compared with the contrast value Cn + 1 obtained in step S308 to determine whether or not a contrast value peak has occurred. Here, there are several methods for determining whether or not a peak value has occurred. For example, if the contrast value at the current acquisition is lower than the contrast value at the previous acquisition, there is a method of determining the contrast value at the current acquisition as the peak value. There is also a method of determining that the peak value has been exceeded if the maximum contrast value at the time of past acquisition is continuously reduced three times. Further, there is a method of determining that the peak value has been exceeded when the contrast value has been below a predetermined value or more with respect to the maximum value of the past acquisition. The present invention is not limited to these methods.

ステップS309においてピーク値が発生していないと判別した場合には、ステップS312において、フォーカスレンズの位置を示すレンズ繰り出し段数「n」をインクリメントして、ステップ306に戻る。そして、ピーク値が発生したと判別されるまで、ステップS306〜ステップS309、ステップS312の処理を繰り返し行う。すなわち、ステップS306〜ステップS309、ステップS312の処理では、コントラスト検出方式において、撮影光学系103が合焦状態であるか否かの判別を行っている。一方、ステップS309において、ピーク値が発生したと判別した場合には、ステップS310に進む。   If it is determined in step S309 that no peak value has occurred, in step S312, the lens feed stage number “n” indicating the position of the focus lens is incremented, and the process returns to step 306. Then, the processes in steps S306 to S309 and step S312 are repeated until it is determined that a peak value has occurred. That is, in the processing from step S306 to step S309 and step S312, it is determined whether or not the photographing optical system 103 is in focus in the contrast detection method. On the other hand, if it is determined in step S309 that a peak value has occurred, the process proceeds to step S310.

ステップS310では、第2の光路状態及び第3の光路状態の各状態において、撮像素子106に到達するまでの光路長の差を補正する。第2の光路状態(図3)では、被写体光がハーフミラー111を透過して撮像素子106に到達するため、第3の光路状態(図7)における被写体光の光路長とは異なる。そこで、ステップS310では、コントラスト方式検出方式で得られた検出結果(コントラスト値Cn、Cn+1)に対して、上記光路長の差の分だけ補正を行う。   In step S310, the difference in optical path length until reaching the image sensor 106 is corrected in each of the second optical path state and the third optical path state. In the second optical path state (FIG. 3), since the subject light passes through the half mirror 111 and reaches the image sensor 106, the optical path length of the subject light in the third optical path state (FIG. 7) is different. Therefore, in step S310, the detection result (contrast values Cn, Cn + 1) obtained by the contrast method detection method is corrected by the difference in the optical path length.

ステップS311では、位相差検出方式による焦点検出結果と、コントラスト検出方式による焦点検出結果との差である補正量Δxを算出する。この補正量Δxは、後述するように、位相差検出方式で合焦状態と判別されるフォーカスレンズの位置と、コントラスト検出方式で合焦状態と判別されるフォーカスレンズの位置との差を示す。そして、補正量Δxは、位相差検出方式による焦点検出結果を補正するために用いられる。   In step S311, a correction amount Δx, which is the difference between the focus detection result by the phase difference detection method and the focus detection result by the contrast detection method, is calculated. As will be described later, this correction amount Δx indicates the difference between the position of the focus lens that is determined to be in focus by the phase difference detection method and the position of the focus lens that is determined to be in focus by the contrast detection method. The correction amount Δx is used to correct the focus detection result by the phase difference detection method.

図16を用いて、補正量Δxの算出方法について説明する。図16(A)において、横軸は、レンズ繰り出し段数nに対応したフォーカスレンズの位置を示し、縦軸は、撮像素子106から得られるコントラスト値Cnを示す。また、図16(B)において、横軸は、レンズ繰り出し段数nに対応したフォーカスレンズの位置を示し、縦軸は、位相差検出方式による検出結果(焦点検出用センサ167における一対の被写体像の位相差Pn)を示す。   A method of calculating the correction amount Δx will be described with reference to FIG. In FIG. 16A, the horizontal axis indicates the position of the focus lens corresponding to the lens extension stage number n, and the vertical axis indicates the contrast value Cn obtained from the image sensor 106. In FIG. 16B, the horizontal axis indicates the position of the focus lens corresponding to the lens extension stage number n, and the vertical axis indicates the detection result by the phase difference detection method (a pair of subject images in the focus detection sensor 167). Phase difference Pn) is shown.

図16(A)に示すコントラスト値が得られた場合には、ステップS309において、レンズ繰り出し段数nが「4」であるときに、コントラスト値がピーク値に達したものと判別される。すなわち、コントラスト検出方式においては、コントラスト値C4において、撮影光学系103が合焦状態になっているものと判別される。一方、位相差検出方式においては、図16(B)に示す複数の位相差Pn(n=1〜7)を結ぶ直線が、横軸(位相差がゼロ)と交わる点において、撮影光学系103が合焦状態になっているものと判別される。   When the contrast value shown in FIG. 16A is obtained, it is determined in step S309 that the contrast value has reached the peak value when the lens extension number n is “4”. That is, in the contrast detection method, it is determined that the photographing optical system 103 is in focus at the contrast value C4. On the other hand, in the phase difference detection method, at the point where a straight line connecting a plurality of phase differences Pn (n = 1 to 7) shown in FIG. Is determined to be in focus.

ここで、図15のステップS302では、ステップS301での位相差検出方式による検出結果に基づいて、フォーカスレンズを合焦位置(位相差P1に対応した位置)まで移動させている。しかし、図16に示すように、位相差検出方式による合焦位置(位相差P1近傍の位置)と、コントラスト検出方式による合焦位置(コントラスト値C4に対応した位置)とは、Δxの分だけずれていることがある。   Here, in step S302 of FIG. 15, the focus lens is moved to the in-focus position (position corresponding to the phase difference P1) based on the detection result by the phase difference detection method in step S301. However, as shown in FIG. 16, the focus position by the phase difference detection method (position in the vicinity of the phase difference P1) and the focus position by the contrast detection method (position corresponding to the contrast value C4) are equivalent to Δx. It may be off.

この差Δxが存在する理由としては、主に、ミラーの駆動機構におけるメカ的誤差等がある。例えば、経時変化等によって、第2の光路状態(図3)におけるハーフミラー111の撮影光軸L1に対する傾き角度が変化してしまうと、ハーフミラー111で反射した光の焦点検出ユニット121に対する入射角度が変化してしまう。この場合には、焦点検出ユニット121における焦点検出結果に誤差が生じてしまう。そして、図16に示すように、位相差検出方式による合焦位置がコントラスト検出方式による合焦位置に対してΔxの分だけずれてしまう。   The reason why this difference Δx exists is mainly a mechanical error in the mirror driving mechanism. For example, if the tilt angle of the half mirror 111 with respect to the photographing optical axis L1 in the second optical path state (FIG. 3) changes due to changes over time, the incident angle of the light reflected by the half mirror 111 with respect to the focus detection unit 121 is changed. Will change. In this case, an error occurs in the focus detection result in the focus detection unit 121. And as shown in FIG. 16, the focus position by a phase difference detection system will shift | deviate by the amount of (DELTA) x with respect to the focus position by a contrast detection system.

ここで、本実施例では、撮像素子106を用いたコントラスト検出方式による焦点検出結果を用いて、焦点検出ユニット121を用いた位相差検出方式による焦点検出結果を補正している。すなわち、補正量Δxを算出し、この補正量Δxに基づいて、位相差検出方式による焦点検出結果を補正している。これにより、位相差検出方式による焦点検出結果の誤差を抑制することができる。   In this embodiment, the focus detection result by the phase difference detection method using the focus detection unit 121 is corrected using the focus detection result by the contrast detection method using the image sensor 106. That is, the correction amount Δx is calculated, and the focus detection result by the phase difference detection method is corrected based on the correction amount Δx. Thereby, the error of the focus detection result by a phase difference detection system can be suppressed.

また、本実施例では、ハーフミラー111を第2の光路状態(図3)とすることで、同一の被写体からの光を焦点検出ユニット121及び撮像素子106に同時に導くようにしている。そして、焦点検出ユニット121を用いた位相差検出方式による焦点検出と、撮像素子106を用いたコントラスト検出方式による焦点検出とを、略同一のタイミングで行うようにしている。この場合には、略同一のタイミングにおける同一の被写体に対して、位相差検出方式及びコントラスト検出方式による焦点検出を行うことができ、これら焦点検出結果の整合性を図ることができる。   In this embodiment, the half mirror 111 is set to the second optical path state (FIG. 3) so that light from the same subject is simultaneously guided to the focus detection unit 121 and the image sensor 106. Then, focus detection by the phase difference detection method using the focus detection unit 121 and focus detection by the contrast detection method using the image sensor 106 are performed at substantially the same timing. In this case, focus detection by the phase difference detection method and the contrast detection method can be performed on the same subject at substantially the same timing, and the consistency of these focus detection results can be achieved.

ここで、特許文献2のように、互いに異なるタイミングにおいて、位相差検出方式及びコントラスト検出方式による焦点検出を行うと、これらの焦点検出結果は同一の被写体に対するものではないことがある。この場合において、コントラスト検出方式による焦点検出結果に基づいて、位相差検出方式による焦点検出結果を補正しても、位相差検出方式による焦点検出結果の精度を確保することができない。   Here, as in Patent Document 2, when focus detection is performed by a phase difference detection method and a contrast detection method at different timings, these focus detection results may not be for the same subject. In this case, even if the focus detection result by the phase difference detection method is corrected based on the focus detection result by the contrast detection method, the accuracy of the focus detection result by the phase difference detection method cannot be ensured.

本実施例では、上述したように、略同一のタイミングにおける同一の被写体に対して、2つの焦点検出結果を得ることができるため、位相差検出方式による焦点検出結果の精度を向上させることができる。ここで、本実施例における2つの焦点検出結果の差(補正量Δx)は、ハーフミラー111の位置ずれに起因したものであり、互いに異なるタイミングで行われる焦点検出動作に起因するものではない。そして、補正量Δxに基づいて位相差検出方式による焦点検出結果を補正すれば、ハーフミラー111の位置ずれに起因した焦点検出結果の誤差を正確に補正することができる。   In this embodiment, as described above, since two focus detection results can be obtained for the same subject at substantially the same timing, the accuracy of the focus detection result by the phase difference detection method can be improved. . Here, the difference (correction amount Δx) between the two focus detection results in the present embodiment is caused by the positional deviation of the half mirror 111, and is not caused by the focus detection operations performed at different timings. If the focus detection result by the phase difference detection method is corrected based on the correction amount Δx, the error of the focus detection result due to the positional deviation of the half mirror 111 can be corrected accurately.

ステップS312では、ステップS311で算出した補正量Δxを、カメラシステム制御回路135内のメモリ135aに格納する。この補正量Δxは、図15に示すEVFキャリブレーションが実行されるたびに算出され、メモリ135aに蓄積されていく。   In step S312, the correction amount Δx calculated in step S311 is stored in the memory 135a in the camera system control circuit 135. This correction amount Δx is calculated every time the EVF calibration shown in FIG. 15 is executed, and stored in the memory 135a.

ここで、図15に示すEVFキャリブレーションを実行する場合において、焦点検出用センサ167や撮像素子106に偶然ゴミ等が付着していたために、誤った焦点検出結果が得られるおそれがある。この場合には、補正量Δxも誤った値となってしまう。そこで、本実施例では、上述したように、EVFキャリブレーションが実行されるたびに、補正量Δxを算出し、これらの補正量Δxをメモリ135aに蓄積させることで、誤った補正量Δxが用いられるのを防止することができる。すなわち、メモリ135a内に、他の補正量Δxと明らかに異なる補正量Δxが存在する場合には、この補正量Δxを用いるのを禁止して他の補正量Δxを用いることで、位相差検出方式による焦点検出結果の補正精度を向上させることができる。   Here, when EVF calibration shown in FIG. 15 is executed, there is a possibility that an erroneous focus detection result may be obtained because dust or the like is accidentally attached to the focus detection sensor 167 and the image sensor 106. In this case, the correction amount Δx also becomes an incorrect value. Therefore, in the present embodiment, as described above, each time EVF calibration is executed, the correction amount Δx is calculated, and the correction amount Δx is stored in the memory 135a so that the incorrect correction amount Δx is used. Can be prevented. That is, when there is a correction amount Δx that is clearly different from the other correction amount Δx in the memory 135a, the use of the other correction amount Δx is prohibited by prohibiting the use of the correction amount Δx, thereby detecting the phase difference. The correction accuracy of the focus detection result by the method can be improved.

なお、メモリ135aに格納された複数の補正量Δxのうち、明らかに誤った値である補正量Δxが含まれている場合には、この補正量Δxをメモリ135aから削除しておくこともできる。例えば、他の補正量Δxに比べて所定量以上異なる補正量Δxが含まれている場合には、この補正量Δxを削除することができる。   If a correction amount Δx that is clearly wrong among the plurality of correction amounts Δx stored in the memory 135a is included, this correction amount Δx can be deleted from the memory 135a. . For example, when a correction amount Δx that differs by a predetermined amount or more compared to another correction amount Δx is included, the correction amount Δx can be deleted.

ここで、本実施例では、図10のステップS107において、焦点検出ユニット121を用いて位相差検出方式による焦点検出を行うが、この検出結果に対して、メモリ135aに格納された補正量Δxを用いて補正する。   Here, in the present embodiment, focus detection by the phase difference detection method is performed using the focus detection unit 121 in step S107 of FIG. 10, and the correction amount Δx stored in the memory 135a is obtained for this detection result. Use to correct.

本実施例のカメラシステムによれば、EVFキャリブレーションで得られた補正量Δxを用いて、位相差検出方式による焦点検出結果を補正することで、この焦点検出結果の精度を向上させることができる。しかも、EVFキャリブレーションが実行されるたびに補正量Δxが算出されるため、最新の補正量Δxを用いて、位相差検出方式による焦点検出結果を補正することができる。すなわち、経時変化等によって補正量Δxが変化する場合であっても、最新の補正量Δxを用いることで、経時変化に対応することができる。そして、位相差検出方式による焦点検出結果を高精度のままで維持することができる。   According to the camera system of the present embodiment, the accuracy of the focus detection result can be improved by correcting the focus detection result by the phase difference detection method using the correction amount Δx obtained by EVF calibration. . Moreover, since the correction amount Δx is calculated every time EVF calibration is executed, the focus detection result by the phase difference detection method can be corrected using the latest correction amount Δx. That is, even when the correction amount Δx changes due to a change over time or the like, it is possible to cope with a change over time by using the latest correction amount Δx. The focus detection result by the phase difference detection method can be maintained with high accuracy.

また、本実施例では、高度な微細化技術を要する複雑な撮像素子を用いる必要が無いため、コストアップを抑制することができる。さらに、撮像に用いられる画素列と焦点検出に用いられる画素列が混在することもないため、被写体像の一部を補間処理によって求めなくてもよく、高品位な撮影画像を得ることができる。   Further, in this embodiment, since it is not necessary to use a complicated image sensor that requires advanced miniaturization technology, an increase in cost can be suppressed. Furthermore, since the pixel column used for imaging and the pixel column used for focus detection do not coexist, it is not necessary to obtain a part of the subject image by interpolation processing, and a high-quality captured image can be obtained.

本発明の実施例2であるカメラシステムの構成について、図17を用いて説明する。ここで、図17に示す状態は、実施例1における第1の光路状態(図5)に対応している。なお、図17において、実施例1で説明した部材と同じ部材については、同一符号を用いている。   The configuration of a camera system that is Embodiment 2 of the present invention will be described with reference to FIG. Here, the state shown in FIG. 17 corresponds to the first optical path state in the first embodiment (FIG. 5). In FIG. 17, the same members as those described in the first embodiment are denoted by the same reference numerals.

実施例1におけるサブミラー122は、第1の光路状態(図5)において、ハーフミラー111を透過した光束をすべて反射させる構成となっている。一方、本実施例では、ハーフミラーで構成されたサブミラー177を用いている。このため、図17に示す光路状態(実施例1における第1の光路状態)において、撮影光学系103からの被写体光は、ハーフミラー111及びサブミラー177によって、以下に説明する3つの成分に分割される。   In the first optical path state (FIG. 5), the sub mirror 122 according to the first embodiment is configured to reflect all the light beams that have passed through the half mirror 111. On the other hand, in this embodiment, a sub mirror 177 composed of a half mirror is used. For this reason, in the optical path state shown in FIG. 17 (first optical path state in the first embodiment), the subject light from the photographing optical system 103 is divided into three components described below by the half mirror 111 and the sub mirror 177. The

第1の成分は、ハーフミラー111で反射してファインダ光学系に導かれる成分である。この第1の成分は、ファインダ光学系を介して被写体像を観察するために用いられる。第2の成分は、ハーフミラー111を透過し、サブミラー177で反射して焦点検出ユニット121に導かれる成分である。この第2の成分は、焦点検出ユニット121において、位相差検出方式による焦点検出に用いられる。第3の成分は、ハーフミラー111及びサブミラー177を透過して、撮像素子106側に向かう成分である。この第3の成分は、撮像素子106の出力から得られた撮影画像をディスプレイユニット107に表示させたり、撮像素子106を用いたコントラスト検出方式による焦点検出に用いられたりする。   The first component is a component that is reflected by the half mirror 111 and guided to the finder optical system. This first component is used for observing the subject image via the finder optical system. The second component is a component that is transmitted through the half mirror 111, reflected by the sub mirror 177, and guided to the focus detection unit 121. The second component is used for focus detection by the phase difference detection method in the focus detection unit 121. The third component is a component that passes through the half mirror 111 and the sub mirror 177 and travels toward the image sensor 106. This third component is used to display a captured image obtained from the output of the image sensor 106 on the display unit 107 or to be used for focus detection by a contrast detection method using the image sensor 106.

このように本実施例のカメラシステムでは、ファインダ光学系を用いて被写体像を観察しつつ、位相差検出方式による焦点検出及びコントラスト検出方式による焦点検出を同時に行うことができる。そして、実施例1と同様に、コントラスト検出方式による焦点検出結果を用いて、位相差検出方式による焦点検出結果を補正することができる。   As described above, in the camera system of this embodiment, it is possible to simultaneously perform focus detection by the phase difference detection method and focus detection by the contrast detection method while observing the subject image using the finder optical system. As in the first embodiment, the focus detection result by the phase difference detection method can be corrected using the focus detection result by the contrast detection method.

本実施例のカメラシステムにおける撮影シーケンスは、実施例1のカメラシステムの場合(図10)と同じであるため、説明を省略する。本実施例では、上記撮影シーケンスにおけるファインダモード切換処理のサブルーチンの内容が、実施例1と異なっている。以下、本実施例のファインダモード切換処理について、図18を用いて説明する。   Since the imaging sequence in the camera system of the present embodiment is the same as that in the camera system of Embodiment 1 (FIG. 10), description thereof is omitted. In the present embodiment, the contents of the subroutine of the finder mode switching process in the shooting sequence are different from those in the first embodiment. Hereinafter, the finder mode switching process of the present embodiment will be described with reference to FIG.

ステップS401において、現在のファインダモードが検知され、ファインダモード切り換えスイッチ123の操作によりOVFモードからEVFモードへ切り換えられたときには、ステップS402へ移行する。一方、ファインダモード切り換えスイッチ123の操作により、EVFモードからOVFモードへ切り換えられたときにはステップS420へ移行する。   In step S401, when the current finder mode is detected and the finder mode changeover switch 123 is operated to switch from the OVF mode to the EVF mode, the process proceeds to step S402. On the other hand, when the EVF mode is switched to the OVF mode by operating the finder mode switching switch 123, the process proceeds to step S420.

ここで、図18における各ステップS402〜S408の処理は、実施例1(図11)における各ステップS202〜S208の処理と同じであるため、詳細な説明は省略する。   Here, the processes in steps S402 to S408 in FIG. 18 are the same as the processes in steps S202 to S208 in the first embodiment (FIG. 11), and thus detailed description thereof is omitted.

ステップS300では、実施例1(図15)で説明したようにEVFキャリブレーションを実行する。すなわち、位相差検出方式による焦点検出結果及びコントラスト検出方式による焦点検出結果に基づいて、位相差検出方式による焦点検出結果を補正するための補正量Δxを算出する。本実施例においても、EVFモードが設定されるたびに、EVFキャリブレーションが実行される。なお、本実施例のステップS300における具体的な処理は、実施例1で説明した処理(図15参照)と同様である。   In step S300, EVF calibration is executed as described in the first embodiment (FIG. 15). That is, a correction amount Δx for correcting the focus detection result by the phase difference detection method is calculated based on the focus detection result by the phase difference detection method and the focus detection result by the contrast detection method. Also in this embodiment, EVF calibration is executed every time the EVF mode is set. Note that the specific processing in step S300 of the present embodiment is the same as the processing described in the first embodiment (see FIG. 15).

ステップS300の処理が終了した後は、ステップS409に進む。ここで、各ステップS409、S410の処理は、実施例1(図11)における各ステップS209、S210の処理と同じであるため、詳細な説明は省略する。   After the process of step S300 is completed, the process proceeds to step S409. Here, the processes of steps S409 and S410 are the same as the processes of steps S209 and S210 in the first embodiment (FIG. 11), and thus detailed description thereof is omitted.

一方、EVFモードからOVFモードへ切り換えられた場合において、各ステップS420〜S425の処理は、実施例1(図11)における各ステップS220〜S225の処理と同じであるため、詳細な説明は省略する。   On the other hand, when the EVF mode is switched to the OVF mode, the processes in steps S420 to S425 are the same as the processes in steps S220 to S225 in the first embodiment (FIG. 11), and thus detailed description thereof is omitted. .

ステップS500では、OVFキャリブレーションを実行する。このOVFキャリブレーションの動作は、ステップS300におけるEVFキャリブレーションの動作と同様である。すなわち、位相差検出方式による焦点検出結果及びコントラスト検出方式による焦点検出結果に基づいて、位相差検出方式による焦点検出結果を補正するための補正量Δxを算出する。   In step S500, OVF calibration is executed. This OVF calibration operation is the same as the EVF calibration operation in step S300. That is, a correction amount Δx for correcting the focus detection result by the phase difference detection method is calculated based on the focus detection result by the phase difference detection method and the focus detection result by the contrast detection method.

ここで、実施例1(図15)で説明したEVFキャリブレーションでは、ハーフミラー111を透過した光束とハーフミラー111を透過しない光束との光路長の差に基づいて、コントラスト値を補正していた(図15のステップS310)。一方、本実施例において、図17に示す光路状態では、被写体光がハーフミラー111及びサブミラー117を透過して撮像素子106に到達するようになっている。そこで、ハーフミラー111及びサブミラー117を透過した光束と、ハーフミラー111及びサブミラー117を透過しない光束(図7に示す光束)との光路長の差に基づいて、コントラスト値を補正するようにしている。   Here, in the EVF calibration described in the first embodiment (FIG. 15), the contrast value is corrected based on the difference in optical path length between the light beam transmitted through the half mirror 111 and the light beam not transmitted through the half mirror 111. (Step S310 in FIG. 15). On the other hand, in this embodiment, in the optical path state shown in FIG. 17, subject light passes through the half mirror 111 and the sub mirror 117 and reaches the image sensor 106. Therefore, the contrast value is corrected based on the difference in optical path length between the light beam transmitted through the half mirror 111 and the sub mirror 117 and the light beam not transmitted through the half mirror 111 and the sub mirror 117 (light beam shown in FIG. 7). .

ステップS500の処理が終了した後は、ステップS426に進む。ここで、各ステップS426〜S429の処理は、実施例1(図11)における各ステップS226〜S229の処理と同じであるため、詳細な説明は省略する。   After the process of step S500 is completed, the process proceeds to step S426. Here, the processing of each step S426 to S429 is the same as the processing of each step S226 to S229 in the first embodiment (FIG. 11), and thus detailed description thereof is omitted.

本実施例のカメラシステムにおいても、上述した実施例1のカメラシステムと同様の効果を得ることができる。すなわち、補正量Δxを用いて位相差検出方式による焦点検出結果を補正するため、この焦点検出結果の精度を向上させることができる。しかも、キャリブレーションモード(図10のステップS700)が実行されるたびに補正量Δxが算出されるため、最新の補正量Δxを用いて位相差検出方式による焦点検出結果を補正することができる。これにより、位相差検出方式による焦点検出結果を高精度のままで維持することができる。   Also in the camera system of the present embodiment, the same effect as that of the camera system of the first embodiment described above can be obtained. That is, since the focus detection result by the phase difference detection method is corrected using the correction amount Δx, the accuracy of the focus detection result can be improved. In addition, since the correction amount Δx is calculated every time the calibration mode (step S700 in FIG. 10) is executed, the focus detection result by the phase difference detection method can be corrected using the latest correction amount Δx. Thereby, the focus detection result by the phase difference detection method can be maintained with high accuracy.

ここで、本実施例では、ファインダモードが切り換わるたびにEVFキャリブレーションやOVFキャリブレーションが実行されるため、いずれのファインダモードにおいても補正量Δxを算出することができる。   Here, in the present embodiment, EVF calibration and OVF calibration are executed every time the finder mode is switched, so that the correction amount Δx can be calculated in any finder mode.

また、本実施例では、EVFモード及びOVFモードのいずれのファインダモードでも補正量Δxが算出されるため、メモリ135aに格納される補正量Δxの数が増え、位相差検出方式による焦点検出結果の精度を向上させることができる。すなわち、補正量Δxの数が増えることで、誤って算出された補正量Δxに基づいて、位相差検出方式による焦点検出結果の補正が行われるのを防止することができる。   In this embodiment, since the correction amount Δx is calculated in both the EVF mode and the OVF mode, the number of correction amounts Δx stored in the memory 135a is increased, and the focus detection result of the phase difference detection method is calculated. Accuracy can be improved. That is, by increasing the number of correction amounts Δx, it is possible to prevent the focus detection result from being corrected by the phase difference detection method based on the correction amount Δx that is erroneously calculated.

さらに、EVFモード及びOVFモードにおいて補正量Δxが算出されるため、例えば、EVFモード又はOVFモードの設定を全く行わない使用状況においても、設定された一方のファインダモードにおいて補正量Δxを算出することができる。これにより、この補正量Δxを用いて、位相差検出方式による焦点検出結果を補正することができる。   Further, since the correction amount Δx is calculated in the EVF mode and the OVF mode, the correction amount Δx is calculated in one of the set finder modes even when the EVF mode or the OVF mode is not set at all. Can do. Thereby, the focus detection result by the phase difference detection method can be corrected using the correction amount Δx.

なお、本実施例では、ハーフミラー111及びサブミラー177を、図17に示す状態と撮影光路から退避させた状態(図7に示す状態)との2つの状態間で動作させることもできる。   In this embodiment, the half mirror 111 and the sub mirror 177 can be operated between two states, a state shown in FIG. 17 and a state where the half mirror 111 and the sub mirror 177 are retracted from the photographing optical path (state shown in FIG. 7).

本発明の実施例3であるカメラシステムの構成について、図19及び図20を用いて説明する。ここで、実施例1(図3〜図7)で説明した部材と同じ部材については、同一符号を用いている。以下、実施例1と異なる点について説明する。   A configuration of a camera system that is Embodiment 3 of the present invention will be described with reference to FIGS. 19 and 20. Here, the same reference numerals are used for the same members as those described in the first embodiment (FIGS. 3 to 7). Hereinafter, differences from the first embodiment will be described.

本実施例のカメラシステムでは、ファインダ光学系を設けていない。また、本実施例では、実施例1で説明したサブミラーを設けておらず、ハーフミラー111だけを用いている。以下、本実施例のカメラシステムの具体的な構成について説明する。   In the camera system of this embodiment, no finder optical system is provided. Further, in this embodiment, the sub mirror described in the first embodiment is not provided, and only the half mirror 111 is used. Hereinafter, a specific configuration of the camera system of the present embodiment will be described.

図19は、本実施例のカメラシステムにおける第1の光路状態を示す図であり、図20は、本実施例のカメラシステムにおける第2の光路状態を示す図である。ハーフミラー111は、撮影光路内に斜設された位置(図19に示す位置)と、撮影光路から退避した位置(図20に示す位置)との間で移動可能となっている。   FIG. 19 is a diagram illustrating a first optical path state in the camera system of the present embodiment, and FIG. 20 is a diagram illustrating a second optical path state in the camera system of the present embodiment. The half mirror 111 is movable between a position obliquely provided in the photographing optical path (position shown in FIG. 19) and a position retracted from the photographing optical path (position shown in FIG. 20).

ハーフミラー111が撮影光路内に位置している場合において、撮影光学系103からの被写体光のうち一部の成分は、ハーフミラー111で反射して焦点検出ユニット121に導かれる。一方、残りの成分は、ハーフミラー111を透過して、撮像素子106側に導かれる。このため、撮像素子106の出力から得られた撮影画像をディスプレイユニット107に表示させつつ、焦点検出ユニット121での位相差検出方式による焦点検出結果に基づいて、高速な焦点調節を行うことができる。   When the half mirror 111 is located in the photographing optical path, some components of the subject light from the photographing optical system 103 are reflected by the half mirror 111 and guided to the focus detection unit 121. On the other hand, the remaining components are transmitted through the half mirror 111 and guided to the image sensor 106 side. For this reason, it is possible to perform high-speed focus adjustment based on the focus detection result by the phase difference detection method in the focus detection unit 121 while displaying the captured image obtained from the output of the image sensor 106 on the display unit 107. .

一方、ハーフミラー111が撮影光路から退避している場合において、撮影光学系103からの被写体光は、図20に示すように、直接撮像素子106側に向かうことになる。   On the other hand, when the half mirror 111 is retracted from the photographing optical path, the subject light from the photographing optical system 103 is directed directly toward the image sensor 106 as shown in FIG.

ここで、ハーフミラー111の駆動機構について、簡単に説明する。ハーフミラー111は、不図示のハーフミラー受け板に保持されている。このハーフミラー受け板は、回転軸178を中心として回動可能に支持されている。ハーフミラー受け板は、不図示のトーションバネによって付勢されている。すなわち、トーションバネは、ハーフミラー111を、図20に示す位置から図19に示す位置に向けて付勢している。そして、ハーフミラー受け板は、カメラ本体101内に設けられた不図示のミラーストッパに当接することで、図19に示す状態に保持される。   Here, the drive mechanism of the half mirror 111 will be briefly described. The half mirror 111 is held by a half mirror receiving plate (not shown). This half mirror receiving plate is supported so as to be rotatable about a rotation shaft 178. The half mirror receiving plate is urged by a torsion spring (not shown). In other words, the torsion spring biases the half mirror 111 from the position shown in FIG. 20 toward the position shown in FIG. The half mirror receiving plate is held in the state shown in FIG. 19 by abutting against a mirror stopper (not shown) provided in the camera body 101.

また、ハーフミラー受け板は、不図示の動力伝達機構を介して不図示の駆動源と連結されており、駆動源からの駆動力を受けることによって、動作可能となっている。ここで、ハーフミラー111を第1の光路状態(図19)から第2の光路状態(図20)に移動させる場合には、駆動源の駆動力を用いることにより、ハーフミラー受け板をトーションバネの付勢力に抗して回動させる。そして、ハーフミラー受け板は、カメラ本体101内に設けられた不図示のミラーストッパに当接することで、図20に示す状態に保持される。   The half mirror receiving plate is connected to a drive source (not shown) via a power transmission mechanism (not shown), and is operable by receiving a drive force from the drive source. Here, when the half mirror 111 is moved from the first optical path state (FIG. 19) to the second optical path state (FIG. 20), the half mirror receiving plate is moved to the torsion spring by using the driving force of the driving source. Rotate against the urging force. The half mirror receiving plate is held in the state shown in FIG. 20 by abutting against a mirror stopper (not shown) provided in the camera body 101.

一方、ハーフミラー111を第2の光路状態(図20)から第1の光路状態(図19)に移動させる場合には、トーションバネの付勢力に抗した力を解除し、トーションバネの付勢力によってハーフミラー111を回動させる。これにより、ハーフミラー受け板は、ミラーストッパに当接して、図19に示す状態に保持される。   On the other hand, when the half mirror 111 is moved from the second optical path state (FIG. 20) to the first optical path state (FIG. 19), the force against the biasing force of the torsion spring is released and the biasing force of the torsion spring is released. To rotate the half mirror 111. As a result, the half mirror receiving plate comes into contact with the mirror stopper and is held in the state shown in FIG.

次に、本実施例のカメラシステムにおける撮影シーケンスについて、図21を用いて説明する。   Next, a shooting sequence in the camera system of the present embodiment will be described with reference to FIG.

ステップS600では、メインスイッチ119が操作(ON状態)されるまで待機し、操作されることでステップS601に進む。ステップS601では、カメラ本体101内の各種電気回路に電流を供給(起動)する。   In step S600, the process waits until the main switch 119 is operated (ON state), and the operation proceeds to step S601. In step S601, current is supplied (activated) to various electric circuits in the camera body 101.

ステップS602では、ピント補正モードを動作させる。カメラ本体101を起動させた段階において、ハーフミラー111は、図19に示す状態となる。ここで、ハーフミラー111を透過した光束の撮像素子106上での結像位置は、ハーフミラー111を透過しない場合と比べて若干ずれることがある。このため、ステップS602では、ピント補正モードを動作させることにより、ハーフミラー111を透過して撮像素子106上に投影された被写体像がシャープに結像するように、焦点検出ユニット121の焦点検出信号を補正する。   In step S602, the focus correction mode is operated. At the stage where the camera body 101 is activated, the half mirror 111 is in the state shown in FIG. Here, the imaging position on the image sensor 106 of the light beam that has passed through the half mirror 111 may be slightly shifted as compared with the case where it does not pass through the half mirror 111. Therefore, in step S602, the focus detection signal of the focus detection unit 121 is set so that the subject image projected through the half mirror 111 and projected onto the image sensor 106 is sharply formed by operating the focus correction mode. Correct.

ステップS300では、EVFキャリブレーションを実行し、コントラスト検出方式の焦点検出結果及び位相差検出方式の焦点検出結果に基づいて、位相差検出方式の焦点検出結果を補正するための補正量Δxを算出する。ここで、EVFキャリブレーションの処理は、実施例1(図15)と同様である。   In step S300, EVF calibration is executed, and a correction amount Δx for correcting the focus detection result of the phase difference detection method is calculated based on the focus detection result of the contrast detection method and the focus detection result of the phase difference detection method. . Here, the EVF calibration process is the same as in the first embodiment (FIG. 15).

ステップS603では、キャリブレーションスイッチ118が操作(オン)されたか否かを判別する。ここで、キャリブレーションスイッチ118が操作された場合には、ステップS300に進み、操作されていない場合には、ステップS604に進む。ここで、ステップS300では、再び、EVFキャリブレーションを実行する。   In step S603, it is determined whether or not the calibration switch 118 has been operated (turned on). If the calibration switch 118 has been operated, the process proceeds to step S300. If the calibration switch 118 has not been operated, the process proceeds to step S604. Here, in step S300, EVF calibration is executed again.

ステップS604〜ステップS606までの各処理は、実施例1(図10)で説明したステップS106〜ステップS108と同様である。ここで、ステップS605における焦点調節においては、位相差検出方式の焦点調節結果を、ステップS300のEVFキャリブレーションで得られた補正量Δxを用いて補正したものに基づいて行われる。   Each process from step S604 to step S606 is the same as step S106 to step S108 described in the first embodiment (FIG. 10). Here, the focus adjustment in step S605 is performed based on a result of correcting the focus adjustment result of the phase difference detection method using the correction amount Δx obtained by the EVF calibration in step S300.

ステップS607では、ミラー駆動機構を駆動することによって、ハーフミラー111を第1の光路状態(図19)から第2の光路状態(図20)に移動させる。これにより、撮影光学系103からの被写体光は、撮像素子106側に直接向かうことになる。ステップS608では、実施例1(図10)のステップS111と同様に撮像動作を行う。   In step S607, the half mirror 111 is moved from the first optical path state (FIG. 19) to the second optical path state (FIG. 20) by driving the mirror driving mechanism. As a result, the subject light from the photographing optical system 103 goes directly to the image sensor 106 side. In step S608, an imaging operation is performed in the same manner as in step S111 of the first embodiment (FIG. 10).

ステップS609では、ミラー駆動機構を駆動することによって、ハーフミラー111を第2の光路状態から第1の光路状態に移動させる。ステップS610〜ステップS612の各処理は、実施例1(図10)で説明したステップS112〜ステップS114の各処理と同様である。   In step S609, the half mirror 111 is moved from the second optical path state to the first optical path state by driving the mirror driving mechanism. Each process of step S610 to step S612 is the same as each process of step S112 to step S114 described in the first embodiment (FIG. 10).

本実施例のカメラシステムによれば、実施例1と同様の効果を得ることができる。すなわち、補正量Δxを用いて位相差検出方式による焦点検出結果を補正することで、この焦点検出結果の精度を向上させることができる。しかも、補正量Δxは、カメラシステムを起動するたびに算出されるようになっているため、最新の補正量Δxを用いて位相差検出方式による焦点検出結果を補正することができる。これにより、位相差検出方式による焦点検出結果を高精度のままで維持することができる。   According to the camera system of the present embodiment, the same effects as those of the first embodiment can be obtained. That is, by correcting the focus detection result by the phase difference detection method using the correction amount Δx, the accuracy of the focus detection result can be improved. In addition, since the correction amount Δx is calculated every time the camera system is activated, the focus detection result by the phase difference detection method can be corrected using the latest correction amount Δx. Thereby, the focus detection result by the phase difference detection method can be maintained with high accuracy.

本発明の実施例4であるカメラの構成について、図22を用いて説明する。ここで、図22は、本実施例のカメラの構成を示す概略図である。   The configuration of a camera that is Embodiment 4 of the present invention will be described with reference to FIG. Here, FIG. 22 is a schematic diagram showing the configuration of the camera of the present embodiment.

201はカメラ本体である。203は複数枚のレンズ(ズームレンズやフォーカスレンズを含む)で構成された撮影光学系であり、202は撮影光学系203を保持するレンズ鏡筒である。レンズ鏡筒202は、不図示の駆動機構によって、ズームレンズやフォーカスレンズを光軸方向に移動させる。ズームレンズの位置を変化させることで、撮影画角を変化させ、フォーカスレンズの位置を変化させることで、撮影光学系203を合焦状態とすることができる。なお、レンズ鏡筒202は、カメラ本体201に固定されている。   Reference numeral 201 denotes a camera body. Reference numeral 203 denotes a photographing optical system composed of a plurality of lenses (including a zoom lens and a focus lens), and 202 denotes a lens barrel that holds the photographing optical system 203. The lens barrel 202 moves the zoom lens and the focus lens in the optical axis direction by a driving mechanism (not shown). By changing the position of the zoom lens, the shooting angle of view is changed, and the position of the focus lens is changed, whereby the shooting optical system 203 can be brought into focus. The lens barrel 202 is fixed to the camera body 201.

レンズ鏡筒202及びカメラ本体201を一体として構成することで、撮影光束(被写体光)が通過する空間を略密閉状態に保つことができる。ここで、カメラ本体201に対するレンズ鏡筒202の取り付けを、塵やゴミが少ないクリーンルームで行えば、撮影光束が通過する空間内に、外部から塵やゴミが入るのを防止することができる。   By configuring the lens barrel 202 and the camera body 201 as one body, the space through which the imaging light beam (subject light) passes can be maintained in a substantially sealed state. Here, if the lens barrel 202 is attached to the camera body 201 in a clean room with little dust and dirt, it is possible to prevent dust and dirt from entering the space through which the imaging light flux passes.

204はパッケージに収納されたCCDセンサやCMOSセンサ等の撮像素子である。撮像素子204に対して撮影光学系203側には、被写体光に含まれる高周波成分が撮像素子204に到達しないように撮影光学系203のカットオフ周波数を制限する光学ローパスフィルタ205が設けられている。また、撮影光学系203には赤外線カットフィルタも形成されている。   Reference numeral 204 denotes an image sensor such as a CCD sensor or a CMOS sensor housed in a package. An optical low-pass filter 205 that limits the cutoff frequency of the imaging optical system 203 is provided on the imaging optical system 203 side with respect to the imaging element 204 so that a high-frequency component included in the subject light does not reach the imaging element 204. . The photographing optical system 203 is also formed with an infrared cut filter.

撮像素子204の出力から得られた撮影画像はディスプレイユニット211上で表示される。ディスプレイユニット211は、カメラ本体201の背面に取り付けられており、使用者は、ディスプレイユニット211に表示された画像を直接観察することができる。   A captured image obtained from the output of the image sensor 204 is displayed on the display unit 211. The display unit 211 is attached to the back surface of the camera body 201, and the user can directly observe the image displayed on the display unit 211.

206はビームスプリッタであり、図中の矢印で示すように、撮影光路内に位置する状態と撮影光路から退避した状態との間で移動可能である。また、ビームスプリッタ206は、撮影光路内に位置しているときに、撮影光学系203からの光を分割する。ビームスプリッタ206は、複数のプリズムを貼り合わせて構成されており、貼り合わせ面にはダイクロ膜207が蒸着されている。ダイクロ膜207は、可視領域の光束を透過させ、近赤外領域の光束を反射するように構成されている。   Reference numeral 206 denotes a beam splitter, which is movable between a state located in the photographing optical path and a state retracted from the photographing optical path as indicated by arrows in the drawing. Further, the beam splitter 206 divides the light from the photographing optical system 203 when located in the photographing optical path. The beam splitter 206 is configured by bonding a plurality of prisms, and a dichroic film 207 is deposited on the bonding surface. The dichroic film 207 is configured to transmit the light beam in the visible region and reflect the light beam in the near infrared region.

ダイクロ膜207で反射した光束は、ビームスプリッタ206の光入射面(撮影光学系203からの光が最初に入射する面)側に進むが、この光入射面に対する入射角が臨界角よりも大きいために、光入射面で全反射する。そして、全反射した光束は、ビームスプリッタ206の端面(図中下側)から射出して、焦点検出ユニット208に導かれる。焦点検出ユニット208は、位相差検出方式によって撮影光学系203の焦点調節状態を検出する。焦点検出ユニット208におけるセンサ面(受光面)は、撮像素子204の撮像面(受光面)と光学的に共役な位置関係となっている。   The light beam reflected by the dichroic film 207 proceeds to the light incident surface (the surface on which light from the imaging optical system 203 first enters) of the beam splitter 206, but the incident angle with respect to this light incident surface is larger than the critical angle. Furthermore, the light is totally reflected at the light incident surface. Then, the totally reflected light beam exits from the end face (lower side in the figure) of the beam splitter 206 and is guided to the focus detection unit 208. The focus detection unit 208 detects the focus adjustment state of the photographing optical system 203 by a phase difference detection method. The sensor surface (light receiving surface) in the focus detection unit 208 is optically conjugate with the image capturing surface (light receiving surface) of the image sensor 204.

上述した構成において、ビームスプリッタ206が撮影光路内に位置している場合には、可視領域の光束がダイクロ膜207を透過して撮像素子204側に向かうようになっている。この光束は、ディスプレイユニット211上で撮影画像を表示させたり、撮像素子204を用いたコントラスト検出方式による焦点検出を行ったりするために用いられる。一方、近赤外領域の光束は、ダイクロ膜207とビームスプリッタ206の光入射面で反射して焦点検出ユニット208に導かれる。この光束は、位相差検出方式による焦点検出に用いられる。   In the configuration described above, when the beam splitter 206 is positioned in the imaging optical path, the light beam in the visible region passes through the dichroic film 207 and travels toward the image sensor 204. This light beam is used to display a captured image on the display unit 211 and to perform focus detection by a contrast detection method using the image sensor 204. On the other hand, the light beam in the near infrared region is reflected by the light incident surfaces of the dichroic film 207 and the beam splitter 206 and guided to the focus detection unit 208. This light beam is used for focus detection by a phase difference detection method.

すなわち、ビームスプリッタ206が撮影光路内に位置する第1の光路状態では、ディスプレイユニット211で被写体像を観察しながら、焦点検出ユニット208によって焦点検出を行うことができる。また、第1の光路状態では、高速連続撮影を行うことができる。しかも、信号処理系を高速化させれば、更に高速の連続撮影を行うことができる。一方、ビームスプリッタ206が撮影光路から退避した第2の状態では、大型のプリントなどに好適な高精細な撮影画像を得ることができる。   That is, in the first optical path state in which the beam splitter 206 is located in the photographing optical path, focus detection can be performed by the focus detection unit 208 while observing the subject image with the display unit 211. In the first optical path state, high-speed continuous shooting can be performed. In addition, if the signal processing system is speeded up, higher-speed continuous shooting can be performed. On the other hand, in the second state in which the beam splitter 206 is retracted from the photographing optical path, a high-definition photographed image suitable for large prints can be obtained.

本実施例では、ビームスプリッタ206が撮影光路内に位置している場合において、ビームスプリッタ206の反射光を用いて位相差検出方式の焦点検出を行い、ビームスプリッタ206の反射光を用いてコントラスト検出方式の焦点検出を行う。ここで、位相差検出方式及びコントラスト検出方式においては、同一の被写体からの光束を用いて焦点検出を行うことができる。   In the present embodiment, when the beam splitter 206 is positioned in the imaging optical path, focus detection of the phase difference detection method is performed using the reflected light of the beam splitter 206, and contrast detection is performed using the reflected light of the beam splitter 206. The focus detection is performed. Here, in the phase difference detection method and the contrast detection method, focus detection can be performed using a light beam from the same subject.

このため、実施例1(図15)で説明したEVFキャリブレーションを実行することで、位相差検出方式による焦点検出結果を補正するための補正量Δxを算出することができる。そして、補正量Δxを用いて位相差検出方式による焦点検出結果を補正することで、この焦点検出結果の精度を向上させることができる。ここで、本実施例では、カメラが起動されるたびに、補正量Δxの算出が行われるようになっている。   Therefore, by executing the EVF calibration described in the first embodiment (FIG. 15), the correction amount Δx for correcting the focus detection result by the phase difference detection method can be calculated. Then, by correcting the focus detection result by the phase difference detection method using the correction amount Δx, the accuracy of the focus detection result can be improved. Here, in this embodiment, every time the camera is activated, the correction amount Δx is calculated.

次に、焦点検出ユニット208における焦点検出の原理について説明する。図23は、焦点検出ユニット208の構成と、撮影光学系203との関係を示した図である。この図では、説明を分かりやすくするために、撮影光学系203及び焦点検出ユニット208を同軸上に配置した構成としている。   Next, the principle of focus detection in the focus detection unit 208 will be described. FIG. 23 is a diagram showing the relationship between the configuration of the focus detection unit 208 and the photographic optical system 203. In this figure, in order to make the explanation easy to understand, the photographing optical system 203 and the focus detection unit 208 are arranged on the same axis.

220は撮影光学系203の瞳である。焦点検出ユニット208の受光面は、撮影光学系203の予定結像面に配置されている。また、焦点検出ユニット208の1画素は、2つの光電変換素子209a、209bで構成されている。各光電変換素子209a、209bに対して撮影光学系203側に配置されたマイクロレンズ210は、各光電変換素子209a、209bが撮影光学系203の瞳220の異なる位置を透過した光束を受光するように構成されている。   Reference numeral 220 denotes a pupil of the photographing optical system 203. The light receiving surface of the focus detection unit 208 is disposed on the planned imaging surface of the photographing optical system 203. One pixel of the focus detection unit 208 is composed of two photoelectric conversion elements 209a and 209b. The microlens 210 disposed on the photographing optical system 203 side with respect to the photoelectric conversion elements 209a and 209b receives light beams transmitted through different positions of the pupil 220 of the photographing optical system 203 by the photoelectric conversion elements 209a and 209b. It is configured.

図23において、光電変換素子209aは主に撮影光学系203の瞳220の図中下方を透過する光束を受光し、光電変換素子209bは主に撮影光学系203の瞳220の図中上方を透過する光束を受光する。図24は、図23に示す構成において、焦点検出ユニット208側から見たときの撮影光学系203の瞳220である。光電変換素子209aが受光する光束は、瞳220における瞳領域221aを通過し、光電変換素子209bが受光する光束は、瞳領域221aとは異なる瞳領域221bを通過する。   In FIG. 23, the photoelectric conversion element 209a mainly receives a light beam transmitted through the lower part of the pupil 220 of the photographing optical system 203 in the figure, and the photoelectric conversion element 209b mainly transmits the upper part of the pupil 220 of the photographing optical system 203 in the figure. Receiving the luminous flux. FIG. 24 shows the pupil 220 of the photographing optical system 203 when viewed from the focus detection unit 208 side in the configuration shown in FIG. The light beam received by the photoelectric conversion element 209a passes through the pupil region 221a in the pupil 220, and the light beam received by the photoelectric conversion element 209b passes through a pupil region 221b different from the pupil region 221a.

焦点検出時には、各光電変換素子209a、209bの蓄積信号を読み出すとともに、焦点検出ユニット208の各画素からの出力に基づいて、撮影光学系203の異なる瞳位置を透過した光束による像信号が生成される。そして、瞳領域221aを通過した光束による像信号と、瞳領域221bを通過した光束による像信号の相対位置関係に基づいて、焦点検出を行う。   At the time of focus detection, the stored signals of the photoelectric conversion elements 209a and 209b are read, and based on the output from each pixel of the focus detection unit 208, an image signal is generated by a light beam that has passed through a different pupil position of the photographing optical system 203. The Then, focus detection is performed based on the relative positional relationship between the image signal based on the light beam that has passed through the pupil region 221a and the image signal based on the light beam that has passed through the pupil region 221b.

図25に、焦点検出ユニット208の画素配列を示す。図25は、焦点検出ユニット208を撮影光学系203側から見たときの図である。一対の光電変換部209a、209bに対応した領域上には、1つのマイクロレンズ210(点線で示す)が配置されている。そして、一対の光電変換部209a、209bとマイクロレンズ210によって、焦点検出ユニット208における一つの画素を構成している。   FIG. 25 shows a pixel array of the focus detection unit 208. FIG. 25 is a diagram when the focus detection unit 208 is viewed from the photographing optical system 203 side. One microlens 210 (shown by a dotted line) is disposed on a region corresponding to the pair of photoelectric conversion units 209a and 209b. The pair of photoelectric conversion units 209a and 209b and the microlens 210 constitute one pixel in the focus detection unit 208.

ここで、焦点検出を行う場合には、一対の光電変換部209a、209bの並ぶ画素列を焦点検出用の画素列として用いる。そして、焦点検出用の画素列おける一対の光電変換部から得られる二つの像信号に基づいて、位相差検出方式による焦点検出を行う。   Here, when focus detection is performed, a pixel column in which a pair of photoelectric conversion units 209a and 209b are arranged is used as a pixel column for focus detection. Then, focus detection is performed by a phase difference detection method based on two image signals obtained from a pair of photoelectric conversion units in a pixel row for focus detection.

本実施例における撮影シーケンスは、実施例3(図21)と同様である。但し、ステップS602のピント補正モードにおける補正量が異なる。実施例3では、ハーフミラー111を透過した光束の撮像素子106上での結像位置と、ハーフミラー111を透過しない光束の撮像素子106上での結像位置との差を補正するようにしていた。一方、本実施例では、ビームスプリッタ206を透過した光束の撮像素子204上での結像位置と、ビームスプリッタ206を透過しない光束の撮像素子204上での結像位置との差を補正するようにしている。すなわち、本実施例では、ビームスプリッタ206を透過して撮像素子204上に投影された被写体像がシャープに結像するように焦点検出ユニット208の焦点検出信号を補正している。   The shooting sequence in the present embodiment is the same as that in the third embodiment (FIG. 21). However, the correction amount in the focus correction mode in step S602 is different. In the third embodiment, the difference between the image formation position on the image sensor 106 of the light beam transmitted through the half mirror 111 and the image formation position on the image sensor 106 of the light beam not transmitted through the half mirror 111 are corrected. It was. On the other hand, in this embodiment, the difference between the imaging position of the light beam that has passed through the beam splitter 206 on the image sensor 204 and the imaging position of the light beam that does not pass through the beam splitter 206 on the image sensor 204 is corrected. I have to. That is, in this embodiment, the focus detection signal of the focus detection unit 208 is corrected so that the subject image that has passed through the beam splitter 206 and is projected onto the image sensor 204 is sharply formed.

上述したように、焦点検出のための光束は近赤外領域の光束であり、撮像に用いられる光束は可視領域の光束である。ビームスプリッタ206を透過するときの屈折率は波長によって異なるため、撮像素子204での結像位置と焦点検出ユニット208での結像位置は厳密な意味で光学的に共役とはいえない。この結果、被写体像にピントが合った状態であっても、焦点検出ユニット208の検出結果では僅かの初期位相差Δが残る(図9参照)。このため、焦点検出ユニット208で得られた位相差から、初期位相差Δを差し引くことで、真の位相差を得ることができる。初期位相差Δは予め求めておくことができる。   As described above, the light beam for focus detection is a light beam in the near infrared region, and the light beam used for imaging is a light beam in the visible region. Since the refractive index when passing through the beam splitter 206 differs depending on the wavelength, the imaging position on the image sensor 204 and the imaging position on the focus detection unit 208 are not optically conjugate in a strict sense. As a result, even if the subject image is in focus, a slight initial phase difference Δ remains in the detection result of the focus detection unit 208 (see FIG. 9). Therefore, a true phase difference can be obtained by subtracting the initial phase difference Δ from the phase difference obtained by the focus detection unit 208. The initial phase difference Δ can be obtained in advance.

本実施例のカメラにおいても、実施例1のカメラシステムと同様の効果を得ることができる。すなわち、補正量Δxを用いて位相差検出方式による焦点検出結果を補正することにより、この焦点検出結果の精度を向上させることができる。しかも、カメラが起動されるたびに補正量Δxを算出することで、最新の補正量Δxを用いて位相差検出方式による焦点検出結果を補正することができる。これにより、位相差検出方式による焦点検出結果を高精度のままで維持することができる。   Also in the camera of the present embodiment, the same effect as that of the camera system of the first embodiment can be obtained. That is, by correcting the focus detection result by the phase difference detection method using the correction amount Δx, the accuracy of the focus detection result can be improved. In addition, by calculating the correction amount Δx each time the camera is activated, the focus detection result by the phase difference detection method can be corrected using the latest correction amount Δx. Thereby, the focus detection result by the phase difference detection method can be maintained with high accuracy.

また、本実施例では、ビームスプリッタ206を撮影光路に対して移動させるだけであるため、ビームスプリッタ206の駆動機構を簡単な構成とすることができる。   In this embodiment, since the beam splitter 206 is merely moved with respect to the imaging optical path, the driving mechanism of the beam splitter 206 can be simplified.

本発明の実施例1であるカメラシステムの構成を示す概略図である。It is the schematic which shows the structure of the camera system which is Example 1 of this invention. 実施例1のカメラシステムの回路構成を示す概略図である。1 is a schematic diagram illustrating a circuit configuration of a camera system according to Embodiment 1. FIG. 実施例1のカメラシステムにおける第2の光路状態を示す図である。It is a figure which shows the 2nd optical path state in the camera system of Example 1. FIG. 実施例1のカメラシステムにおける第1及び第2の光路状態間の状態を示す図である。It is a figure which shows the state between the 1st and 2nd optical path state in the camera system of Example 1. FIG. 実施例1のカメラシステムにおける第1の光路状態を示す図である。It is a figure which shows the 1st optical path state in the camera system of Example 1. FIG. 実施例1のカメラシステムにおける第1及び第3の光路状態間の状態を示す図である。It is a figure which shows the state between the 1st and 3rd optical path states in the camera system of Example 1. FIG. 実施例1のカメラシステムにおける第3の光路状態を示す図である。6 is a diagram illustrating a third optical path state in the camera system of Embodiment 1. FIG. 焦点検出用センサの出力信号の波形を示す図である。It is a figure which shows the waveform of the output signal of the sensor for focus detection. 焦点検出用センサの出力信号の波形を示す図である。It is a figure which shows the waveform of the output signal of the sensor for focus detection. 実施例1のカメラシステムにおける撮影動作を示すフローチャートである。3 is a flowchart illustrating a photographing operation in the camera system according to the first exemplary embodiment. 実施例1におけるファインダモードの切換動作を示すフローチャートである。6 is a flowchart illustrating a finder mode switching operation according to the first exemplary embodiment. 画像表示に出力可能な視野と撮像される視野との関係を表す図である。It is a figure showing the relationship between the visual field which can be output to an image display, and the visual field imaged. 画像表示に出力可能な視野と撮像される視野との関係を表す図である。It is a figure showing the relationship between the visual field which can be output to an image display, and the visual field imaged. 実施例1におけるキャリブレーションモードの処理を示すフローチャートである。6 is a flowchart illustrating processing in a calibration mode according to the first embodiment. 実施例1におけるEVFキャリブレーションの処理を示すフローチャートである。3 is a flowchart illustrating EVF calibration processing in the first embodiment. コントラスト検出方式による焦点検出結果(A)と位相差検出方式による焦点検出結果(B)との関係を示す図である。It is a figure which shows the relationship between the focus detection result (A) by a contrast detection system, and the focus detection result (B) by a phase difference detection system. 本発明の実施例2であるカメラシステムの構成を示す図である。It is a figure which shows the structure of the camera system which is Example 2 of this invention. 実施例2におけるファインダモードの切換動作を示すフローチャートである。10 is a flowchart illustrating a finder mode switching operation according to the second exemplary embodiment. 本発明の実施例3であるカメラシステムの構成を示す図である。It is a figure which shows the structure of the camera system which is Example 3 of this invention. 本発明の実施例3であるカメラシステムの構成を示す図である。It is a figure which shows the structure of the camera system which is Example 3 of this invention. 実施例3のカメラシステムにおける撮影動作を示すフローチャートである。10 is a flowchart illustrating a photographing operation in the camera system of Example 3. 本発明の実施例4であるカメラの構成を示す図である。It is a figure which shows the structure of the camera which is Example 4 of this invention. 撮影光学系及び焦点検出ユニットの関係を示す図である。It is a figure which shows the relationship between an imaging optical system and a focus detection unit. 撮影光学系の瞳を示す図である。It is a figure which shows the pupil of an imaging optical system. 実施例4における焦点検出ユニットの構成を示す図である。FIG. 10 is a diagram illustrating a configuration of a focus detection unit in Embodiment 4.

符号の説明Explanation of symbols

101:カメラ本体
102:レンズ装置
103:撮影光学系
106:撮像素子
111:ハーフミラー
121:焦点検出ユニット
122:サブミラー
135:カメラシステム制御回路
135a:メモリ
DESCRIPTION OF SYMBOLS 101: Camera main body 102: Lens apparatus 103: Shooting optical system 106: Image pick-up element 111: Half mirror 121: Focus detection unit 122: Sub mirror 135: Camera system control circuit 135a: Memory

Claims (9)

撮影光学系からの光束によって形成された被写体像を光電変換する撮像素子と、
該撮像素子の出力を用いて、コントラスト検出方式により前記撮影光学系の焦点調節状態を検出するための第1の検出手段と、
位相差検出方式により前記撮影光学系の焦点調節状態を検出するための第2の検出手段と、
前記撮影光学系からの光束を分割して、前記撮像素子及び前記第2の検出手段に導くための光分割手段と、
前記第1の検出手段の検出結果に基づいて、前記第2の検出手段の検出結果を補正する制御手段とを有することを特徴とする撮像装置。
An image sensor that photoelectrically converts a subject image formed by a light beam from a photographing optical system;
First detection means for detecting a focus adjustment state of the photographing optical system by a contrast detection method using an output of the image sensor;
Second detection means for detecting a focus adjustment state of the photographing optical system by a phase difference detection method;
A light splitting means for splitting a light beam from the photographing optical system and guiding it to the image sensor and the second detection means;
An imaging apparatus comprising: a control unit that corrects a detection result of the second detection unit based on a detection result of the first detection unit.
前記制御手段は、前記第1及び第2の検出手段の検出結果に基づいて、前記第2の検出手段の検出結果を補正するための補正値を算出することを特徴とする請求項1に記載の撮像装置。   2. The control unit according to claim 1, wherein the control unit calculates a correction value for correcting the detection result of the second detection unit based on the detection results of the first and second detection units. Imaging device. 前記光分割手段は、撮影光路内に位置して前記撮影光学系からの光束を前記撮像素子及び前記第2の検出手段に導く状態と、撮影光路から退避した状態との間で動作可能であって、
前記制御手段は、前記光分割手段が前記撮影光路内に位置しているときに、前記補正値の算出を行うことを特徴とする請求項2に記載の撮像装置。
The light splitting means is operable between a state where it is located in the photographing optical path and guides the light beam from the photographing optical system to the imaging device and the second detecting means, and a state where it is retracted from the photographing optical path. And
The imaging apparatus according to claim 2, wherein the control unit calculates the correction value when the light dividing unit is located in the photographing optical path.
前記補正値を記憶するための記憶手段を有することを特徴とする請求項2又は3に記載の撮像装置。   The image pickup apparatus according to claim 2, further comprising a storage unit that stores the correction value. 前記第1の検出手段による検出動作のタイミングと、前記第2の検出手段による検出動作のタイミングとが等しいことを特徴とする請求項1から4のいずれか1つに記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein the timing of the detection operation by the first detection unit is equal to the timing of the detection operation by the second detection unit. 6. 前記光分割手段は、撮影光路に対して進退可能な光学素子を有しており、
前記光学素子は、前記撮影光路内に位置している場合において、前記撮影光学系からの光束のうち一部の光束を前記第2の検出手段に導くとともに、他の光束を前記撮像素子に導くことを特徴とする請求項1から5のいずれか1つに記載の撮像装置。
The light splitting means has an optical element that can move forward and backward with respect to the photographing optical path,
When the optical element is located in the photographing optical path, a part of the light flux from the photographing optical system is guided to the second detection unit and another light flux is guided to the imaging element. The imaging apparatus according to any one of claims 1 to 5, wherein
前記撮影光学系からの光束を用いて被写体を観察するためのファインダ光学系を有し、
前記光分割手段は、前記撮影光学系からの光束を前記ファインダ光学系及び前記第2の検出手段に導く第1の状態と、前記撮影光学系からの光束を前記撮像素子及び前記第2の検出手段に導く第2の状態との間で切り換わることを特徴とする請求項1から5のいずれか1つに記載の撮像装置。
A viewfinder optical system for observing a subject using a light beam from the photographing optical system;
The light splitting means has a first state for guiding a light beam from the photographing optical system to the finder optical system and the second detection means, and a light beam from the photographing optical system to the imaging element and the second detection. The imaging apparatus according to claim 1, wherein the imaging apparatus switches between a second state leading to the means.
前記光分割手段は、互いに独立して移動可能な第1及び第2のミラーを有しており、
前記光分割手段が前記第1の状態にあるとき、前記第1のミラーが前記撮影光学系からの光束のうち一部の光束を前記ファインダ光学系に反射させて、他の光束を透過させるとともに、前記第2のミラーが前記第1のミラーを透過した光束を前記第2の検出手段に反射させ、
前記光分割手段が前記第2の状態にあるとき、前記第1のミラーが前記一部の光束を前記第2の検出手段に反射させ、他の光束を透過させるとともに、前記第2のミラーが撮影光路から退避することを特徴とする請求項7に記載の撮像装置。
The light splitting means has first and second mirrors movable independently of each other,
When the light splitting means is in the first state, the first mirror reflects a part of the light beam from the photographing optical system to the finder optical system and transmits the other light beam. , The second mirror reflects the light beam transmitted through the first mirror to the second detection means,
When the light splitting means is in the second state, the first mirror reflects the part of the light flux to the second detection means and transmits the other light flux, and the second mirror The imaging apparatus according to claim 7, wherein the imaging apparatus is retracted from the imaging optical path.
前記光分割手段が前記第1の状態にあるとき、前記第2のミラーは、前記第1のミラーを透過した光束のうち一部の光束を前記第2の検出手段に反射させるとともに、他の光束を透過させて前記撮像素子に導くことを特徴とする請求項8に記載の撮像装置。   When the light splitting means is in the first state, the second mirror reflects a part of the light flux transmitted through the first mirror to the second detection means and The imaging apparatus according to claim 8, wherein a light beam is transmitted and guided to the imaging element.
JP2006211902A 2006-08-03 2006-08-03 Imaging device Expired - Fee Related JP4863370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006211902A JP4863370B2 (en) 2006-08-03 2006-08-03 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006211902A JP4863370B2 (en) 2006-08-03 2006-08-03 Imaging device

Publications (2)

Publication Number Publication Date
JP2008039976A true JP2008039976A (en) 2008-02-21
JP4863370B2 JP4863370B2 (en) 2012-01-25

Family

ID=39175083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006211902A Expired - Fee Related JP4863370B2 (en) 2006-08-03 2006-08-03 Imaging device

Country Status (1)

Country Link
JP (1) JP4863370B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113073A (en) * 2008-11-05 2010-05-20 Canon Inc Image capturing apparatus
JP2011007881A (en) * 2009-06-23 2011-01-13 Nikon Corp Focus detecting device, focus control device and imaging device
EP2515525A3 (en) * 2011-04-21 2013-05-22 Canon Kabushiki Kaisha Image pickup apparatus and control method thereof
JP2016095353A (en) * 2014-11-13 2016-05-26 株式会社モリテックス Telecentric lens and image capturing device having the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127074A (en) * 1991-11-01 1993-05-25 Canon Inc Focus detection device
JP2000292685A (en) * 1999-04-01 2000-10-20 Olympus Optical Co Ltd Image pick-up element
JP2001275033A (en) * 2000-03-27 2001-10-05 Minolta Co Ltd Digital still camera
JP2003295047A (en) * 2002-04-05 2003-10-15 Canon Inc Image pickup device and image pickup system
JP2005292525A (en) * 2004-03-31 2005-10-20 Canon Inc Imaging unit

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127074A (en) * 1991-11-01 1993-05-25 Canon Inc Focus detection device
JP2000292685A (en) * 1999-04-01 2000-10-20 Olympus Optical Co Ltd Image pick-up element
JP2001275033A (en) * 2000-03-27 2001-10-05 Minolta Co Ltd Digital still camera
JP2003295047A (en) * 2002-04-05 2003-10-15 Canon Inc Image pickup device and image pickup system
JP2005292525A (en) * 2004-03-31 2005-10-20 Canon Inc Imaging unit

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010113073A (en) * 2008-11-05 2010-05-20 Canon Inc Image capturing apparatus
JP2011007881A (en) * 2009-06-23 2011-01-13 Nikon Corp Focus detecting device, focus control device and imaging device
EP2515525A3 (en) * 2011-04-21 2013-05-22 Canon Kabushiki Kaisha Image pickup apparatus and control method thereof
JP2016095353A (en) * 2014-11-13 2016-05-26 株式会社モリテックス Telecentric lens and image capturing device having the same

Also Published As

Publication number Publication date
JP4863370B2 (en) 2012-01-25

Similar Documents

Publication Publication Date Title
JP3697256B2 (en) Imaging device and lens device
JP5146295B2 (en) Imaging apparatus and focus control method
TWI400558B (en) Camera device
JP4973478B2 (en) Imaging device and imaging apparatus
JP5109641B2 (en) Imaging device and imaging apparatus
JP4414486B2 (en) Imaging device and camera
JP4834394B2 (en) Imaging apparatus and control method thereof
JP4040638B2 (en) Imaging device
US7609960B2 (en) Finder device and camera
JP2006340126A (en) Imaging apparatus and its control method
JP4863370B2 (en) Imaging device
JP4143622B2 (en) Imaging device
JP4343753B2 (en) Imaging device
JP5157525B2 (en) Imaging device
JP4194577B2 (en) Imaging device
JP4612800B2 (en) Imaging apparatus and imaging system
JP4194542B2 (en) Imaging device
JP4110152B2 (en) Imaging device
US8068728B2 (en) Imaging apparatus
JP4464180B2 (en) Imaging apparatus and imaging system
JP4438052B2 (en) Imaging device
JP2009282378A (en) Imaging apparatus and imaging apparatus body

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081010

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20081201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111104

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees