JP2018026604A - Imaging device and imaging device system - Google Patents

Imaging device and imaging device system Download PDF

Info

Publication number
JP2018026604A
JP2018026604A JP2016155150A JP2016155150A JP2018026604A JP 2018026604 A JP2018026604 A JP 2018026604A JP 2016155150 A JP2016155150 A JP 2016155150A JP 2016155150 A JP2016155150 A JP 2016155150A JP 2018026604 A JP2018026604 A JP 2018026604A
Authority
JP
Japan
Prior art keywords
focus detection
imaging
pixel
image sensor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016155150A
Other languages
Japanese (ja)
Inventor
友裕 井野
Tomohiro Ino
友裕 井野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016155150A priority Critical patent/JP2018026604A/en
Publication of JP2018026604A publication Critical patent/JP2018026604A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device capable of always using the same image information as a photographic image respective of whether a main mirror exists on an optical path of a photographic optical system.SOLUTION: An imaging device comprises: an imaging element 14 which images a subject formed by a photographic optical system 2; a half mirror 9 provided so as to enable insertion into and removal from an optical path between the photographic optical system and the imaging element; switching means for switching a first state in which the half mirror is on the optical path between the photographic optical system and the imaging element and a second state in which the half mirror is saved from the optical path between the photographic optical system and the imaging element; and reading range switching means for switching a first reading range in which reading is made from the imaging element when the half mirror is in the first state and a second reading range in which reading is made from the imaging element when the half mirror is in the second state according to the first state and the second state of the half mirror.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置および撮像システムに関し、特にハーフミラーを備えた撮像装置および撮像システムに関するものである。   The present invention relates to an imaging apparatus and an imaging system, and more particularly to an imaging apparatus and an imaging system provided with a half mirror.

従来ハーフミラーを備えた一眼レフカメラにおいて、ハーフミラーが撮影光束の光路中に挿入されて、一部の光はカメラ上部に折り曲げられ、ファインダー光学系を介して撮影画像を確認でき、また一部の光はハーフミラーを透過し、撮像素子において焦点検出を行う撮像装置が提案されている。ハーフミラーを透過した光により焦点検出を行う場合、撮影時にはハーフミラーが撮影光束の光路から退避するため、撮影時と焦点検出時では光路が変化するため補正を行う必要がある。   In a conventional single-lens reflex camera equipped with a half mirror, the half mirror is inserted into the optical path of the photographic light beam, and part of the light is bent at the top of the camera so that the photographed image can be confirmed via the finder optical system. An image pickup apparatus has been proposed in which the light passes through a half mirror and focus detection is performed in the image pickup element. When focus detection is performed using light that has passed through the half mirror, the half mirror is retracted from the optical path of the imaging light beam at the time of imaging, and therefore the optical path changes at the time of imaging and at the time of focus detection.

例えば、特許文献1ではハーフミラーを備えた一眼レフデジタルカメラにおいて、ハーフミラーが光路挿入位置にあるときに該ハーフミラーを介して撮像素子に入射する被写体光束に基づいてレンズを合焦位置に移動させるとともに、ハーフミラーを退避位置に移動させる前に、ハーフミラーによる光路長の変化量だけ撮影レンズを移動させ、その後に撮影するものが知られている。   For example, in Patent Document 1, in a single-lens reflex digital camera equipped with a half mirror, when the half mirror is at the optical path insertion position, the lens is moved to the in-focus position based on the subject light flux incident on the image sensor via the half mirror. In addition, before moving the half mirror to the retracted position, the photographing lens is moved by the amount of change in the optical path length by the half mirror, and then photographing is known.

また特許文献2ではハーフミラーが撮像光学系と撮像素子との間の光路上に進出する第1の位置と前記光路から退避する第2の位置にある場合とで、ハーフミラーによる屈折を受けるか否かが異なるので、撮像素子に対する入射光の入射位置が、例えば数画素乃至数十画素程度ずれてしまうので、そのずれの分だけ、撮像素子の撮像時の前記撮像素子の位置を、前記第1の状態と前記第2の状態とで変更させることが知られている。   In Patent Document 2, whether the half mirror is refracted by the half mirror when the half mirror is at the first position where the half mirror advances on the optical path between the imaging optical system and the imaging element and when the half mirror is at the second position where the half mirror is retracted from the optical path. Since the incident position of the incident light with respect to the image sensor is shifted by, for example, several pixels to several tens of pixels, the position of the image sensor at the time of image capturing by the image sensor is changed by the difference. It is known to change between the first state and the second state.

特開2000−32323号公報JP 2000-32323 A 特開2013−167855号公報JP 2013-167855 A

しかしながら、上述の特許文献1に開示された従来技術では、ハーフミラーの光路長の変化量だけ撮影レンズを移動させて撮影することで、ピント方向の補正を行うことが出来るが、ハーフミラーの屈折により、撮影像の結像する位置が撮像素子面内で変化してしまうため、撮影したい被写体像と測距を行うときの測距対象像が異なってしまうことになる。   However, in the conventional technique disclosed in Patent Document 1 described above, the photographing direction can be corrected by moving the photographing lens by the amount of change in the optical path length of the half mirror, but the refraction of the half mirror can be performed. As a result, the position where the photographed image is formed changes within the surface of the image sensor, so that the subject image to be photographed and the distance measurement target image for distance measurement are different.

また特許文献2では、撮像素子の位置を変更することで、ハーフミラーが光路上に進出する場合と退避する場合の撮像面内の入射光の入射位置を補正することが出来るが、撮像素子を機械的に移動するために機構が大掛かりになってしまい、また機構を配置するためのスペースが必要となってしまう。   Further, in Patent Document 2, by changing the position of the image sensor, the incident position of the incident light in the imaging surface when the half mirror advances and retracts on the optical path can be corrected. Since the mechanism moves mechanically, the mechanism becomes large, and a space for arranging the mechanism becomes necessary.

上記目的を達成するために、本発明は、
撮影光学系により結像される被写体像を撮像する撮像素子と、
撮影光学系と前記撮像素子との間の光路中に挿脱可能に設けられたハーフミラーと
前記ハーフミラーが前記撮影光学系と前記撮像素子との間の光路上にある第1の状態と 前記ハーフミラーが前記撮影光学系と前記撮像素子との間の光路上から退避する第2の状態を切り替える切り替え手段と、
前記第1の状態のときに前記撮像素子のうちの読み出しを行う第1の読み出し範囲と、
前記第2の状態のときに前記撮像素子のうちの読み出しを行う第2の読み出し範囲と、
上記ハーフミラーの前記第1の状態と前記第2の状態に応じて、前記第1の読み出し範囲と前記第2の読み出し範囲の読み出し範囲切り替え手段
を備えたことを特徴とする。
In order to achieve the above object, the present invention provides:
An image sensor for imaging a subject image formed by the imaging optical system;
A half mirror provided in an optical path between the imaging optical system and the image sensor so as to be removable
A first state in which the half mirror is on an optical path between the imaging optical system and the imaging element; and a second state in which the half mirror is retracted from an optical path between the imaging optical system and the imaging element Switching means for switching between,
A first reading range for reading out of the image sensor in the first state;
A second reading range for reading out of the image sensor in the second state;
Read range switching means between the first read range and the second read range according to the first state and the second state of the half mirror
It is provided with.

本発明によればメインミラーが撮影光学系の光路上に有る無しにかかわらず、常に撮影画像と同じ画像情報を使用した撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus that always uses the same image information as a captured image regardless of whether the main mirror is on the optical path of the imaging optical system.

本発明の実施の形態にかかわる、撮像装置の概略構成図。1 is a schematic configuration diagram of an imaging apparatus according to an embodiment of the present invention. 第1の実施形態における画素配列の概略図。FIG. 2 is a schematic diagram of a pixel arrangement in the first embodiment. 第1の実施形態における画素の概略平面図と概略断面図。FIG. 2 is a schematic plan view and a schematic cross-sectional view of a pixel according to the first embodiment. 第1の実施形態における画素と瞳分割の概略図。Schematic of the pixel and pupil division in a 1st embodiment. 第1の実施形態における画像素子と瞳分割の概略説明図。Schematic explanatory drawing of the image element and pupil division in a 1st embodiment. 本発明の実施形態における測距点配置図。FIG. 3 is a distance measurement point arrangement diagram according to the embodiment of the present invention. 第1の実施形態におけるライブビューモード時の測距演算範囲分割図。FIG. 6 is a diagram illustrating a distance calculation calculation range division in the live view mode according to the first embodiment. 第1の実施形態における光学ファインダーモード時の測距演算範囲分割とライブビューモード時の測距演算範囲を示す説明図。Explanatory drawing which shows the ranging calculation range at the time of the range finding calculation range at the time of the optical finder mode and live view mode in 1st Embodiment. 第1の実施形態における撮影光軸上の光線がハーフミラーを透過する様子を模式的に示す概略断面図。FIG. 3 is a schematic cross-sectional view schematically showing a state where a light beam on a photographing optical axis in the first embodiment is transmitted through a half mirror. 第1の実施形態における撮像装置の動作の一例を示す概略フローチャート。3 is a schematic flowchart illustrating an example of the operation of the imaging apparatus according to the first embodiment. 第2の実施形態における光束がハーフミラーを透過する様子を模式的に示す概略断面図。The schematic sectional drawing which shows typically a mode that the light beam in 2nd Embodiment permeate | transmits a half mirror. 第2の実施形態における測距点配置図。FIG. 7 is a diagram of arrangement of distance measuring points in the second embodiment. 第2の実施形態におけるライブビューモード時の測距演算範囲分割と光学ファインダーモード時の測距演算範囲分割のズレ量を示す概略説明図。FIG. 10 is a schematic explanatory diagram illustrating a deviation amount between a distance calculation calculation range division in a live view mode and a distance measurement calculation range division in an optical viewfinder mode according to the second embodiment. 第3の実施形態における画素配列の概略図。Schematic of the pixel arrangement in the third embodiment. 第3の実施形態における撮像素子の撮像画素の配置を示す正面図と断面図。The front view and sectional drawing which show arrangement | positioning of the imaging pixel of the image pick-up element in 3rd Embodiment. 第3の実施形態における撮像素子の焦点検出画素の配置を示す正面図と断面図。The front view and sectional drawing which show arrangement | positioning of the focus detection pixel of the image pick-up element in 3rd Embodiment. 第3の実施形態におけるライブビューモード時の焦点検出画素群と光学ファインダーモード時の焦点検出画素群のズレ量を示す概略説明図。FIG. 10 is a schematic explanatory diagram illustrating a shift amount between a focus detection pixel group in a live view mode and a focus detection pixel group in an optical viewfinder mode according to a third embodiment. 第4の実施形態における測距点配置とライブビューモード時の測光範囲分割を示す説明図。Explanatory drawing which shows the photometry range division | segmentation at the time of the distance measurement point arrangement | positioning and live view mode in 4th Embodiment. 第4の実施形態におけるライブビューモード時の測光範囲分割と光学ファインダーモード時の測光範囲分割のズレ量を示す概略説明図。Schematic explanatory drawing which shows the gap | deviation amount of the photometry range division | segmentation at the time of live view mode in 4th Embodiment, and the photometry range division | segmentation at the time of optical finder mode.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかわる撮像装置である。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 shows an imaging apparatus according to an embodiment of the present invention.

[実施例1]
以下、図1を参照して、本発明の第1の実施例による、ハーフミラーの状態に応じて撮像装置の読み出し範囲を切り替える読み出し範囲切り替え手段について説明する。図1において、着脱可能な撮影レンズ1の内部には撮影光学系2、撮影光学系を構成するレンズのすべて、もしくは一部を移動させ、焦点調整するための焦点調整手段3、撮影レンズ1を制御するためのレンズ制御手段4、ROM等のレンズ記憶手段5を含んでいる。
[Example 1]
Hereinafter, with reference to FIG. 1, a reading range switching unit that switches the reading range of the imaging apparatus according to the state of the half mirror according to the first embodiment of the present invention will be described. In FIG. 1, a photographic optical system 2, all or a part of the lenses constituting the photographic optical system are moved inside a detachable photographic lens 1, and a focus adjusting means 3 for adjusting the focus, and the photographic lens 1. A lens control means 4 for controlling and a lens storage means 5 such as a ROM are included.

カメラ本体8は、メインミラー9、撮影媒体として撮像素子14、カメラ制御手段16、カメラ演算手段17、カメラ記憶手段18を含んでいる。撮影レンズ1およびカメラ本体8は接点19を有し、互いに装着された状態では接点19を介して情報の通信や電源の供給が行われる。Laは撮影レンズ1の光軸である。光軸Laにそって入射する光束は半透過部を備えるメインミラー9に達し、反射光と透過光の二つの光束に分割される。   The camera body 8 includes a main mirror 9, an imaging device 14 as a photographing medium, camera control means 16, camera calculation means 17, and camera storage means 18. The taking lens 1 and the camera body 8 have a contact point 19, and when they are attached to each other, information is communicated and power is supplied through the contact point 19. La is the optical axis of the taking lens 1. The light beam incident along the optical axis La reaches the main mirror 9 having a semi-transmissive portion, and is divided into two light beams of reflected light and transmitted light.

反射光側には光軸Laにそって焦点板10、測距点等の情報表示を行う透過型液晶11、ペンタプリズム12、接眼レンズ13が配置され、これらの部材は焦点板10上に形成されたファインダー像の視認のためのファインダー系を構成する。   On the reflected light side, a transmissive liquid crystal 11, a pentaprism 12, and an eyepiece 13 for displaying information such as a focusing screen 10, a distance measuring point, and the like are arranged along the optical axis La. These members are formed on the focusing screen 10. A finder system for visualizing the finder image formed is configured.

一方、メインミラー9の透過光側の光束は撮像素子14に入射する。メインミラー9は撮影光学系2と撮像素子14との撮影光路内に進出する第1の位置と、撮影光学系2と撮像素子14との撮影光路から退避する第2の位置とに、移動可能になるように設けられている。   On the other hand, the light flux on the transmitted light side of the main mirror 9 enters the image sensor 14. The main mirror 9 is movable to a first position that advances into the photographing optical path between the photographing optical system 2 and the image sensor 14 and a second position that retreats from the photographing optical path between the photographing optical system 2 and the image sensor 14. It is provided to become.

メインミラー9が撮像光路内にある第1の位置の場合、メインミラー9は入射光束を反射光束と透過光束とに分離して、反射光束をファインダー系に導き、かつ透過光束を撮像素子14に導き、撮影者は被写体像を接眼レンズ13で確認することが出来る。これを光学ファインダーモードと呼ぶ。またメインミラー9を撮像光路外に退避させる第2の位置の場合、撮影光束を透過も反射もせずに撮像素子14に導き、撮像素子14で得られる被写体像を液晶画面15で確認することもできる。これをライブビューモードと呼ぶ。   When the main mirror 9 is at the first position in the imaging optical path, the main mirror 9 separates the incident light beam into a reflected light beam and a transmitted light beam, guides the reflected light beam to the viewfinder system, and transmits the transmitted light beam to the image sensor 14. The photographer can confirm the subject image with the eyepiece 13. This is called an optical finder mode. In the case of the second position where the main mirror 9 is retracted out of the imaging optical path, the imaging light flux is guided to the imaging element 14 without being transmitted or reflected, and the subject image obtained by the imaging element 14 can be confirmed on the liquid crystal screen 15. it can. This is called a live view mode.

光学ファインダーモードの場合、撮影を行う際にはメインミラー9を撮像光路外に退避さる第2の位置に移動し、撮像素子14で撮影を行う。撮像素子14は撮影レンズ1のうち、後述する瞳分割機能によって2分割された光束により形成された2像を光電変換する焦点検出画素を有している。   In the case of the optical viewfinder mode, when shooting, the main mirror 9 is moved to the second position where the main mirror 9 is retracted out of the imaging optical path, and shooting is performed with the imaging device 14. The imaging element 14 has a focus detection pixel that photoelectrically converts two images formed by a light beam divided into two by a pupil division function described later in the photographing lens 1.

光学ファインダーモードの場合、メインミラー9が撮像光路内にあるため、メインミラー9を透過した光束を利用して撮像素子14の焦点検出画素により焦点検出を行う。   In the case of the optical finder mode, the main mirror 9 is in the imaging optical path, so that the focus detection is performed by the focus detection pixel of the image sensor 14 using the light beam transmitted through the main mirror 9.

一方、ライブビューモードの場合は、メインミラー9が撮影光路外に退避するため撮影レンズからの入射光束そのものを用いて撮像素子14の焦点検出画素により焦点検出を行う。   On the other hand, in the live view mode, since the main mirror 9 is retracted out of the photographing optical path, focus detection is performed by the focus detection pixel of the image sensor 14 using the incident light beam itself from the photographing lens.

図2は本実施形態における撮像素子14の撮像用画素を焦点検出用画素の配列の概略図を示している。図2の撮像素子の概略図は、撮像素子14の画素(撮像用画素)配列を4列×4行の範囲で、焦点検出用画素配列を8列×4行の範囲で示したものである。   FIG. 2 is a schematic diagram of an arrangement of focus detection pixels as imaging pixels of the image sensor 14 in the present embodiment. The schematic diagram of the image sensor in FIG. 2 shows a pixel (imaging pixel) array of the image sensor 14 in a range of 4 columns × 4 rows and a focus detection pixel array in a range of 8 columns × 4 rows. .

本実施形態において、図2に示した2列×2行の画素群200は赤の分光感度を有する画素200Rが左上、緑の分光感度を有する画素200Gが右上と左下に、青の分光感度を有する画素200Bが右下に配置されている。さらに各画素は2列×1行に配置された第1焦点検出用画素201と第2焦点検出用画素202により構成されている。撮像素子14は図2に示した画素群200を面上に多数配置し撮像画像を取得する。   In the present embodiment, the pixel group 200 of 2 columns × 2 rows shown in FIG. 2 has a blue spectral sensitivity of the pixel 200R having a red spectral sensitivity at the upper left, the pixel 200G having a green spectral sensitivity at the upper right and the lower left. The pixel 200 </ b> B that is included is arranged at the lower right. Further, each pixel includes a first focus detection pixel 201 and a second focus detection pixel 202 arranged in 2 columns × 1 row. The imaging device 14 obtains a captured image by arranging a large number of pixel groups 200 shown in FIG. 2 on the surface.

図3は撮像素子のうち一つの撮像画素を受光面側からみた平面図(a)と撮像画素の断面図(b)を示す。図3の(b)に示すように、本実施形態の画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、x方向に2分割、y方向にI分割された光電変換部301と光電変換部302が形成される。光電変換部301と302が、それぞれ第1焦点検出用画素201と第2焦点検出画素202に対応する。   FIG. 3 shows a plan view (a) of one image pickup pixel of the image pickup device viewed from the light receiving surface side and a cross-sectional view (b) of the image pickup pixel. As shown in FIG. 3B, in the pixel 200G of this embodiment, a microlens 305 for condensing incident light is formed on the light receiving side of each pixel, divided into two in the x direction and I in the y direction. A divided photoelectric conversion unit 301 and photoelectric conversion unit 302 are formed. The photoelectric conversion units 301 and 302 correspond to the first focus detection pixel 201 and the second focus detection pixel 202, respectively.

各画素には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルタ306が形成される。また、必要に応じて、副画素毎にカラーフィルタの分光透過率を変えても良いし、カラーフィルタを省略しても良い。   In each pixel, a color filter 306 is formed between the microlens 305 and the photoelectric conversion unit 301 and the photoelectric conversion unit 302. Further, as necessary, the spectral transmittance of the color filter may be changed for each sub-pixel, or the color filter may be omitted.

図3に示した画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306で分光されたのち、光電変換部301と光電変換部302で受光される。図3に示した本実施形態の画素構造と瞳分割との対応関係を示した概略説明図を図4に示す。図3(a)に示した本実施形態の画素構造のa−a断面を+y側から見た断面図と結像光学系の射出瞳面を図4に示す。   Light incident on the pixel 200 </ b> G illustrated in FIG. 3 is collected by the microlens 305, dispersed by the color filter 306, and then received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302. FIG. 4 is a schematic explanatory diagram showing the correspondence between the pixel structure of this embodiment shown in FIG. 3 and pupil division. FIG. 4 shows a sectional view of the pixel structure of the present embodiment shown in FIG. 3A as viewed from the + y side and an exit pupil plane of the imaging optical system.

図4では、射出瞳面の座標軸と対応を取るために、断面図のx軸とy軸を図3に対して反転させている。図4で、第1焦点検出用画素201の第1瞳部分領域501は、重心が−x方向に偏心している光電変換部301の受光面と、マイクロレンズによって、概ね、共役関係になっており、第1焦点検出用画素201で受光可能な瞳領域を表している。第1焦点検出用画素201の第1瞳部分領域501は、瞳面上で+X側に重心が偏心している。   In FIG. 4, in order to correspond to the coordinate axis of the exit pupil plane, the x-axis and y-axis of the cross-sectional view are inverted with respect to FIG. In FIG. 4, the first pupil partial region 501 of the first focus detection pixel 201 is generally conjugated with the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is decentered in the −x direction and the microlens. , The first focus detection pixel 201 represents a pupil region that can receive light. The first pupil partial region 501 of the first focus detection pixel 201 has an eccentric center of gravity on the + X side on the pupil plane.

図4で、第2焦点検出用画素202の第2瞳部分領域502は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズによって、概ね、共役関係になっており、第2焦点検出用画素202で受光可能な瞳領域を表している。第2焦点検出用画素202の第2瞳部分領域502は、瞳面上で−X側に重心が偏心している。また、図4で、瞳領域500は、光電変換部301と光電変換部302(第1焦点検出用画素201と第2焦点検出用画素202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。   In FIG. 4, the second pupil partial region 502 of the second focus detection pixel 202 is generally conjugated with the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is decentered in the + x direction and the microlens. A pupil region that can be received by the second focus detection pixel 202 is shown. The center of gravity of the second pupil partial region 502 of the second focus detection pixel 202 is eccentric to the −X side on the pupil plane. In FIG. 4, the pupil region 500 can receive light in the entire pixel 200 </ b> G when the photoelectric conversion unit 301 and the photoelectric conversion unit 302 (first focus detection pixel 201 and second focus detection pixel 202) are all combined. This is the pupil area.

本実施形態の撮像素子と瞳分割との対応関係を示した概略図を図5に示す。第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束は、撮像素子の各画素に、それぞれ、異なる角度で入射し、2×1分割された第1焦点検出用画素201と第2焦点検出用画素202で受光される。   FIG. 5 is a schematic diagram showing the correspondence between the image sensor of this embodiment and pupil division. Light beams that have passed through different pupil partial areas of the first pupil partial area 501 and the second pupil partial area 502 are incident on each pixel of the image sensor at different angles, and are used for first focus detection divided into 2 × 1. Light is received by the pixel 201 and the second focus detection pixel 202.

本実施形態は、瞳領域が水平方向に2つに瞳分割されている例である。必要に応じて、垂直方向に瞳分割を行っても良い。   In the present embodiment, the pupil region is divided into two pupils in the horizontal direction. If necessary, pupil division may be performed in the vertical direction.

本実施形態の撮像素子は、結像光学系の第1瞳部分領域を通過する光束を受光する第1焦点検出用画素と、第1瞳部分領域と異なる結像光学系の第2瞳部分領域を通過する光束を受光する第2焦点検出用画素が複数配列されている。また、本実施形態の撮像素子は結像光学系の第1瞳部分領域と第2瞳部分領域を合わせた瞳領域を通過する光束を受光する撮像用画素が複数配列されている。   The imaging device of the present embodiment includes a first focus detection pixel that receives a light beam passing through the first pupil partial region of the imaging optical system, and a second pupil partial region of the imaging optical system different from the first pupil partial region. A plurality of second focus detection pixels that receive a light beam passing through the lens are arranged. In the imaging device of the present embodiment, a plurality of imaging pixels that receive a light beam passing through a pupil region in which the first pupil partial region and the second pupil partial region of the imaging optical system are combined are arranged.

本実施形態の撮像素子では、それぞれの撮像用画素が第1焦点検出用画素と第2焦点検出用画素から構成されている。必要に応じて、撮像用画素と第1焦点検出用画素、第2焦点検出用画素を個別の画素構成とし、撮像用画素配列の一部に、第1焦点検出用画素と第2焦点検出用画素を部分的に配置する構成としても良い。   In the imaging device of the present embodiment, each imaging pixel is composed of a first focus detection pixel and a second focus detection pixel. If necessary, the imaging pixel, the first focus detection pixel, and the second focus detection pixel are configured as separate pixels, and the first focus detection pixel and the second focus detection pixel are included in a part of the imaging pixel array. A configuration in which pixels are partially arranged may be employed.

本実施形態では、撮像素子の各画素の第1焦点検出用画素201の受光信号を集めて第1焦点信号を生成し、各画素の第2焦点検出用画素202の受光信号を集めて第2焦点信号を生成して焦点検出を行う。また、撮像素子の各画素毎に、第1焦点検出用画素201と第2焦点検出用画素202の信号を加算することで、有効画素数Nの解像度の撮像信号(撮像画像)を生成する。   In the present embodiment, a first focus signal is generated by collecting the light reception signals of the first focus detection pixels 201 of each pixel of the image sensor, and the second light reception signals of the second focus detection pixels 202 of each pixel are collected. A focus signal is generated to perform focus detection. Further, by adding the signals of the first focus detection pixel 201 and the second focus detection pixel 202 for each pixel of the image pickup device, an image pickup signal (captured image) having a resolution of N effective pixels is generated.

本実施例では第1焦点検出画素群201と第2焦点検出画素群202を用いて既知の撮像面位相差AFを行うことにより焦点検出を行う。焦点検出画素が撮像素子全面に配置されているため、撮像素子全面で位相差AFを行うことが出来る。   In this embodiment, focus detection is performed by performing known imaging plane phase difference AF using the first focus detection pixel group 201 and the second focus detection pixel group 202. Since focus detection pixels are arranged on the entire surface of the image sensor, phase difference AF can be performed on the entire surface of the image sensor.

しかしながら、画像情報の処理が複雑になるため、本実施例では撮像素子のうち焦点検出を行う箇所を数ブロック配置し、ブロック毎に第1の焦点検出用画素201の情報と第2の焦点検出用画素202の情報を用いて焦点検出を行う。また図6では本実施例で使用する測距点箇所を撮像画像上に投影した図を示す。またライブビューモードでの撮像素子の焦点検出ブロックの分割を図7に示す。   However, since the processing of the image information becomes complicated, in this embodiment, several blocks of locations where focus detection is performed in the image sensor are arranged, and the information on the first focus detection pixel 201 and the second focus detection are arranged for each block. Focus detection is performed using the information of the pixel for use 202. In addition, FIG. 6 shows a diagram in which a distance measuring point location used in this embodiment is projected on a captured image. FIG. 7 shows the division of the focus detection block of the image sensor in the live view mode.

ライブビューモードの場合は、図6の焦点検出箇所が背面液晶に表示される。撮影者は焦点検出を行う箇所を自動または任意に図6に示した測距点から選択する。選択された図6で示した測距点に対応するに図7に示した撮像素子の焦点検出ブロックの焦点検出画素の情報を使用して焦点検出を行う。   In the live view mode, the focus detection location in FIG. 6 is displayed on the rear liquid crystal. The photographer automatically or arbitrarily selects a position for focus detection from the distance measuring points shown in FIG. Corresponding to the selected distance measuring point shown in FIG. 6, focus detection is performed using information on the focus detection pixels of the focus detection block of the image sensor shown in FIG.

一方、光学ファインダーモードの場合はメインミラー9は撮像光路入り、入射光束を反射光束と透過光束とに分離して、反射光束をファインダー系に導き、かつ透過光束を撮像素子に導く。   On the other hand, in the optical finder mode, the main mirror 9 enters the imaging optical path, separates the incident light beam into a reflected light beam and a transmitted light beam, guides the reflected light beam to the finder system, and guides the transmitted light beam to the image sensor.

光学ファインダーモードの場合、図6の撮像画像上の焦点検出箇所は透過型液晶パネル上に表示され、撮影者はファインダーをのぞいて焦点検出箇所を確認することが出来る。また、光学ファインダーモードの場合、メインミラー9を透過した光束は撮像素子14に到達するため、メインミラー9の透過光束を用いて、撮像素子14上の焦点検出用画素201の情報と第2の焦点検出用画素202の情報を用いて焦点検出を行うことが出来る。   In the optical viewfinder mode, the focus detection location on the captured image in FIG. 6 is displayed on the transmissive liquid crystal panel, and the photographer can check the focus detection location through the viewfinder. In the case of the optical finder mode, the light beam that has passed through the main mirror 9 reaches the image sensor 14, and therefore the information on the focus detection pixel 201 on the image sensor 14 and the second light beam are transmitted through the main mirror 9. Focus detection can be performed using information of the focus detection pixel 202.

このとき、メインミラー9を透過した光束は、メインミラーにより屈折するため、ライブビューモードと同じ図7に示す焦点検出ブロックの分割で焦点検出を行うと、図6で示した撮像画素上の焦点検出箇所と異なる位置で焦点検出を行うことになってしまう。   At this time, since the light beam transmitted through the main mirror 9 is refracted by the main mirror, if focus detection is performed by dividing the focus detection block shown in FIG. 7 as in the live view mode, the focus on the imaging pixel shown in FIG. Focus detection will be performed at a position different from the detection location.

そこで本実施例では光学ファインダーモードの場合、焦点検出ブロックの分割をメインミラー9の屈折分だけ位置をずらして配置する。   Therefore, in the present embodiment, in the case of the optical finder mode, the division of the focus detection block is arranged by shifting the position by the amount of refraction of the main mirror 9.

図8に光学ファインダーモードの場合の焦点検出ブロックを示す。図8中、実線で示した801が光学ファインダーモードの場合の焦点検出ブロックの分割である。また図8中、点線で示した802がライブビューモードの場合の焦点検出ブロックの分割となり、図7と同じ分割となっている。   FIG. 8 shows a focus detection block in the case of the optical finder mode. In FIG. 8, reference numeral 801 indicated by a solid line is the division of the focus detection block in the optical finder mode. In FIG. 8, 802 indicated by a dotted line is a division of the focus detection block in the live view mode, which is the same division as in FIG.

図9はメインミラー9が撮像光路にある場合、撮影レンズの光軸に沿って入射する光線が、メインミラー9を透過する様子を模式的に示す概略図である。図9においてメインミラー9の傾き角度をθ1、レンズ光軸Laに沿って入射する光線のメインミラー9への入射角度をθ2、光線の屈折角をθ3で示している。   FIG. 9 is a schematic diagram schematically showing a state in which light rays incident along the optical axis of the photographing lens are transmitted through the main mirror 9 when the main mirror 9 is in the imaging optical path. In FIG. 9, the inclination angle of the main mirror 9 is denoted by θ1, the incident angle of light rays incident along the lens optical axis La on the main mirror 9 is denoted by θ2, and the refraction angle of the light rays is denoted by θ3.

メインミラー9の厚みをd、メインミラー9の基板の屈折率をnとすると、メインミラー9が撮像光路外に退避している場合と、メインミラー9が撮像光路内に配置されているときのレンズ光軸Laに沿って入射する光線のズレ量Δyは、   When the thickness of the main mirror 9 is d and the refractive index of the substrate of the main mirror 9 is n, the main mirror 9 is retracted from the imaging optical path and the main mirror 9 is disposed in the imaging optical path. The amount of deviation Δy of the light incident along the lens optical axis La is

で表わされる。 It is represented by

図8において実線で示した光学ファインダーモードの場合の焦点検出ブロックの分割示した801は点線で示したライブビューモードの場合の焦点検出ブロックの分割802は式1で示したΔy分だけずらした位置で分割されている。   In FIG. 8, a focus detection block division 801 in the case of the optical viewfinder mode indicated by a solid line is a focus detection block division 802 in the case of the live view mode indicated by a dotted line, which is a position shifted by Δy shown in Equation 1. It is divided by.

本実施例ではメインミラーの角度45度、メインミラー9の厚み1.5mm、メインミラー9の屈折率は1.53である。したがって、Δyは0.508mmとなる。   In this embodiment, the angle of the main mirror is 45 degrees, the thickness of the main mirror 9 is 1.5 mm, and the refractive index of the main mirror 9 is 1.53. Therefore, Δy is 0.508 mm.

図10は本実施形態の概略フローチャートである。カメラ本体に配置されている釦によりライブビューモードか光学ファインダーモードかが選択されると(ステップ1003)、ライブビューモードの場合はメインミラー9がアップされているか確認をする(ステップ1004)。ここでミラーアップとはメインミラー9が撮影光学系2と撮像素子14との撮影光路から退避している状態を示す。ミラーアップされていない場合はミラーアップを行う(ステップ1005)。   FIG. 10 is a schematic flowchart of the present embodiment. When the live view mode or the optical viewfinder mode is selected by a button arranged on the camera body (step 1003), in the live view mode, it is confirmed whether the main mirror 9 is up (step 1004). Here, the mirror-up indicates a state in which the main mirror 9 is retracted from the photographing optical path between the photographing optical system 2 and the image sensor 14. If the mirror is not raised, the mirror is raised (step 1005).

またライブビューモードが選択されている場合は、測距演算を行う範囲の分割をライブビューのブロック分割に設定する(ステップ1006)。一方、光学ファインダーモードが選択された場合は、測距演算を行う範囲の分割を光学フィンダーモードのブロック分割に設定する(ステップ1007)。   If the live view mode is selected, the division of the range in which the ranging calculation is performed is set to the live view block division (step 1006). On the other hand, when the optical finder mode is selected, the division of the range in which the distance measurement calculation is performed is set to the block division of the optical finder mode (step 1007).

その後、シャッターボタンが半押しされた場合(ステップ1008)、測距点選択が自動か任意かを確認する(ステップ1009)。測距点選択が自動の場合は全測距点に対応する全ブロックにおいて測距演算を行い(ステップ1010)、測距点を決定する(ステップ1011)。   Thereafter, when the shutter button is half-pressed (step 1008), it is confirmed whether the distance measuring point selection is automatic or arbitrary (step 1009). When ranging point selection is automatic, ranging calculation is performed in all blocks corresponding to all ranging points (step 1010), and ranging points are determined (step 1011).

ステップ1011で測距点を決定する方法としては、例えば全ブロックにおいて測距演算を行ったなかで撮影レンズのフォーカスレンズの駆動可能範囲のなかでもっとも撮像装置に近い位置に被写体が存在すると思われる測距点に決定する。   As a method of determining a distance measuring point in step 1011, for example, a distance measurement calculation is performed in all blocks, and the object that is considered to be present at the position closest to the imaging device within the driveable range of the focus lens of the photographing lens. Determine the distance point.

一方、測距点選択が任意の場合は選択されている測距点に対応するブロックにおいて測距演算を行う(ステップ1012)。演算を行った後、演算結果をもとに撮影レンズのフォーカスレンズを駆動する(ステップ1013)。   On the other hand, if the distance measurement point selection is arbitrary, distance measurement calculation is performed in the block corresponding to the selected distance measurement point (step 1012). After the calculation, the focus lens of the photographic lens is driven based on the calculation result (step 1013).

その後、シャッター釦が全押しされると(ステップ1014)、メインミラーの状態を確認し(ステップ1015)、メインミラーがアップされていない場合は、メインミラーの撮像光路外に退避させる(ステップ1016)。メインミラーが撮像光路外に退避された状態で撮像を行う(ステップ1017)。   Thereafter, when the shutter button is fully pressed (step 1014), the state of the main mirror is confirmed (step 1015). If the main mirror is not up, it is retracted out of the imaging optical path of the main mirror (step 1016). . Imaging is performed with the main mirror retracted from the imaging optical path (step 1017).

[実施例2]
以下、図11を参照して、本発明の第2の実施例による、ハーフミラーの状態に応じて撮像装置の読み出し範囲を切り替える読み出し範囲切り替え手段について説明する。
[Example 2]
Hereinafter, with reference to FIG. 11, a reading range switching means for switching the reading range of the imaging apparatus according to the state of the half mirror according to the second embodiment of the present invention will be described.

図11はメインミラー9が撮像光路中にある場合に、メインミラー9が撮像光路から退避した際に撮像センサーy1の位置に入射する光線がメインミラー9を透過する様子を模式的に示す概略図である。   FIG. 11 is a schematic diagram schematically illustrating a state in which a light beam incident on the position of the imaging sensor y1 is transmitted through the main mirror 9 when the main mirror 9 is in the imaging optical path when the main mirror 9 is retracted from the imaging optical path. It is.

図11において1101は撮影レンズの射出瞳、14は図1に示した撮像素子を表す。点線で示す1103はメインミラー9が撮像光路外に退避している際に、撮像素子のy1の位置に入射する光線の主光線を表している。また、実線で示す1102はメインミラー9が撮像光路外に退避している際に撮像素子のy1の位置に入射する光線の主光線がメインミラーが撮像光路にある場合にメインミラー9を透過する様子を模式的に示している。   In FIG. 11, 1101 denotes an exit pupil of the photographing lens, and 14 denotes the image sensor shown in FIG. Reference numeral 1103 indicated by a dotted line represents a principal ray of a light ray incident on the position y1 of the image pickup device when the main mirror 9 is retracted from the image pickup optical path. Reference numeral 1102 indicated by a solid line indicates that the main ray of the light beam incident on the position y1 of the image pickup element passes through the main mirror 9 when the main mirror is in the image pickup optical path when the main mirror 9 is retracted from the image pickup optical path. The situation is shown schematically.

撮像素子14から撮影レンズの射出瞳位置までの距離をP、メインミラー9が撮像光路から退避した際に光線が到達する撮像センサーのy方向の座標をy1とする。またメインミラー9の垂直方向からの傾き量をθ1a、メインミラー9が撮像光路外に退避している際に、撮像素子のy1の位置に入射する光線の主光線の光軸との角度をθ2a、光線の屈折角をθ3aとする。このときメインミラー9が撮像光路から退避した際に光線が到達する撮像センサーのy1に到達する光線が、メインミラーが撮像光路に入ることによってずれる位置Δy1は   Let P be the distance from the image sensor 14 to the exit pupil position of the photographic lens, and y1 be the coordinates in the y direction of the image sensor that the light rays reach when the main mirror 9 is retracted from the imaging optical path. Further, the inclination amount of the main mirror 9 from the vertical direction is θ1a, and when the main mirror 9 is retracted out of the imaging optical path, the angle of the ray incident on the y1 position of the image sensor with respect to the optical axis of the principal ray is θ2a. The refraction angle of the light beam is θ3a. At this time, the position Δy1 at which the light beam reaching the y1 of the imaging sensor to which the light beam reaches when the main mirror 9 is retracted from the imaging optical path is shifted by the main mirror entering the imaging optical path is

で表わされる。 It is represented by

したがってメインミラー9が撮像光路にあるかないかによって光線がずれる量は、撮影レンズの射出瞳位置Pと、撮像素子の位置y1によって変化する。   Therefore, the amount of deviation of the light beam depending on whether or not the main mirror 9 is in the imaging optical path varies depending on the exit pupil position P of the imaging lens and the position y1 of the imaging element.

本実施例では、この撮影レンズの射出瞳位置Pと、撮像素子の位置y1によって光線ズレ量Δy1が変化する分をレンズごとに変えて、正しい箇所で測距演算を行う。   In the present embodiment, a distance measurement calculation is performed at a correct location by changing the amount of change in the amount of light deviation Δy1 depending on the exit pupil position P of the photographing lens and the position y1 of the image sensor for each lens.

図12の実線で書かれた箇所は本実施例の測距点を示している。また図13には焦点検出ブロックの分割を示す。   A portion written with a solid line in FIG. 12 indicates a distance measuring point of this embodiment. FIG. 13 shows the division of the focus detection block.

図13中、点線で書かれたブロック分割がライブビューモードの場合の焦点検出ブロックの分割を示す。また図13中、実線で書かれたブロック分割が光学ファインダーモードの場合の焦点検出ブロックの分割を示す。   FIG. 13 shows the division of the focus detection block when the block division written with a dotted line is in the live view mode. Further, FIG. 13 shows the division of the focus detection block when the block division written with a solid line is in the optical finder mode.

図12に示す測距点のうち、1201で示す測距点群に対応した焦点検出ブロックの分割のズレ量を図13のΔy132で示している。また図12に示す測距点のうち、1202で示す測距点群に対応した焦点検出ブロックの分割のズレ量を図13のΔy131で示している。さらに、図12に示す測距点のうち、1303で示す測距点群に対応した焦点検出ブロックの分割のズレ量を図13のΔy133で示している。   Of the distance measurement points shown in FIG. 12, the shift amount of the focus detection block division corresponding to the distance measurement point group 1201 is indicated by Δy 132 in FIG. Further, among the distance measuring points shown in FIG. 12, the shift amount of the focus detection block corresponding to the distance measuring point group indicated by 1202 is indicated by Δy 131 in FIG. Further, among the distance measuring points shown in FIG. 12, the shift amount of the focus detection block corresponding to the distance measuring point group shown by 1303 is indicated by Δy 133 in FIG.

本実施例ではメインミラーの角度45度、メインミラー9の厚み1.5mm、メインミラー9の屈折率は1.53、図12に示す測距点群1201のy方向の像高は9.6mm、測距点群1203のy方向の像高はー9.6mmである。したがって、射出瞳位置Pが70mmの撮影レンズが装着された際には、Δy131は0.508mm、Δy132は0.648mm、Δy133は0.396mmとなる。   In this embodiment, the angle of the main mirror is 45 degrees, the thickness of the main mirror 9 is 1.5 mm, the refractive index of the main mirror 9 is 1.53, and the image height in the y direction of the distance measuring point group 1201 shown in FIG. 12 is 9.6 mm. The image height in the y direction of the distance measuring point group 1203 is -9.6 mm. Therefore, when a photographing lens having an exit pupil position P of 70 mm is attached, Δy 131 is 0.508 mm, Δy 132 is 0.648 mm, and Δy 133 is 0.396 mm.

本実施例には、撮影レンズの射出瞳の位置によって光学ファインダーモードの場合の焦点検出ブロックの分割の位置を変更する。撮影レンズ2の射出瞳位置はレンズ記憶手段5に記憶されている。   In this embodiment, the position of dividing the focus detection block in the optical finder mode is changed according to the position of the exit pupil of the photographing lens. The exit pupil position of the photographic lens 2 is stored in the lens storage means 5.

カメラ本体8は接点19を通して、レンズ記憶手段5に記憶されている撮影レンズ2の射出瞳位置を取得する。取得した射出瞳位置と、カメラ記憶手段に記憶されている各測距点の像高から光学ファインダーモードの場合の焦点検出ブロックの分割のズレ量を計算し、光学ファインダーモードの場合の焦点検出ブロックの分割の位置を変更する。   The camera body 8 acquires the exit pupil position of the taking lens 2 stored in the lens storage means 5 through the contact point 19. The focus detection block in the optical finder mode is calculated by calculating the deviation amount of the focus detection block in the optical finder mode from the acquired exit pupil position and the image height of each ranging point stored in the camera storage means. Change the division position of.

[実施例3]
以下、図14を参照して、本発明の第3の実施例による、ハーフミラーの状態に応じて撮像装置の読み出し範囲を切り替える読み出し範囲切り替え手段について説明する。
[Example 3]
Hereinafter, with reference to FIG. 14, a reading range switching means for switching the reading range of the imaging apparatus according to the state of the half mirror according to the third embodiment of the present invention will be described.

実施例3で使用する画像素子を図14に示す。図1に示す撮像素子14は、撮影レンズ1のうち、後述する瞳分割機能によって2分割された光束により形成された2像を光電変換する焦点検出画素群を有する。   An image element used in Example 3 is shown in FIG. The imaging element 14 shown in FIG. 1 has a focus detection pixel group that photoelectrically converts two images formed by a light beam divided into two by a pupil division function described later in the photographing lens 1.

本実施例は、撮像素子14上の焦点検出画素群からの2つの像信号に対して相関演算を行い、該2つの像信号の焦点検出画素位相差を算出する。そして、該焦点検出画素位相差に基づいて、撮像レンズ1のデフォーカス量を算出し、該デフォーカス量に基づいて、焦点調整手段3を介してフォーカスレンズを駆動する。   In this embodiment, a correlation operation is performed on two image signals from the focus detection pixel group on the image sensor 14 to calculate a focus detection pixel phase difference between the two image signals. Then, the defocus amount of the imaging lens 1 is calculated based on the focus detection pixel phase difference, and the focus lens is driven via the focus adjustment unit 3 based on the defocus amount.

図15、図16を用いて撮像素子14の撮影画素群と焦点検出画素群について説明する。図15の(a)には、2行×2列の撮影画素群を示している。   A photographing pixel group and a focus detection pixel group of the image sensor 14 will be described with reference to FIGS. 15 and 16. FIG. 15A shows a 2 × 2 photographing pixel group.

本実施例では、撮像素子14として、R(Red)、G(Green)、B(Blue)の原色カラーフィルタがベイヤー配列された2次元単板CMOSカラーイメージセンサーが用いられている。ベイヤー配列では2行×2列の4画素のうち対角方向にG画素が配置され、他の2画素としてRとBの画素が配置される。撮像素子14の全体にこの2行×2列の画素配置が繰り返される。   In this embodiment, a two-dimensional single-plate CMOS color image sensor in which primary color filters of R (Red), G (Green), and B (Blue) are Bayer arranged is used as the image sensor 14. In the Bayer array, G pixels are arranged diagonally among 4 pixels of 2 rows × 2 columns, and R and B pixels are arranged as the other two pixels. This pixel arrangement of 2 rows × 2 columns is repeated over the entire image sensor 14.

図15の(a)に示した撮像画素の断面図A−Aを(b)に示す。MLは各画素の前面に配置されたマイクロレンズであり、CFはRのカラーフィルタ、CFはGのカラーフィルタ、PDはCMOSセンサの光電変換部を模式的に示している。CLは、CMOSセンサ内の各種信号を伝達する信号線を形成するための配線層である。TLは、撮影光学系を模式的に示している。撮像素子のマイクロレンズMLと光電変換部PDは、撮影光学系TLを通過した光束を可能な限り有効に取り込むように構成されている。 A cross-sectional view AA of the imaging pixel shown in FIG. 15A is shown in FIG. ML is a microlens disposed in front of each pixel, CF R color filters R, CF G is G color filter, PD denotes a photoelectric conversion unit of the CMOS sensor schematically. CL is a wiring layer for forming signal lines for transmitting various signals in the CMOS sensor. TL schematically shows the photographing optical system. The microlens ML and the photoelectric conversion unit PD of the image sensor are configured to capture the light beam that has passed through the photographing optical system TL as effectively as possible.

すなわち、撮影光学系TLの射出瞳EPと光電変換部PDとはマイクロレンズMLにより共役関係におかれ、かつ光電変換部PDの有効面積が大きく設定されている。また図15の(b)では、R画素への入射光束を示しているが、G画素及びB画素へも同様に撮影光学系TLを通過した光束が入射する。   That is, the exit pupil EP of the photographing optical system TL and the photoelectric conversion unit PD are conjugated with each other by the microlens ML, and the effective area of the photoelectric conversion unit PD is set large. FIG. 15B shows the incident light beam on the R pixel, but the light beam that has passed through the photographing optical system TL is also incident on the G pixel and the B pixel.

したがってRGBの各撮像画素に対応した射出瞳EPの径は大きくなり、被写体からの光束を効率よく取り込むことが出来る。これにより、ライブビュー画像や記録用画像を生成するために用いられる撮像信号のS/Nを向上させることができる。   Therefore, the diameter of the exit pupil EP corresponding to each of the RGB imaging pixels is increased, and the light flux from the subject can be taken in efficiently. Thereby, it is possible to improve the S / N of the imaging signal used for generating the live view image and the recording image.

図16の(a)には、図3の(a)中の左右方向(横方向)に撮影光学系の瞳分割を行う焦点検出画素を含む2行×2列の画素群の平面図である。G画素は、輝度情報の主成分となるG撮像信号を出力する。人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認められやすい。逆にR、B画素は、主として色情報を取得する画素であるが、人間は色情報には鈍感であるため、色情報を取得する画素に多少欠損が生じても画質劣化が認識されにくい。このため、本実施例では、図16(a)に示した2行×2列の撮像素子のうち、G画素は撮像画素として残し、RとBの画素の一部を焦点検出画素に置き換えている。   FIG. 16A is a plan view of a pixel group of 2 rows × 2 columns including focus detection pixels that perform pupil division of the imaging optical system in the horizontal direction (lateral direction) in FIG. . The G pixel outputs a G imaging signal that is a main component of luminance information. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is likely to be noticed when G pixels are missing. On the contrary, the R and B pixels are pixels that mainly acquire color information. However, since humans are insensitive to color information, even if there is some deficiency in the pixels that acquire color information, image quality deterioration is not easily recognized. For this reason, in this embodiment, among the 2 rows × 2 columns image sensor shown in FIG. 16A, the G pixel is left as an image sensor, and a part of the R and B pixels are replaced with focus detection pixels. Yes.

図16(a)において、焦点検出画素をSA、SBで示す。図16の(a)に示した焦点検出画素の断面B−Bを(b)に示す。焦点検出画素におけるマイクロレンズMLと光電変換部PDは、図15(b)に示した撮像画素のマイクロレンズMLと光電変換部PDと同じである。   In FIG. 16A, focus detection pixels are denoted by SA and SB. A cross section BB of the focus detection pixel shown in FIG. 16A is shown in FIG. The microlens ML and the photoelectric conversion unit PD in the focus detection pixel are the same as the microlens ML and the photoelectric conversion unit PD of the imaging pixel illustrated in FIG.

本実施例では、焦点検出画素からの画像信号は、ライブビュー画像や記録用画像を生成するためには用いないため、焦点検出画素にはカラーフィルタの代わりに、透明膜CF(White)が配置されている。 In this embodiment, since the image signal from the focus detection pixel is not used to generate a live view image or a recording image, the focus detection pixel has a transparent film CF W (White) instead of a color filter. Has been placed.

また、焦点検出画素に瞳分割機能を持たせるために、配線層CLの開口部(以下絞り開口という)OPHA,OPHBが、マイクロレンズMLの中心線に対して一方向に偏って配置される。   In addition, in order to give the focus detection pixel a pupil division function, openings (hereinafter referred to as aperture openings) OPHA and OPHB of the wiring layer CL are arranged in one direction with respect to the center line of the microlens ML.

具体的には、焦点検出画素SAにおいては、絞り開口部OPHAは図13中の右側に偏って配置されており、撮影光学系TLの射出瞳のうち射出瞳領域EPHAを通過した光束を受光する。   Specifically, in the focus detection pixel SA, the aperture opening OPHA is arranged to be biased to the right side in FIG. .

一方、焦点検出画素SBにおいては、絞り開口部OPHAは図13中の左側に偏って配置されており、撮影光学系TLの射出瞳のうち射出瞳領域EPHBを通過した光束を受光する。   On the other hand, in the focus detection pixel SB, the aperture opening OPHA is arranged to be deviated to the left in FIG. 13, and receives the light beam that has passed through the exit pupil region EPHB in the exit pupil of the photographing optical system TL.

これにより、焦点検出画素SA、SBは同一被写体の異なった2つの光束を受光し、これらを光電変換することができる。複数の焦点検出画素SAを垂直方向に規則的に配列し、該2像のうちこれらの焦点検出画素群SA上に形成される一方の像をA像とする。複数の焦点検出画素SBを垂直方向に規則的に配列し、該2像のうちこれらの焦点検出画素群SB上に形成される一方の像をB像とする。焦点検出画素SA、SBによってA像とB像を光電変換し、該焦点検出画素SA、SBから出力される像信号のずれ量(方向を含む)としての位相差(以下、焦点検出画素位相差という)を算出する。   Thereby, the focus detection pixels SA and SB can receive two different light beams of the same subject and photoelectrically convert them. A plurality of focus detection pixels SA are regularly arranged in the vertical direction, and one of the two images formed on these focus detection pixel groups SA is defined as an A image. A plurality of focus detection pixels SB are regularly arranged in the vertical direction, and one of the two images formed on the focus detection pixel group SB is a B image. A and B images are photoelectrically converted by the focus detection pixels SA and SB, and a phase difference (hereinafter referred to as focus detection pixel phase difference) as a shift amount (including direction) of an image signal output from the focus detection pixels SA and SB. Calculated).

そして該焦点検出画素位相差に基づいて、撮像レンズ1のデフォーカス量(方向を含む)を求めることができる。水平方向(横方向)でのA像とB像の位相差を検出する場合には、焦点検出画素SAの絞り開口部OPHAと焦点検出画素SBの絞り開口部OHPBを左右にそれぞれ偏らせて配置すればよい。また垂直方向(縦方向)でのA像とB像の位相差を検出する場合には、焦点検出画素SAの絞り開口部OPHAと焦点検出画素SBの絞り開口部OHPBを上下にそれぞれ偏らせて配置すればよい。   Based on the focus detection pixel phase difference, the defocus amount (including the direction) of the imaging lens 1 can be obtained. In the case of detecting the phase difference between the A image and the B image in the horizontal direction (lateral direction), the aperture opening OPHA of the focus detection pixel SA and the aperture opening OHPB of the focus detection pixel SB are arranged so as to be biased left and right. do it. Further, when detecting the phase difference between the A image and the B image in the vertical direction (vertical direction), the aperture opening OPHA of the focus detection pixel SA and the aperture opening OHPB of the focus detection pixel SB are respectively biased up and down. What is necessary is just to arrange.

図14および図17には、撮像素子上での撮影画素群及び焦点検出用画素群の配置例を示している。焦点検出画素群SA,SBが画像生成に使用されないことを考慮して、本実施例では、焦点検出画素SA,SBを、水平方向に間隔を空けて離散的に配置している。また、焦点検出画素SA,SBによる画像上での画素欠損(つまりは画像の劣化)が目立ちにくくなるように、焦点検出画素はG画素の位置に配置しないことが望ましい。   FIG. 14 and FIG. 17 show examples of arrangement of the photographing pixel group and the focus detection pixel group on the image sensor. In consideration of the fact that the focus detection pixel groups SA and SB are not used for image generation, in this embodiment, the focus detection pixels SA and SB are discretely arranged at intervals in the horizontal direction. In addition, it is desirable that the focus detection pixel is not arranged at the position of the G pixel so that pixel deficiency (that is, image degradation) on the image due to the focus detection pixels SA and SB is less noticeable.

本実施例では、メインミラー9が撮像光路から退避しているライブビューモードの場合は、図17中の焦点検出画素群172を使用して焦点検出を行う。また、メインミラー9が撮像光路上にある光学ファインダーモードの場合は、図17中の焦点検出画素群173を使用して焦点検出を行う。光学ファインダーモードの場合、メインミラー9を透過した光束は、メインミラーにより屈折する。   In the present embodiment, in the live view mode in which the main mirror 9 is retracted from the imaging optical path, focus detection is performed using the focus detection pixel group 172 in FIG. Further, in the optical finder mode in which the main mirror 9 is on the imaging optical path, focus detection is performed using the focus detection pixel group 173 in FIG. In the case of the optical viewfinder mode, the light beam transmitted through the main mirror 9 is refracted by the main mirror.

この場合、ライブビューモードと同じ図17に示す焦点検出画素群172で焦点検出を行うと、図6で示した撮像画素上の焦点検出箇所と異なる位置で焦点検出を行うことになってしまう。   In this case, if focus detection is performed by the focus detection pixel group 172 shown in FIG. 17 that is the same as the live view mode, focus detection is performed at a position different from the focus detection location on the imaging pixel shown in FIG.

したがってメインミラー9で光束が屈折される分だけずれた箇所で焦点検出を行う必要がある。メインミラー9で屈折され光束がずれる量は、式1により求められる。   Therefore, it is necessary to perform focus detection at a position shifted by the amount of refraction of the light beam by the main mirror 9. The amount by which the light beam is refracted by the main mirror 9 and the light beam is shifted is obtained by Equation 1.

本実施例では図17のΔy171がメインミラー9で光束が屈折されずれる量に相当し、
Δy171ずれた箇所にも焦点検出画素を配置している。
In this embodiment, Δy 171 in FIG. 17 corresponds to the amount by which the light beam is not refracted by the main mirror 9.
A focus detection pixel is also arranged at a position shifted by Δy171.

本実施例ではメインミラーの角度45度、メインミラー9の厚み1.5mm、メインミラー9の屈折率は1.53である。したがって、Δy171は0.508mmとなる。したがってメインミラー9の位置にかかわらず撮影したい被写体対象像で焦点検出を行うことが出来る。   In this embodiment, the angle of the main mirror is 45 degrees, the thickness of the main mirror 9 is 1.5 mm, and the refractive index of the main mirror 9 is 1.53. Therefore, Δy171 is 0.508 mm. Therefore, focus detection can be performed on the subject target image to be photographed regardless of the position of the main mirror 9.

[実施例4]
以下、図18を参照して、本発明の第3の実施例による、ハーフミラーの状態に応じて撮像装置の読み出し範囲を切り替える読み出し範囲切り替え手段について説明する。
[Example 4]
Hereinafter, with reference to FIG. 18, a reading range switching means for switching the reading range of the imaging device according to the state of the half mirror according to the third embodiment of the present invention will be described.

本実施例では、図1の画像素子14の画像情報をもとに撮像の測光を行う場合の本発明の実施に関して説明する。本実施例では、図1の撮像カメラにおいて、撮像素子14の画像情報をもとに測光を行い、撮影の露出調整を行う。   In the present embodiment, the implementation of the present invention in the case of performing photometry for imaging based on the image information of the image element 14 in FIG. 1 will be described. In the present embodiment, in the imaging camera of FIG. 1, photometry is performed based on image information of the imaging element 14 to adjust exposure for shooting.

メインミラー9が撮像光路外に退避しているライブビューモードの場合、撮像光路そのものが撮像素子14に入射している。ライブビューモードの場合、撮像素子14を図18のブロックに分割をして、各ブロックごとに蓄積される電荷量を取得する。   In the live view mode in which the main mirror 9 is retracted outside the imaging optical path, the imaging optical path itself is incident on the imaging element 14. In the live view mode, the image sensor 14 is divided into blocks shown in FIG. 18 to acquire the amount of charge accumulated for each block.

図18中、ライブビューモードの場合の測光演算範囲のブロック分割を点線181で示す。図18中、実線182は撮像画像上の焦点検出箇所を示していて、これは図6に示した測距点配置と同じものである。   In FIG. 18, block division of the photometric calculation range in the live view mode is indicated by a dotted line 181. In FIG. 18, a solid line 182 indicates a focus detection location on the captured image, which is the same as the distance measurement point arrangement shown in FIG.

図18に示す測光用の撮像素子ブロック分割181は、測距点配置182と対応しており、測光用の撮像素子ブロック分割181の各ブロックの中心は測距点配置182の中心と略同一となる分割となっている。   The photometry image sensor block division 181 shown in FIG. 18 corresponds to the distance measuring point arrangement 182, and the center of each block of the photometry image sensor block division 181 is substantially the same as the center of the distance measurement point arrangement 182. It has become a division.

一方、光学ファインダーモードの場合、メインミラー9が撮像光路内にあるため、入射光線が屈折し、ライブビューモードの時とは異なる位置に結像する。したがって図6に示す測距点の中心と測光を行う際の撮像素子分割のブロックはライブビューモードのフロック分割の配置からメインミラー9の屈折分だけずらす必要がある。   On the other hand, in the optical viewfinder mode, since the main mirror 9 is in the imaging optical path, the incident light is refracted and forms an image at a position different from that in the live view mode. Therefore, it is necessary to shift the center of the distance measuring point shown in FIG. 6 and the block of the image sensor division when performing the photometry by the refraction of the main mirror 9 from the arrangement of the flock division in the live view mode.

図19に本実施例で使用するライブビューモード時の測光ブロック分割を点線192で、光学ファインダーモード時に使用する測光ブロック分割を実線191で示す。   FIG. 19 shows a photometric block division in the live view mode used in the present embodiment by a dotted line 192, and a photometric block division used in the optical viewfinder mode by a solid line 191.

光学ファンダーモード時の測光ブロック分割191はライブビューモード時の測光ブロック分割192に対してメインミラー9による屈折の影響分カメラ下側にずれた位置でブロック分割を行う。   The photometric block division 191 in the optical fander mode performs block division at a position shifted downward from the photometric block division 192 in the live view mode due to the influence of refraction by the main mirror 9.

光学ファンダーモード時の測光ブロック分割191とライブビューモード時の測光ブロック分割192のズレ量は図19中Δy19で示される。Δy19は実施例1の式1で示したΔyと同じ式で算出できる。   The amount of deviation between the photometric block division 191 in the optical fander mode and the photometric block division 192 in the live view mode is indicated by Δy19 in FIG. Δy19 can be calculated by the same equation as Δy shown in Equation 1 of Example 1.

本実施例ではメインミラーの角度45度、メインミラー9の厚み1.5mm、メインミラー9の屈折率は1.53である。したがって、Δy19は0.508mmとなる。   In this embodiment, the angle of the main mirror is 45 degrees, the thickness of the main mirror 9 is 1.5 mm, and the refractive index of the main mirror 9 is 1.53. Therefore, Δy19 is 0.508 mm.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

1 撮影レンズ
2 撮影光学系
3 焦点調節手段
4 レンズ制御初段
5 レンズ記憶手段
8 カメラ本体
9 メインミラー
10 焦点板
11 透過型液晶
12 ペンタプリズム
13 接眼レンズ
14 撮像素子
15 背面液晶
16 カメラ制御手段
17 カメラ演算手段
18 カメラ記憶手段
19 接点
DESCRIPTION OF SYMBOLS 1 Shooting lens 2 Shooting optical system 3 Focus adjustment means 4 Lens control first stage 5 Lens storage means 8 Camera main body 9 Main mirror 10 Focus plate 11 Transmission type liquid crystal 12 Pentaprism 13 Eyepiece 14 Imaging element 15 Back surface liquid crystal 16 Camera control means 17 Camera Calculation means 18 Camera storage means 19 Contact

Claims (6)

撮影光学系により結像される被写体像を撮像する撮像素子と、
撮影光学系と前記撮像素子との間の光路中に挿脱可能に設けられたハーフミラーと
前記ハーフミラーが前記撮影光学系と前記撮像素子との間の光路上にある第1の状態と 前記ハーフミラーが前記撮影光学系と前記撮像素子との間の光路上から退避する第2の状態を切り替える切り替え手段と、
前記第1の状態のときに前記撮像素子のうちの読み出しを行う第1の読み出し範囲と、
前記第2の状態のときに前記撮像素子のうちの読み出しを行う第2の読み出し範囲と、
上記ハーフミラーの前記第1の状態と前記第2の状態に応じて、前記第1の読み出し範囲と前記第2の読み出し範囲の読み出し範囲切り替え手段
を備えたことを特徴とする撮像装置。
An image sensor for imaging a subject image formed by the imaging optical system;
A half mirror provided in an optical path between the imaging optical system and the image sensor so as to be removable
A first state in which the half mirror is on an optical path between the imaging optical system and the imaging element; and a second state in which the half mirror is retracted from an optical path between the imaging optical system and the imaging element Switching means for switching between,
A first reading range for reading out of the image sensor in the first state;
A second reading range for reading out of the image sensor in the second state;
Read range switching means between the first read range and the second read range according to the first state and the second state of the half mirror
An imaging apparatus comprising:
前記読み出し範囲は焦点検出を行う測距演算範囲であることを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the readout range is a distance measurement calculation range in which focus detection is performed. 前記読み出し範囲は測光を行う測光演算範囲であることを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the readout range is a photometric calculation range for performing photometry. レンズ情報により前記第1の読み出し範囲を変更することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The imaging apparatus according to claim 1, wherein the first readout range is changed according to lens information. 前記レンズ情報は撮影光学系の射出瞳の位置であることを特徴とする請求項4に記載の撮像装置。 The imaging apparatus according to claim 4, wherein the lens information is a position of an exit pupil of a photographing optical system. 前記レンズ情報を記憶するレンズ情報記憶手段を有することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 The imaging apparatus according to claim 1, further comprising a lens information storage unit that stores the lens information.
JP2016155150A 2016-08-08 2016-08-08 Imaging device and imaging device system Pending JP2018026604A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016155150A JP2018026604A (en) 2016-08-08 2016-08-08 Imaging device and imaging device system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016155150A JP2018026604A (en) 2016-08-08 2016-08-08 Imaging device and imaging device system

Publications (1)

Publication Number Publication Date
JP2018026604A true JP2018026604A (en) 2018-02-15

Family

ID=61195639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016155150A Pending JP2018026604A (en) 2016-08-08 2016-08-08 Imaging device and imaging device system

Country Status (1)

Country Link
JP (1) JP2018026604A (en)

Similar Documents

Publication Publication Date Title
US8730374B2 (en) Focus detection apparatus
JP5161702B2 (en) Imaging apparatus, imaging system, and focus detection method
JP5552214B2 (en) Focus detection device
JP5207797B2 (en) Imaging apparatus and control method thereof
JP4992481B2 (en) Focus detection apparatus and imaging apparatus
JP6045214B2 (en) Focus adjustment apparatus and control method thereof
JP2013054135A (en) Imaging device and control method thereof
JP4983271B2 (en) Imaging device
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP2003241075A (en) Camera system, camera and photographic lens device
JP2019041178A (en) Image sensor and imaging apparatus using the same
JP5968359B2 (en) IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD
JP2017032646A (en) Image-capturing device and method for controlling the same
JP6302512B2 (en) IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD
JP2017192028A (en) Imaging apparatus and control method of the same, program, and memory medium
JP5240591B2 (en) Imaging device, focusing device, imaging method, and focusing method
JP2022103610A (en) Lens device, image capturing device, method of controlling lens device, and program
KR20170015158A (en) Control apparatus, image pickup apparatus, and control method
JP2018026604A (en) Imaging device and imaging device system
JP2016071275A (en) Image-capturing device and focus control program
JP6671868B2 (en) Control device, imaging device, control method, program, and storage medium
JP2019074634A (en) Imaging apparatus
JP5295413B2 (en) Imaging device
JP6714434B2 (en) Imaging device, control method thereof, program, and storage medium
JP2017223763A (en) Imaging device