JP2009198771A - Focus detector and imaging device - Google Patents

Focus detector and imaging device Download PDF

Info

Publication number
JP2009198771A
JP2009198771A JP2008039844A JP2008039844A JP2009198771A JP 2009198771 A JP2009198771 A JP 2009198771A JP 2008039844 A JP2008039844 A JP 2008039844A JP 2008039844 A JP2008039844 A JP 2008039844A JP 2009198771 A JP2009198771 A JP 2009198771A
Authority
JP
Japan
Prior art keywords
focus detection
contrast
light receiving
microlenses
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008039844A
Other languages
Japanese (ja)
Other versions
JP5380857B2 (en
Inventor
Toru Iwane
透 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008039844A priority Critical patent/JP5380857B2/en
Publication of JP2009198771A publication Critical patent/JP2009198771A/en
Application granted granted Critical
Publication of JP5380857B2 publication Critical patent/JP5380857B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a focus detector and an imaging device appropriately detecting a focal point. <P>SOLUTION: This imaging device includes a micro lens array 161 including a plurality of micro lenses 161a two-dimensionally arranged therein, and a light receiver 162a for the micro lenses. The imaging device also include: a light receiving element 162 to receive the light flux from an imaging optical system through the micro lenses; a contrast detector 163 forming the image information based on the signals received on the light receiver to detect the contrasts in the directions X1-X3 in the image information; and a focus detector 163 selecting the direction to detect the focal point from the directions based on the contrasts and to detect the focusing state of the imaging optical system based on the received signals acquired on the light receiver of the micro lenses along the direction to detect the focal point. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、焦点検出装置および撮像装置に関するものである。   The present invention relates to a focus detection device and an imaging device.

マイクロレンズを二次元状に配列するとともに、各マイクロレンズに対して複数の受光素子(光電変換素子)を設け、複数の受光素子で得られる受光出力に基づいて結像光学系の異なる領域を通過した光束による像に対応する一対の信号列を生成し、この一対の信号列の位相ずれを検出することによって結像光学系の焦点調節状態を検出する装置が知られている(特許文献1)。 The microlenses are arranged two-dimensionally, and a plurality of light receiving elements (photoelectric conversion elements) are provided for each microlens, and pass through different areas of the imaging optical system based on the light reception output obtained by the plurality of light receiving elements There is known an apparatus that detects a focus adjustment state of an imaging optical system by generating a pair of signal sequences corresponding to an image formed by a luminous flux and detecting a phase shift between the pair of signal sequences (Patent Document 1). .

特開2007−11314号公報JP 2007-11314 A

しかしながら、従来の焦点検出装置では、マイクロレンズの配列方向に沿った方向について信号列対を生成することができるが、信号列の生成方向を決定することについては提案されていなかった。 However, the conventional focus detection apparatus can generate a signal string pair in the direction along the arrangement direction of the microlenses, but has not been proposed for determining the signal string generation direction.

この発明が解決しようとする課題は、信号列の生成方向を適切に決定できる焦点検出装置および撮像装置を提供することである。 The problem to be solved by the present invention is to provide a focus detection apparatus and an imaging apparatus that can appropriately determine the generation direction of a signal sequence.

この発明は以下の解決手段によって上記課題を解決する。なお、発明の実施形態を示す図面に対応する符号を付して説明するが、この符号は発明の理解を容易にするためだけのものであって発明を限定する趣旨ではない。   The present invention solves the above problems by the following means. In addition, although the code | symbol corresponding to drawing which shows embodiment of this invention is attached | subjected and demonstrated, this code | symbol is only for making an understanding of invention easy, and is not the meaning which limits invention.

発明に係る焦点検出装置および撮像装置は、複数のマイクロレンズ(161a)を二次元状に配列したマイクロレンズアレイ(161)と、前記マイクロレンズに対応して設けられた受光部(162a)を備え、前記マイクロレンズを介して結像光学系からの光束を受光する受光素子(162)と、前記受光素子の受光信号に基づいて画像情報を生成し、当該画像情報における複数方向(X1〜X3)のコントラストを検出するコントラスト検出手段(163)と、前記コントラストに基づいて前記複数方向の中から焦点検出する方向を選択するとともに、当該焦点検出方向に沿った前記複数のマイクロレンズの前記受光部で得られる受光信号に基づいて前記結像光学系の焦点調節状態を検出する焦点検出手段(163)と、を備えたことを特徴とする。 The focus detection apparatus and the imaging apparatus according to the invention include a microlens array (161) in which a plurality of microlenses (161a) are two-dimensionally arranged, and a light receiving unit (162a) provided corresponding to the microlens. , A light receiving element (162) that receives a light beam from the imaging optical system via the microlens, and image information is generated based on a light reception signal of the light receiving element, and a plurality of directions (X1 to X3) in the image information. A contrast detection means (163) for detecting the contrast of the light source, and a direction of focus detection from the plurality of directions based on the contrast, and a light receiving unit of the plurality of microlenses along the focus detection direction. Focus detection means (163) for detecting the focus adjustment state of the imaging optical system based on the received light signal. And butterflies.

上記発明において、前記コントラスト検出手段(163)は、前記画像情報を畳み込み積分することにより前記コントラストを検出するように構成することができ、この場合、前記コントラスト検出手段(163)は、微分フィルタを用いて前記コントラストを検出するように構成することができる。 In the above invention, the contrast detection means (163) can be configured to detect the contrast by convolving and integrating the image information. In this case, the contrast detection means (163) And can be configured to detect the contrast.

上記発明において、前記受光素子(162)は、前記複数のマイクロレンズ(161a)のそれぞれに対して複数の前記受光部(162a)を有し、前記コントラスト検出手段(163)は、前記マイクロレンズに対応する前記複数の受光部の一部で得られる受光信号に基づいて前記画像情報を生成するように構成することができる。この場合、前記コントラスト検出手段(163)は、前記複数の受光部(162a)の一部で得られる受光信号を前記複数のマイクロレンズ(161a)に亘って積算した信号に基づいて前記画像情報を生成するように構成することができる。 In the above invention, the light receiving element (162) includes a plurality of light receiving portions (162a) for each of the plurality of micro lenses (161a), and the contrast detecting means (163) is provided on the micro lens. The image information may be generated based on a light reception signal obtained by a part of the corresponding plurality of light receiving units. In this case, the contrast detection means (163) obtains the image information based on a signal obtained by integrating the light reception signals obtained by a part of the plurality of light receiving units (162a) over the plurality of microlenses (161a). Can be configured to generate.

上記発明において、前記マイクロレンズ(161a)は、ハニカム状に配列するように構成することができる。また、上記発明において、前記コントラスト検出手段(163)は、前記マイクロレンズ(161a)の配列方向(X1〜X3)に沿って前記画像情報のコントラストを検出するように構成することができる。 In the above invention, the microlenses (161a) can be arranged in a honeycomb shape. In the above invention, the contrast detection means (163) can be configured to detect the contrast of the image information along the arrangement direction (X1 to X3) of the microlens (161a).

上記発明において、前記コントラスト検出手段(163)は、前記複数のマイクロレンズ(161a)の一部に対応する前記画像情報に対して前記コントラストを検出するように構成することができる。この場合、前記受光素子(162)の受光信号に基づく画像情報の特徴部分を検出する特徴検出手段(163)を備え、前記コントラスト検出手段(163)は、前記複数のマイクロレンズ(161a)のうち、前記特徴部分に対応する前記マイクロレンズに関する前記受光部(162a)の受光信号に基づいて前記画像情報を生成するように構成することができる。 In the above invention, the contrast detection means (163) can be configured to detect the contrast with respect to the image information corresponding to a part of the plurality of microlenses (161a). In this case, a feature detection unit (163) that detects a feature portion of image information based on a light reception signal of the light receiving element (162) is provided, and the contrast detection unit (163) includes the plurality of microlenses (161a). The image information can be generated based on a light reception signal of the light receiving unit (162a) related to the microlens corresponding to the characteristic portion.

上記発明によれば、信号列の生成方向を適切に決定することができる。   According to the above invention, the generation direction of the signal sequence can be determined appropriately.

以下においては、上記発明をレンズ交換式一眼レフデジタルカメラに適用した実施形態を図面に基づいて説明するが、上記発明は、撮影レンズの焦点調節を行うあらゆる撮像装置やレンズ固定式カメラにも適用することができる。   In the following, an embodiment in which the above invention is applied to an interchangeable lens single-lens reflex digital camera will be described with reference to the drawings. However, the above invention is also applicable to any imaging device or lens fixed camera that adjusts the focus of a photographing lens. can do.

図1は発明の実施形態に係る一眼レフデジタルカメラ1(以下、単にカメラ1という。)を示すブロック図であり、上記発明の焦点検出装置および撮像装置に関する構成以外のカメラの一般的構成については、その図示と説明を一部省略する。   FIG. 1 is a block diagram showing a single-lens reflex digital camera 1 (hereinafter simply referred to as a camera 1) according to an embodiment of the invention. The general configuration of the camera other than the configuration related to the focus detection device and the imaging device of the invention is described above. Some illustrations and explanations thereof are omitted.

本例のカメラ1は、カメラボディ100とレンズ鏡筒200を備え、これらカメラボディ100とレンズ鏡筒200はマウント部300により着脱可能に結合されている。   The camera 1 of this example includes a camera body 100 and a lens barrel 200, and the camera body 100 and the lens barrel 200 are detachably coupled by a mount unit 300.

レンズ鏡筒200には、フォーカスレンズ211やズームレンズ212を含む撮影レンズ210や絞り装置220などからなる撮影光学系が内蔵されている。 The lens barrel 200 incorporates a photographing optical system including a photographing lens 210 including a focus lens 211 and a zoom lens 212, a diaphragm device 220, and the like.

フォーカスレンズ211は、レンズ鏡筒200の光束L1の光軸に沿って移動可能に設けられ、図示しないエンコーダによってその位置が検出されつつレンズ駆動モータ230によってその位置が調節される。フォーカスレンズ211は、回転筒の回転によってカメラボディ側の端部(至近端)から被写体側の端部(無限端)までの間を光軸L1方向に移動することができる。ちなみに、エンコーダで検出されたフォーカスレンズ211の現在位置情報は、レンズ制御部250を介してレンズ駆動制御部165へ送信される一方で、レンズ駆動モータ230は、この位置情報に基づいて演算された合焦位置へ向かって、レンズ駆動制御部165からレンズ制御部250を介して受信される駆動信号により駆動する。 The focus lens 211 is provided so as to be movable along the optical axis of the light beam L1 of the lens barrel 200, and its position is adjusted by the lens driving motor 230 while its position is detected by an encoder (not shown). The focus lens 211 can move in the direction of the optical axis L1 from the end on the camera body side (closest end) to the end on the subject side (infinite end) by the rotation of the rotating cylinder. Incidentally, the current position information of the focus lens 211 detected by the encoder is transmitted to the lens drive control unit 165 via the lens control unit 250, while the lens drive motor 230 is calculated based on this position information. The lens is driven by a drive signal received from the lens drive control unit 165 via the lens control unit 250 toward the in-focus position.

絞り装置220は、上記撮影光学系を通過して撮像素子110に至る光束の光量を制限するとともにボケ量を調整するために、光軸L1を中心にした開口径が調節可能に構成されている。絞り装置220による開口径の調節は、たとえば自動露出モードにおいて演算された適切な開口径が、カメラ制御部170からレンズ制御部250を介して送信されることにより行われる。また、開口径の調節は、カメラボディ100に設けられた操作部150によるマニュアル操作により、設定された開口径がカメラ制御部170からレンズ制御部250に入力されることによっても行われる。絞り装置220の開口径は、図示しない絞り開口センサにより検出され、レンズ制御部250で現在の開口径が認識される。   The aperture device 220 is configured such that the aperture diameter around the optical axis L1 can be adjusted in order to limit the amount of light beam that passes through the imaging optical system and reaches the image sensor 110 and to adjust the blur amount. . The adjustment of the aperture diameter by the diaphragm device 220 is performed by transmitting an appropriate aperture diameter calculated in the automatic exposure mode from the camera control unit 170 via the lens control unit 250, for example. The aperture diameter is also adjusted by inputting the set aperture diameter from the camera control unit 170 to the lens control unit 250 by a manual operation by the operation unit 150 provided in the camera body 100. The aperture diameter of the aperture device 220 is detected by an aperture aperture sensor (not shown), and the current aperture diameter is recognized by the lens controller 250.

一方、カメラボディ100は、被写体からの光束L1を撮像素子110、ファインダ135、測光センサ137及び焦点検出光学系161へ導くためのミラー系120を備えている。このミラー系120は、回転軸123を中心にして被写体の観察位置と撮影位置との所定角度だけ回転するクイックターンミラー121と、このクイックターンミラー121に軸支されてクイックターンミラー121の回転にともなって回転するサブミラー122とを備える。 On the other hand, the camera body 100 includes a mirror system 120 for guiding the light beam L1 from the subject to the image sensor 110, the finder 135, the photometric sensor 137, and the focus detection optical system 161. This mirror system 120 has a quick turn mirror 121 that rotates about a rotation axis 123 by a predetermined angle between a subject observation position and a photographing position, and is supported by the quick turn mirror 121 to rotate the quick turn mirror 121. And a sub-mirror 122 that rotates together.

図1には、ミラー系120が被写体の観察位置にある状態を実線で示し、被写体の撮影位置にある状態を二点鎖線で示す。ミラー系120は、被写体の観察位置にある状態では光束L1の光路上に挿入される一方で、被写体の撮影位置にある状態では光束L1の光路から退避するように回転する。 In FIG. 1, the state where the mirror system 120 is at the observation position of the subject is indicated by a solid line, and the state where the mirror system 120 is at the photographing position of the subject is indicated by a two-dot chain line. The mirror system 120 is inserted on the optical path of the light beam L1 in the state where the subject is in the observation position, while rotating to retract from the optical path of the light beam L1 in the state where the subject is in the photographing position.

クイックターンミラー121はハーフミラーで構成され、被写体の観察位置にある状態では、被写体からの光束L1の一部の光束L2を当該クイックターンミラー121で反射してファインダ135側へ導き、一部の光束L4を透過させてサブミラー122へ導く。なお、ファインダ135側へ反射した光束のうち焦点板131によって散乱された光束L3が測光センサ137に入射する。これに対して、サブミラー122は全反射ミラーで構成され、クイックターンミラー121を透過した光束L4を焦点検出光学系161へ導く。 The quick turn mirror 121 is formed of a half mirror, and in a state where the subject is at the observation position, a part of the light beam L2 from the subject is reflected by the quick turn mirror 121 and guided to the finder 135 side. The light beam L 4 is transmitted and guided to the sub mirror 122. Of the light beams reflected toward the viewfinder 135, the light beam L 3 scattered by the focusing screen 131 enters the photometric sensor 137. On the other hand, the sub mirror 122 is configured by a total reflection mirror, and guides the light beam L4 transmitted through the quick turn mirror 121 to the focus detection optical system 161.

したがって、ミラー系120が観察位置にある場合は、被写体からの光束L1はファインダ135、測光センサ135および焦点検出光学モジュール161へ導かれ、撮影者により被写体が観察されるとともに、露出検出や焦点調節状態の検出が実行される。そして、撮影者がレリーズボタンを全押しするとミラー系120が撮影位置に回転し、被写体からの光束L1は撮像素子110へ導かれ、撮影した画像データを図示しないメモリに保存する。 Therefore, when the mirror system 120 is at the observation position, the light beam L1 from the subject is guided to the finder 135, the photometric sensor 135, and the focus detection optical module 161, and the subject is observed by the photographer, and exposure detection and focus adjustment are performed. State detection is performed. When the photographer fully presses the release button, the mirror system 120 rotates to the photographing position, the light beam L1 from the subject is guided to the image sensor 110, and the photographed image data is stored in a memory (not shown).

撮像素子110は、カメラボディ100の、被写体からの光束L1の光軸上であって、撮影レンズ210の予定焦点面となる位置に固定されている。撮像素子110は、複数の光電変換素子が二次元に配列されたものであって、二次元CCDイメージセンサ、MOSセンサまたはCIDなどで構成することができる。 The image sensor 110 is fixed to a position on the camera body 100 on the optical axis of the light beam L1 from the subject and the planned focal plane of the photographing lens 210. The imaging element 110 is a two-dimensional array of a plurality of photoelectric conversion elements, and can be configured by a two-dimensional CCD image sensor, a MOS sensor, a CID, or the like.

撮像素子110の前面に配置されたシャッター111は、操作部150に含まれるシャッターボタンを全押しした時(シャッターレリーズ時)に、露出演算結果に基づく、または撮影者が設定したシャッター秒数だけ開放され、撮像素子110を露光する。この撮像素子110で光電変換された電気画像信号は、カメラ制御部170で画像処理されたのち図示しないメモリに保存される。なお、撮影画像を格納するメモリは内蔵型メモリやカード型メモリなどで構成することができる。 The shutter 111 disposed on the front surface of the image sensor 110 is opened for the number of shutter seconds set based on the exposure calculation result or set by the photographer when the shutter button included in the operation unit 150 is fully pressed (during shutter release). Then, the image sensor 110 is exposed. The electrical image signal photoelectrically converted by the image sensor 110 is subjected to image processing by the camera control unit 170 and then stored in a memory (not shown). Note that the memory for storing the photographed image can be constituted by a built-in memory or a card-type memory.

一方、クイックターンミラー121で反射された被写体光の一部は、撮像素子110と光学的に等価な面に配置された焦点板131を通過してペンタプリズム133に導かれ、ペンタプリズム133で折曲されたのち、光軸L2に沿って接眼レンズ134を通り撮影者の眼球に導かれる。このとき、透過型液晶表示器132は、焦点板131上の被写体像に焦点検出エリアマークを重畳して表示するとともに、被写体像外のエリアにシャッター速度、絞り値、撮影枚数などの撮影に関する情報を表示する。これにより、レリーズしない状態において、ファインダ134を通して被写体およびその背景ならびに撮影関連情報などを観察することができる。 On the other hand, part of the subject light reflected by the quick turn mirror 121 passes through a focusing screen 131 disposed on a surface optically equivalent to the image sensor 110 and is guided to the pentaprism 133, and is folded by the pentaprism 133. After being bent, it is guided to the photographer's eyeball through the eyepiece lens 134 along the optical axis L2. At this time, the transmissive liquid crystal display 132 superimposes and displays a focus detection area mark on the subject image on the focusing screen 131, and information relating to shooting such as a shutter speed, an aperture value, and the number of shots in an area outside the subject image. Is displayed. As a result, the subject, its background, photographing related information, and the like can be observed through the finder 134 in a state where the release is not performed.

測光センサ137は、二次元カラーCCDイメージセンサなどで構成され、撮影の際の露出値を演算するため、撮影画面を複数の領域に分割して領域ごとの輝度に応じた測光信号を出力する。測光センサ137で検出された画像情報はカメラ制御部170へ出力され、自動露出制御に用いられる。 The photometric sensor 137 is composed of a two-dimensional color CCD image sensor or the like, and divides the photographing screen into a plurality of regions and outputs a photometric signal corresponding to the luminance of each region in order to calculate an exposure value at the time of photographing. Image information detected by the photometric sensor 137 is output to the camera control unit 170 and used for automatic exposure control.

操作部150は、シャッターレリーズボタンや撮影者がカメラ1の各種動作モードを設定するための入力スイッチであり、オートフォーカスモード/マニュアルフォーカスモードの切換や、オートフォーカスモードの中でも、ワンショットモード/コンティニュアスモードの切換が行えるようになっている。この操作部150により設定された各種モードはカメラ制御部170へ送信され、当該カメラ制御部170によりカメラ1全体の動作が制御される。 The operation unit 150 is a shutter release button or an input switch for the photographer to set various operation modes of the camera 1. Switching between the autofocus mode / manual focus mode and the autofocus mode also includes a one-shot mode / continuous mode. It is possible to switch between the numeric modes. Various modes set by the operation unit 150 are transmitted to the camera control unit 170, and the operation of the entire camera 1 is controlled by the camera control unit 170.

カメラボディ100にはカメラ制御部170が設けられている。カメラ制御部170はマイクロプロセッサとメモリなどの周辺部品から構成され、マウント部300に設けられた電気信号接点部によりレンズ制御部250と電気的に接続され、このレンズ制御部250からレンズ情報を受信するとともに、レンズ制御部250へデフォーカス量や絞り開口径などの情報を送信する。また、カメラ制御部170は、上述したように撮像素子110から画像情報を読み出すとともに、必要に応じて所定の情報処理を施し、図示しないメモリに出力する。また、カメラ制御部170は、撮影画像情報の補正やレンズ鏡筒200の焦点調節状態、絞り調節状態などを検出するなど、カメラ1全体の制御を司る。 The camera body 100 is provided with a camera control unit 170. The camera control unit 170 includes peripheral components such as a microprocessor and a memory, and is electrically connected to the lens control unit 250 through an electric signal contact unit provided in the mount unit 300, and receives lens information from the lens control unit 250. At the same time, information such as the defocus amount and aperture diameter is transmitted to the lens controller 250. The camera control unit 170 reads out image information from the image sensor 110 as described above, performs predetermined information processing as necessary, and outputs the information to a memory (not shown). The camera control unit 170 controls the entire camera 1 such as correction of captured image information and detection of a focus adjustment state and an aperture adjustment state of the lens barrel 200.

焦点検出光学系161、焦点検出センサ162、焦点検出演算部163およびレンズ駆動量演算部164は位相差検出方式の焦点検出装置を構成し、撮影レンズ210の焦点調節状態を表すデフォーカス量を検出する。   The focus detection optical system 161, the focus detection sensor 162, the focus detection calculation unit 163, and the lens drive amount calculation unit 164 constitute a phase difference detection type focus detection device that detects a defocus amount that represents the focus adjustment state of the photographing lens 210. To do.

本例の焦点検出装置について図2〜図4Bを参照しながら説明する。   The focus detection apparatus of this example will be described with reference to FIGS.

図2は焦点検出装置の構成を示すブロック図、図3Aは同じく焦点検出装置の光学的配置を示す図、図3Bは焦点検出光学系161および焦点検出センサ162を示す断面図、図4Aは焦点検出光学系161および焦点検出センサ162の配列状態を示す平面図、図4Bは一つの焦点検出光学系161および焦点検出センサ162を拡大して示す平面図である。図2は図1に示す焦点検出演算部163の構成を処理手順にしたがって詳細に表わしたブロック図である。   2 is a block diagram showing the configuration of the focus detection device, FIG. 3A is a diagram showing the optical arrangement of the focus detection device, FIG. 3B is a cross-sectional view showing the focus detection optical system 161 and the focus detection sensor 162, and FIG. FIG. 4B is an enlarged plan view showing one focus detection optical system 161 and the focus detection sensor 162. FIG. 4B is an enlarged plan view showing the arrangement state of the detection optical system 161 and the focus detection sensor 162. FIG. 2 is a block diagram showing the configuration of the focus detection calculation unit 163 shown in FIG. 1 in detail according to the processing procedure.

焦点検出光学系161は、図4Aに示すように複数のマイクロレンズ161aを二次元状に稠密に(ハニカム状に)配列したマイクロレンズアレイであり、図3Aに示すように撮影レンズ210の予定焦点面となる位置P1の近傍に配置されている。以下、マイクロレンズアレイ161ともいう。マイクロレンズアレイ161は、予定焦点面となる位置P1に一致させて配置することができる一方で、予定焦点面となる位置P1からずらして配置することもできる。一致させて配置した場合は、マイクロレンズ161a間に被写体像のコントラストがあるような場合にその部分が不感帯となるが、ずらして配置することによりそのような不感帯の発生を回避することができる。   The focus detection optical system 161 is a microlens array in which a plurality of microlenses 161a are two-dimensionally densely arranged (in a honeycomb shape) as shown in FIG. 4A, and the planned focus of the photographing lens 210 is shown in FIG. 3A. It arrange | positions in the vicinity of the position P1 used as a surface. Hereinafter, it is also referred to as a microlens array 161. The microlens array 161 can be arranged so as to coincide with the position P1 that becomes the planned focal plane, but can also be arranged shifted from the position P1 that becomes the planned focal plane. When they are arranged to coincide with each other, the portion becomes a dead zone when there is a contrast of the subject image between the microlenses 161a. However, such a dead zone can be avoided by shifting the portion.

焦点検出センサ162は、図4Aに示すように複数の光電変換素子162aを二次元状に稠密に配列した受光素子アレイであり、図3Bに示すようにマイクロレンズアレイ161の略焦点位置に配置されている。以下、受光素子アレイ162ともいう。なお、図3Bは各マイクロレンズ161aの中心または中心近傍の光電変換素子162aが受光する光束の広がりを示している。 The focus detection sensor 162 is a light receiving element array in which a plurality of photoelectric conversion elements 162a are densely arranged two-dimensionally as shown in FIG. 4A, and is arranged at a substantially focal position of the microlens array 161 as shown in FIG. 3B. ing. Hereinafter, it is also referred to as a light receiving element array 162. FIG. 3B shows the spread of the light beam received by the photoelectric conversion element 162a at or near the center of each microlens 161a.

図4Aはマイクロレンズアレイ161と受光素子アレイ162の一部を示す平面図であって、サブミラー122側からマイクロレンズアレイ161を見た図である。同図において、一部のマイクロレンズ161aの後方にのみ光電変換素子162aを示したが、他のマイクロレンズ161aの後方にも同様にして光電変換素子162aが配置されている。   FIG. 4A is a plan view showing a part of the microlens array 161 and the light receiving element array 162, and is a view of the microlens array 161 viewed from the sub mirror 122 side. Although the photoelectric conversion element 162a is shown only behind a part of the microlenses 161a in the same figure, the photoelectric conversion element 162a is similarly arranged behind the other microlenses 161a.

本例のマイクロレンズ161aは、レンズ面の形状が一点鎖線で示すような円形状マイクロレンズを正六角形に切り出した形状とされており、円形状マイクロレンズと同一機能を有する。そして、マイクロレンズアレイ161は、このような正六角形のマクロレンズ161aがハニカム状に配列されたものである。このように正六角形のマイクロレンズ161aをハニカム状に配列することにより、円形状マイクロレンズを配列させた場合に生じるレンズ間の焦点検出の不感帯を回避することができる。同図における上下左右方向は撮像素子110で撮像される撮像画面の上下左右方向と一致している。なお、正六角形のマイクロレンズ161aをハニカム状に配列することに代えて、円形のマイクロレンズを正方配列することもできる。   The microlens 161a of the present example has a shape obtained by cutting a circular microlens whose lens surface shape is indicated by a one-dot chain line into a regular hexagon, and has the same function as the circular microlens. The microlens array 161 has such regular hexagonal macro lenses 161a arranged in a honeycomb shape. By arranging regular hexagonal microlenses 161a in a honeycomb shape in this way, it is possible to avoid a dead zone in focus detection between lenses that occurs when circular microlenses are arranged. The vertical and horizontal directions in the figure coincide with the vertical and horizontal directions of the imaging screen imaged by the imaging element 110. Instead of arranging regular hexagonal microlenses 161a in a honeycomb shape, circular microlenses can be arranged in a square.

これに対して、マイクロレンズアレイ161の後方に配置される光電変換素子アレイ62は、正方形の光電変換素子162aが正方配列されたものである。一つの光電変換素子162aは一つのマイクロレンズ161aより小さく形成され、図4Bに拡大して示すように、一つのマイクロレンズ161aを垂直に投影した範囲には複数の光電変換素子162aが含まれている。これらの光電変換素子162aがマイクロレンズ161aに対応して設けられた光電変換素子162aである。   On the other hand, the photoelectric conversion element array 62 disposed behind the microlens array 161 is a square array of square photoelectric conversion elements 162a. One photoelectric conversion element 162a is formed smaller than one microlens 161a, and as shown in an enlarged view in FIG. 4B, a plurality of photoelectric conversion elements 162a are included in a range in which one microlens 161a is vertically projected. Yes. These photoelectric conversion elements 162a are photoelectric conversion elements 162a provided corresponding to the microlenses 161a.

さて、上述したようにマイクロレンズアレイ161は撮影レンズ210の予定焦点面となる位置P1(撮像素子110の撮像面と光学的に等価な面)の近傍に配置されているので、撮像素子110と同じ光学像が投影される。受光素子アレイ162には、各マイクロレンズ161aによって撮影レンズ210の瞳像が結像され、受光素子アレイ162の各光電変換素子162aは瞳の各部分に対応することから、マイクロレンズ161aごとに光電変換素子162aを選択してその出力を合成すれば、光電変換素子162aに対応する絞りで撮影された画像が得られることになる。   Now, as described above, the microlens array 161 is disposed in the vicinity of the position P1 (a surface optically equivalent to the imaging surface of the imaging device 110) that is the planned focal plane of the imaging lens 210. The same optical image is projected. On the light receiving element array 162, the pupil image of the photographing lens 210 is formed by each micro lens 161a, and each photoelectric conversion element 162a of the light receiving element array 162 corresponds to each part of the pupil. If the conversion element 162a is selected and its output is synthesized, an image photographed with a diaphragm corresponding to the photoelectric conversion element 162a can be obtained.

本実施形態の焦点検出は以下の手順で行われる。 The focus detection of this embodiment is performed according to the following procedure.

図2に示す焦点検出演算部163のA/Dコンバータ163Aは、焦点検出センサ(受光素子アレイ)162から出力されたアナログ画像信号をデジタル画像信号に変換し、メモリ163Bに出力する。メモリ163Bは、このデジタル画像信号を二次元画像生成部163Cと画像信号抽出部163Fからの要求に応じて出力する。 The A / D converter 163A of the focus detection calculation unit 163 shown in FIG. 2 converts the analog image signal output from the focus detection sensor (light receiving element array) 162 into a digital image signal and outputs it to the memory 163B. The memory 163B outputs this digital image signal in response to requests from the two-dimensional image generation unit 163C and the image signal extraction unit 163F.

なお、焦点検出エリアが選択された場合には、選択された焦点検出エリアに対応する所定範囲に相当するマイクロレンズに対応する光電変換素子からの出力だけを読み出す。図7は焦点検出エリアAFPを含むファインダ135から観察される撮影画面135Aを示す図であり、本例では撮影画面135Aに11カ所の焦点検出エリアAFP1〜AFP11が設定されている。この表示は、液晶表示器132が、焦点板131上の被写体像に11カ所の焦点検出エリアの位置を表すマークを重畳することにより行われる。そして、撮影者が操作部150を操作することにより所望の焦点検出エリアAFPを選択したり、あるいは自動露光などのデータに基づいて所定のシーケンスにより自動的に焦点検出エリアAFPを選択したりする。たとえば、図7に示す焦点検出エリアAFP9が選択された場合は、この焦点検出エリアAFP9を中心にした所定範囲に相当するマイクロレンズに対応する光電変換素子からの出力を読み出す。 When the focus detection area is selected, only the output from the photoelectric conversion element corresponding to the microlens corresponding to the predetermined range corresponding to the selected focus detection area is read out. FIG. 7 is a diagram showing a shooting screen 135A observed from the finder 135 including the focus detection area AFP. In this example, eleven focus detection areas AFP1 to AFP11 are set on the shooting screen 135A. This display is performed when the liquid crystal display 132 superimposes marks representing the positions of eleven focus detection areas on the subject image on the focusing screen 131. Then, the photographer operates the operation unit 150 to select a desired focus detection area AFP, or automatically selects the focus detection area AFP by a predetermined sequence based on data such as automatic exposure. For example, when the focus detection area AFP9 shown in FIG. 7 is selected, the output from the photoelectric conversion element corresponding to the microlens corresponding to a predetermined range centered on the focus detection area AFP9 is read.

図2の二次元画像生成部163Cは、焦点検出位置として選択された焦点検出エリアに関する情報をカメラ制御部170から受け、この位置を中心とする所定範囲の画像データを抽出して二次元画像を生成する。 The two-dimensional image generation unit 163C in FIG. 2 receives information on the focus detection area selected as the focus detection position from the camera control unit 170, extracts image data in a predetermined range centered on this position, and extracts the two-dimensional image. Generate.

このとき、各マイクロレンズ161aの中心に対応する光電変換素子の位置を、撮影光学系の光軸に対するマイクロレンズの位置(像高)とマイクロレンズから撮影レンズ210の瞳までの距離から求め、各マイクロレンズ161aの中心または中心周辺に対応する光電変換素子162aの画像データをメモリ163Bに格納された画像データから抽出する。 At this time, the position of the photoelectric conversion element corresponding to the center of each microlens 161a is obtained from the position (image height) of the microlens with respect to the optical axis of the photographing optical system and the distance from the microlens to the pupil of the photographing lens 210. Image data of the photoelectric conversion element 162a corresponding to the center or the periphery of the microlens 161a is extracted from the image data stored in the memory 163B.

こうして二次元画像生成部163で生成される二次元画像は、光電変換素子162aに対応する絞りで撮影された画像となる。たとえば、光電変換素子162aの大きさを3μm、マイクロレンズ161aの焦点距離を200μm、マイクロレンズアレイ161から瞳までの距離を70mmとすると、光電変換素子162aの瞳上での大きさは1mmとなり、1mmφの絞りで得られる画像にほぼ等しい二次元画像が生成されることになる。たとえば、撮影レンズ210の焦点距離を50mmとするとF値は50となり、焦点深度が深いパンフォーカスの画像が生成されることになる。 The two-dimensional image generated by the two-dimensional image generation unit 163 in this manner is an image photographed with a diaphragm corresponding to the photoelectric conversion element 162a. For example, when the size of the photoelectric conversion element 162a is 3 μm, the focal length of the microlens 161a is 200 μm, and the distance from the microlens array 161 to the pupil is 70 mm, the size of the photoelectric conversion element 162a on the pupil is 1 mm, A two-dimensional image substantially equal to an image obtained with a 1 mmφ aperture is generated. For example, if the focal length of the taking lens 210 is 50 mm, the F value is 50, and a pan-focus image with a deep focal depth is generated.

ここで、本例のマイクロレンズアレイ161は図4Aに示すように正六角形のマイクロレンズ161aがハニカム状に配列したものであることから、画像データの配列もハニカム状である。そのため、二次元画像を生成するに際しては等間隔の正方配列の画素配列にそのまま置き換えることはできない。すなわち、マイクロレンズアレイ161における各マイクロレンズ161aの中心位置は、偶数列と奇数列とが互い違いに並び、しかも縦の間隔を1としたときに横の間隔が2/√3と異なるからである。このため、本例の二次元画像生成部163では、こうしたハニカム配列による画像データを、内挿演算または外挿演算を行うことで等間隔の正方配列に再配置する。 Here, as shown in FIG. 4A, the microlens array 161 of the present example has regular hexagonal microlenses 161a arranged in a honeycomb shape, and therefore the image data arrangement is also in a honeycomb shape. For this reason, when generating a two-dimensional image, it cannot be directly replaced with a square pixel array of equal intervals. That is, the center position of each microlens 161a in the microlens array 161 is such that even-numbered columns and odd-numbered columns are staggered and the horizontal interval is different from 2 / √3 when the vertical interval is 1. . For this reason, the two-dimensional image generation unit 163 of this example rearranges the image data based on such a honeycomb array in a square array at equal intervals by performing an interpolation operation or an extrapolation operation.

図2の特徴検出部163Dは、二次元画像生成部163で生成されたパンフォーカスの二次元画像を、複数方向について、それぞれ畳み込み積分(コンボリューション Convolution、一方の関数fを平行移動しながら他の関数gを重ね足し合わせる二項演算)することによりコントラストを検出し、コントラストの積算値が最も大きい検出方向を選択する。 The feature detection unit 163D in FIG. 2 convolves the pan-focused two-dimensional image generated by the two-dimensional image generation unit 163 with respect to a plurality of directions, while convolving the other function f while translating one function f. Contrast is detected by performing a binomial operation in which the function g is added and added, and a detection direction with the largest contrast integrated value is selected.

本例のハニカム状配列のマイクロレンズアレイ161において稠密な画像を抽出できる方向は、図4Aに示す水平方向X1と、このX1方向に対して±60°(±π/3rad)である方向X2,X3の3方向であるので、この3方向X1〜X3について二次元画像を畳み込み積分することによりコントラストを検出する。ただし、これら3方向X1〜X3以外の方向についてコントラストを検出することもできる。 The direction in which a dense image can be extracted in the microlens array 161 of the honeycomb-like array of this example is the horizontal direction X1 shown in FIG. 4A and the direction X2, which is ± 60 ° (± π / 3 rad) with respect to the X1 direction. Since there are three directions of X3, the contrast is detected by convolving and integrating the two-dimensional image in these three directions X1 to X3. However, contrast can be detected in directions other than these three directions X1 to X3.

これら3方向X1〜X3のコントラスト検出は、二次元画像の畳み込み積分フィルタに微分フィルタを組み込むことにより各方向にコントラストを有する画像のエッジを画像化して検出することができる。図5は本例にて適用する微分フィルタの一例を示す行列式である。図5(A1)〜(A3)は、二次元画像の一次微分フィルタであるソーベルフィルタ(グラディエントフィルタ)を示す行列式であり、それぞれ水平方向X1、π/3方向X2、2π/3方向X3に対するコントラストのエッジ部を検出するフィルタである。これに対し、図5(B1)〜(B3)は、二次元画像の二次微分フィルタであるラプラシアンフィルタを示す行列式であり、それぞれ水平方向X1、π/3方向X2、2π/3方向X3に対するコントラストのエッジ部を検出するフィルタである。 The contrast detection in these three directions X1 to X3 can be detected by imaging an edge of an image having contrast in each direction by incorporating a differential filter into the convolution integral filter of the two-dimensional image. FIG. 5 is a determinant showing an example of the differential filter applied in this example. FIGS. 5A1 to 5A3 are determinants that represent Sobel filters (gradient filters) that are first-order differential filters of a two-dimensional image. The horizontal direction X1, the π / 3 direction X2, and the 2π / 3 direction X3, respectively. It is a filter which detects the edge part of contrast with respect to. On the other hand, FIGS. 5B1 to 5B3 are determinants showing a Laplacian filter which is a second-order differential filter of a two-dimensional image, and each of the horizontal direction X1, the π / 3 direction X2, and the 2π / 3 direction X3. It is a filter which detects the edge part of contrast with respect to.

図4Aに示すような本例の3方向X1〜X3に対するコントラスト検出では、いずれの微分フィルタをも用いることができる。同図(A1)〜(A3)に示す一次微分フィルタであるソーベルフィルタは低周波画像の検出に有利であり、同図(B1)〜(B3)に示す二次微分フィルタであるラプラシアンフィルタは鮮鋭な検出に有利であることから、必要に応じて適用することができる。 In the contrast detection with respect to the three directions X1 to X3 in this example as shown in FIG. 4A, any differential filter can be used. The Sobel filter, which is the primary differential filter shown in FIGS. (A1) to (A3), is advantageous for detecting low-frequency images, and the Laplacian filter, which is the secondary differential filter, shown in FIGS. (B1) to (B3), Since it is advantageous for sharp detection, it can be applied as necessary.

なお、同図(A1)〜(A3)に示す一次微分フィルタは、3つの方向X1〜X3の一方向に向かう行列式であることから、3つの方向X1〜X3の逆方向に向かう行列式、すなわち同図(C1)〜(C3)に示すように行列式の数値の正負を逆にした一次微分フィルタを用いることもできる。 In addition, since the primary differential filter shown to the same figure (A1)-(A3) is a determinant which goes to one direction of three directions X1-X3, the determinant which goes to the reverse direction of three directions X1-X3, In other words, as shown in (C1) to (C3) in the figure, it is possible to use a first-order differential filter in which the value of the determinant is reversed.

このような3方向X1〜X3について二次元画像のエッジ検出を行った結果を、具体例を参照して説明する。図6Aは受光素子アレイ162で検出された二次元画像を示す図であり、横縞模様のシャツを着た人物Hの背景に建物Bが写っている画像である。 The result of performing edge detection of a two-dimensional image in such three directions X1 to X3 will be described with reference to a specific example. FIG. 6A is a diagram showing a two-dimensional image detected by the light receiving element array 162, and is an image in which the building B is reflected in the background of the person H wearing a shirt with a horizontal stripe pattern.

この二次元画像を図5(A1)または(B1)または(C1)に示す水平方向X1についての微分フィルタを用いて畳み込み積分すると図6Bに示すような画像となる。この画像では、水平方向X1に対して直交する鉛直方向のエッジ、たとえば建物Bの柱や窓の縦方向の模様は鮮鋭に検出されているものの、人物Hが着ているシャツの横縞模様は鮮鋭に検出されない。 When this two-dimensional image is convolved and integrated using a differential filter in the horizontal direction X1 shown in FIG. 5 (A1), (B1), or (C1), an image as shown in FIG. 6B is obtained. In this image, although the vertical edges perpendicular to the horizontal direction X1, for example, the vertical pattern of the pillars and windows of the building B are sharply detected, the horizontal stripe pattern of the shirt worn by the person H is sharp. Not detected.

これに対して、図6(A)に示す二次元画像を図5(A2),(A3),(B1),(B2),(C2),(C3)のいずれかに示すπ/3方向X2または2π/3方向X3についての微分フィルタを用いて畳み込み積分すると図6Cに示す画像となる。この画像では、人物Hが着ているシャツの横縞模様は鮮鋭に検出され、背景の建物Bの柱や窓の模様は鮮鋭に検出されていない。 On the other hand, the two-dimensional image shown in FIG. 6 (A) is a π / 3 direction shown in any of FIGS. 5 (A2), (A3), (B1), (B2), (C2), and (C3). When convolution integration is performed using a differential filter with respect to X2 or 2π / 3 direction X3, an image shown in FIG. 6C is obtained. In this image, the horizontal stripe pattern of the shirt worn by the person H is sharply detected, and the pillars and windows of the building B in the background are not sharply detected.

このように、水平方向X1のコントラストを検出するだけでは目的とする被写体に対する焦点を適切に検出できないことがあるが、本例のように複数方向についてコントラストを検出することで目標被写体のコントラストを適切に検出することができる。 As described above, the focus on the target subject may not be detected properly only by detecting the contrast in the horizontal direction X1, but the target subject's contrast is appropriately adjusted by detecting the contrast in a plurality of directions as in this example. Can be detected.

特徴検出部163Dは、3つの方向X1〜X3のそれぞれについて得られたコントラストをそれぞれ積算する。この積算値は、選択された焦点検出エリアAFPを中心とする所定領域内における方向別のコントラスト量を示す値である。そして、3つの方向X1〜X3についての積算値を比較し、最も大きいコントラストを示す方向X1〜X3を決定する。たとえば、図4Aにおいて焦点検出エリアAFPの指定された位置がP1であり、π/3方向X2のコントラストが最も大きい場合は、同図に示す位置P1のマイクロレンズ161aを中心にしてX2方向に沿った所定数のデータを抽出する。以下において、焦点検出方向をX2として説明する。 The feature detection unit 163D integrates the contrast obtained in each of the three directions X1 to X3. This integrated value is a value indicating the contrast amount for each direction in a predetermined area centered on the selected focus detection area AFP. Then, the integrated values in the three directions X1 to X3 are compared, and the directions X1 to X3 showing the largest contrast are determined. For example, in FIG. 4A, when the designated position of the focus detection area AFP is P1 and the contrast in the π / 3 direction X2 is the highest, the microlens 161a at the position P1 shown in FIG. A predetermined number of data is extracted. Hereinafter, the focus detection direction will be described as X2.

焦点検出方向がX2に決定されたら、特徴検出部163Dは、決定された焦点検出方向X2における各マイクロレンズ161aの光電変換素子162a(二次元画像を構成する素子)の輝度の差分すなわちコントラストを演算する。二次元画像の輝度値をV[i,j](iは光電変換素子162aのX2方向に対する行番号、jは光電変換素子162aのX2方向に対する列番号を示す)とすると、隣接する光電変換素子162aのコントラストC[i,j]は、
C[i,j]=|V[i,j]−V[i+1,j]| …式1
により求めることができる。
When the focus detection direction is determined to be X2, the feature detection unit 163D calculates the luminance difference, that is, the contrast of the photoelectric conversion elements 162a (elements constituting the two-dimensional image) of each microlens 161a in the determined focus detection direction X2. To do. When the luminance value of the two-dimensional image is V [i, j] (i is the row number of the photoelectric conversion element 162a in the X2 direction, and j is the column number of the photoelectric conversion element 162a in the X2 direction), the adjacent photoelectric conversion elements The contrast C [i, j] of 162a is
C [i, j] = | V [i, j] −V [i + 1, j] |
It can ask for.

そして、演算されたコントラストC[i,j]が相対的に大きいマイクロレンズ161aの中心位置の光電変換素子162aの位置を特徴点として抽出する。なお、特徴抽出は上記式1にのみ限定されず、コントラストに関する物理量が検出できる方法であればよい。   Then, the position of the photoelectric conversion element 162a at the center position of the microlens 161a having a relatively large calculated contrast C [i, j] is extracted as a feature point. Note that feature extraction is not limited to Equation 1 above, and any method that can detect a physical quantity related to contrast may be used.

図2に戻り、領域設定部163Eは、特徴検出部163Dで抽出された特徴点のうち焦点検出エリアAFPの中心に近い特徴点を選択し、選択した特徴点を中心に焦点検出領域を設定する。図4Bに示すように、X2方向について抽出された特徴点が2つのマイクロレンズ161Xに相当する位置である場合は、これを中心にした焦点検出領域AFAを二点鎖線で示すように設定する。   Returning to FIG. 2, the region setting unit 163E selects a feature point close to the center of the focus detection area AFP from the feature points extracted by the feature detection unit 163D, and sets a focus detection region around the selected feature point. . As shown in FIG. 4B, when the feature point extracted in the X2 direction is a position corresponding to the two microlenses 161X, the focus detection area AFA centering on the feature point is set as indicated by a two-dot chain line.

なお、特徴点が焦点検出エリアAFPの中心から離れた位置に存在する場合でも、特徴点を中心にして焦点検出領域AFAを設定することができ、こうすることで選択された焦点検出エリアAFPのコントラストに拘わらず、コントラストの高い部分を焦点検出領域AFAとして設定することができる。 Even if the feature point exists at a position away from the center of the focus detection area AFP, the focus detection area AFA can be set around the feature point, and the focus detection area AFP selected in this way can be set. Regardless of the contrast, a high contrast portion can be set as the focus detection area AFA.

図2の画像信号抽出部163Fは、領域設定部163Eにて設定された焦点検出領域AFA内のマイクロレンズ161aに対応する複数の光電変換素子162aの出力信号をメモリ163Bから読み出し、撮影レンズ210の異なる瞳領域を通過した対の光束による像のズレ量を示す焦点検出信号、すなわち対の焦点検出用信号列を生成する。   The image signal extraction unit 163F in FIG. 2 reads out the output signals of the plurality of photoelectric conversion elements 162a corresponding to the microlenses 161a in the focus detection area AFA set by the area setting unit 163E from the memory 163B. A focus detection signal indicating an image shift amount due to a pair of light beams that have passed through different pupil regions, that is, a pair of focus detection signal sequences is generated.

ここで、焦点検出演算を実行するには、ある基線長をもった2つの信号列が必要であり、信号列の方向は基線長の方向と略一致しなければならない。したがって、一つのマイクロレンズ161aの中で選択される2つの点は、図8に示すようになる。図8は、π/3方向X2について焦点検出する場合の例であって、マイクロレンズ161aの中心に対応する位置P3に対し、対になる2つの仮想的な瞳に対応する位置をP4,P5にて示す。 Here, in order to perform the focus detection calculation, two signal sequences having a certain baseline length are required, and the direction of the signal sequence must substantially coincide with the direction of the baseline length. Therefore, two points selected in one microlens 161a are as shown in FIG. FIG. 8 shows an example of focus detection in the π / 3 direction X2, and positions P4 and P5 correspond to two virtual pupils that are paired with respect to the position P3 corresponding to the center of the microlens 161a. Is shown.

ここで、水平方向X1に基線を設定した場合の中心から瞳までの距離を2画素とすると、図示するπ/3方向X2が基線の場合には位置P3の座標を(0,0)に対し(1,√3)の位置に瞳が存在する。ここで、√3の座標値は整数ではないことから対応する光電変換素子162aは存在しないことになるが、この位置の周囲の光電変換素子162aの出力を加重平均することで実質的に指定された位置における出力を求めることができる。 Here, if the distance from the center to the pupil when the base line is set in the horizontal direction X1 is 2 pixels, the coordinates of the position P3 with respect to (0, 0) when the π / 3 direction X2 shown in the figure is the base line. A pupil exists at the position (1, √3). Here, since the coordinate value of √3 is not an integer, the corresponding photoelectric conversion element 162a does not exist. However, it is substantially specified by weighted average of the outputs of the photoelectric conversion elements 162a around this position. The output at the selected position can be obtained.

画像信号抽出部163Fは、第1信号列{aj}と、第2信号列{bj}(jは自然数)を抽出し、像ズレ量演算部163Gへ出力する。 The image signal extraction unit 163F extracts the first signal sequence {aj} and the second signal sequence {bj} (j is a natural number) and outputs the extracted signal sequence to the image shift amount calculation unit 163G.

像ズレ量演算部163Gは、第1信号列{aj}と、第2信号列{bj}を用いて像ズレ演算を実行しデフォーカス量を算出する。この演算は、まず第1信号列{aj}と第2信号列{bj}から一対の像(信号列)の相関演算値Dkを次式により求める。 The image shift amount calculation unit 163G calculates the defocus amount by executing the image shift calculation using the first signal sequence {aj} and the second signal sequence {bj}. In this calculation, first, a correlation calculation value Dk of a pair of images (signal sequences) is obtained from the first signal sequence {aj} and the second signal sequence {bj} by the following equation.

Dk=Σ|ai+k−bi| …式2
式2で表わされるDkは離散的な値であるため、その最小値は真の最小値の近傍とみなすことができる。そのため、最小値Dkの前後のDk値から内挿してズレ量xを算出する。第1信号列{aj}および第2信号列{bj}の空間的変化を正弦的変化で表わすと、連続関数としたときのD(x)は正弦波の絶対値であるから、D(x)が最小となる位置は離散的なDkに基づく簡単な線形近似で求めることができる。
Dk = Σ | ai + k−bi |
Since Dk represented by Equation 2 is a discrete value, the minimum value can be regarded as the vicinity of the true minimum value. Therefore, the amount of deviation x is calculated by interpolating from the Dk values before and after the minimum value Dk. If the spatial change of the first signal sequence {aj} and the second signal sequence {bj} is expressed as a sine change, D (x) when a continuous function is used is the absolute value of the sine wave, and thus D (x ) Can be obtained by a simple linear approximation based on discrete Dk.

図9に示すように、最小のDkをDiとし、これに隣接するDkをDi+1、Di−1とする。Di+1とDi−1のなかで値の大きい方を選ぶ。同図に示す例ではDi−1の方が大きいのでDi−1を選ぶ。そして、選んだDi−1とDiとを結ぶ直線をL1とする。直線L1の傾きをαとすると、傾きが−αでDi+1を通る直線をL2とする。直線L1とL2との交点を求めると、その交点のxが上述したズレ量xとなる。 As shown in FIG. 9, let Dk be the minimum Dk, and Dk adjacent to this be Di + 1 and Di-1. The larger value is selected from Di + 1 and Di-1. In the example shown in the figure, Di-1 is larger, so Di-1 is selected. A straight line connecting the selected Di-1 and Di is defined as L1. Assuming that the slope of the straight line L1 is α, the straight line passing through Di + 1 with the slope of −α is L2. When the intersection point between the straight lines L1 and L2 is obtained, x at the intersection point is the above-described deviation amount x.

図2のレンズ駆動量演算部164は、デフォーカス演算部163から送られてきたズレ量xに基づいて、当該ズレ量xをゼロにするためのレンズ駆動量Δdを演算し、これをレンズ駆動制御部165へ出力する。 The lens drive amount calculation unit 164 in FIG. 2 calculates a lens drive amount Δd for making the shift amount x zero based on the shift amount x sent from the defocus calculation unit 163, and drives this lens. The data is output to the control unit 165.

レンズ駆動制御部165は、レンズ駆動量演算部164から送られてきたレンズ駆動量Δdを取り込みながら、レンズ駆動モータ230へ駆動指令を送出し、レンズ駆動量Δdだけフォーカスレンズ211を駆動する。 The lens drive control unit 165 sends a drive command to the lens drive motor 230 while taking in the lens drive amount Δd sent from the lens drive amount calculation unit 164, and drives the focus lens 211 by the lens drive amount Δd.

以上のとおり、本例のカメラ1においては3方向X1〜X3といった複数方向についてコントラストを検出し、最もコントラストが大きい方向について焦点検出を行うので、目標とする被写体のコントラストを適切に検出することができる。 As described above, in the camera 1 of this example, the contrast is detected in a plurality of directions such as the three directions X1 to X3, and the focus detection is performed in the direction with the largest contrast. Therefore, it is possible to appropriately detect the contrast of the target subject. it can.

なお、図4Aには一つのマイクロレンズ161aごとに縦4個×横4個の合計16個の光電変換素子162aを正方配列した受光素子アレイ162を示したが、マイクロレンズ161aごとの光電変換素子162aの個数および配列はこれに限定されない。また、同図に示すようにマイクロレンズ161aごとに光電変換素子162aをまとめて配置することに代えて、図4Bに示すように複数のマイクロレンズ161aまたはマイクロレンズアレイ161全体に対して受光素子アレイ162を配置することもできる。さらに、正方形の光電変換素子162aを正方配列することに代えて、正六角形の光電変換素子をハニカム状に配列することもできる。   4A shows a light receiving element array 162 in which a total of 16 photoelectric conversion elements 162a of 4 vertical × 4 horizontal are arranged for each microlens 161a. However, the photoelectric conversion elements for each microlens 161a are shown in FIG. The number and arrangement of 162a are not limited to this. Further, instead of collectively arranging the photoelectric conversion elements 162a for each microlens 161a as shown in the figure, a light receiving element array for the plurality of microlenses 161a or the entire microlens array 161 as shown in FIG. 4B. 162 can also be arranged. Furthermore, instead of arranging the square photoelectric conversion elements 162a in a square shape, regular hexagonal photoelectric conversion elements can also be arranged in a honeycomb shape.

また、本例では撮像素子110とは別に二次元センサである焦点検出センサ162を設けたが、これに代えて撮像素子110の一部にマイクロレンズ161aと光電変換素子162aを同様の構成で設け、これにより上記の手順で焦点検出することもできる。   In this example, the focus detection sensor 162 that is a two-dimensional sensor is provided separately from the image sensor 110. Instead, a micro lens 161a and a photoelectric conversion element 162a are provided in a part of the image sensor 110 with the same configuration. Thus, the focus can be detected by the above procedure.

発明の実施形態に係る一眼レフデジタルカメラを示すブロック図である。It is a block diagram which shows the single-lens reflex digital camera which concerns on embodiment of invention. 図1に示すカメラの焦点検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the focus detection apparatus of the camera shown in FIG. 図1に示すカメラの焦点検出装置の光学的配置を示す図である。It is a figure which shows the optical arrangement | positioning of the focus detection apparatus of the camera shown in FIG. 図1に示すカメラの焦点検出光学系および焦点検出センサを示す断面図である。It is sectional drawing which shows the focus detection optical system and focus detection sensor of the camera shown in FIG. 図1に示すカメラの焦点検出光学系および焦点検出センサの配列状態を示す平面図である。FIG. 2 is a plan view showing an arrangement state of focus detection optical systems and focus detection sensors of the camera shown in FIG. 1. 図1に示すカメラの一つの焦点検出光学系および焦点検出センサを拡大して示す平面図である。It is a top view which expands and shows one focus detection optical system and focus detection sensor of the camera shown in FIG. 図1に示すカメラの焦点検出装置で用いられる微分フィルタの一例を示す行列式である。It is a determinant which shows an example of the differential filter used with the focus detection apparatus of the camera shown in FIG. 図1に示すカメラの焦点検出センサで検出された二次元画像を示す図である。It is a figure which shows the two-dimensional image detected with the focus detection sensor of the camera shown in FIG. 図6Aに示す画像を、図5(A1),(B1),(C1)に示す微分フィルタを用いて処理した結果を示す図である。It is a figure which shows the result of having processed the image shown to FIG. 6A using the differential filter shown to FIG. 5 (A1), (B1), (C1). 図6Aに示す画像を、図5(A2),(A3),(B1),(B2),(C2),(C3)に示すいずれかの微分フィルタを用いて処理した結果を示す図である。It is a figure which shows the result of having processed the image shown to FIG. 6A using any one of the differential filters shown to FIG. 5 (A2), (A3), (B1), (B2), (C2), (C3). . 図1に示すカメラのファインダで観察される撮影画面を示す図である。It is a figure which shows the imaging | photography screen observed with the finder of the camera shown in FIG. 図1に示すカメラの焦点検出装置において、π/3方向X2について焦点検出する場合の手順を説明するための、一つの焦点検出光学系および焦点検出センサを拡大して示す平面図である。FIG. 2 is an enlarged plan view showing one focus detection optical system and a focus detection sensor for explaining a procedure when focus detection is performed in the π / 3 direction X2 in the camera focus detection apparatus shown in FIG. 1. 図1に示すカメラの焦点検出装置において、ズレ量xを算出する方法を説明するためのグラフである。6 is a graph for explaining a method of calculating a shift amount x in the focus detection apparatus of the camera shown in FIG. 1.

符号の説明Explanation of symbols

1…一眼レフデジタルカメラ
100…カメラボディ
110…撮像素子
161…焦点検出光学系(マイクロレンズアレイ)
161a…マイクロレンズ
162…焦点検出センサ(受光素子アレイ)
162a…光電変換素子
163…焦点検出演算部
200…レンズ鏡筒
210…撮影レンズ
DESCRIPTION OF SYMBOLS 1 ... Single-lens reflex digital camera 100 ... Camera body 110 ... Image pick-up element 161 ... Focus detection optical system (micro lens array)
161a ... Micro lens 162 ... Focus detection sensor (light receiving element array)
162a ... photoelectric conversion element 163 ... focus detection calculation unit 200 ... lens barrel 210 ... photographing lens

Claims (10)

複数のマイクロレンズを二次元状に配列したマイクロレンズアレイと、
前記マイクロレンズに対応して設けられた受光部を備え、前記マイクロレンズを介して結像光学系からの光束を受光する受光素子と、
前記受光素子の受光信号に基づいて画像情報を生成し、当該画像情報における複数方向のコントラストを検出するコントラスト検出手段と、
前記コントラストに基づいて前記複数方向の中から焦点検出する方向を選択するとともに、当該焦点検出方向に沿った前記複数のマイクロレンズの前記受光部で得られる受光信号に基づいて前記結像光学系の焦点調節状態を検出する焦点検出手段と、を備えたことを特徴とする焦点検出装置。
A microlens array in which a plurality of microlenses are arranged two-dimensionally;
A light receiving element provided corresponding to the micro lens, and receiving a light beam from the imaging optical system through the micro lens;
Contrast detection means for generating image information based on a light reception signal of the light receiving element and detecting contrast in a plurality of directions in the image information;
A direction for focus detection is selected from the plurality of directions based on the contrast, and the imaging optical system is configured based on a light reception signal obtained by the light receiving unit of the plurality of microlenses along the focus detection direction. And a focus detection means for detecting a focus adjustment state.
請求項1に記載の焦点検出装置において、
前記コントラスト検出手段は、前記画像情報を畳み込み積分することにより前記コントラストを検出することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 1,
The focus detection device, wherein the contrast detection means detects the contrast by convolving and integrating the image information.
請求項2に記載の焦点検出装置において、
前記コントラスト検出手段は、微分フィルタを用いて前記コントラストを検出することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 2,
The focus detection device, wherein the contrast detection means detects the contrast using a differential filter.
請求項1〜3のいずれか一項に記載の焦点検出装置において、
前記受光素子は、前記複数のマイクロレンズのそれぞれに対して複数の前記受光部を有し、
前記コントラスト検出手段は、前記マイクロレンズに対応する前記複数の受光部の一部で得られる受光信号に基づいて前記画像情報を生成することを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 3,
The light receiving element has a plurality of the light receiving portions for each of the plurality of microlenses,
The focus detection device, wherein the contrast detection unit generates the image information based on a light reception signal obtained by a part of the plurality of light receiving units corresponding to the microlens.
請求項4に記載の焦点検出装置において、
前記コントラスト検出手段は、前記複数の受光部の一部で得られる受光信号を前記複数のマイクロレンズに亘って積算した信号に基づいて前記画像情報を生成することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 4,
The focus detection device, wherein the contrast detection unit generates the image information based on a signal obtained by integrating light reception signals obtained by a part of the plurality of light receiving units over the plurality of microlenses.
請求項1〜5のいずれか一項に記載の焦点検出装置において、
前記マイクロレンズは、ハニカム状に配列されていることを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 5,
The focus detection device, wherein the microlenses are arranged in a honeycomb shape.
請求項4に記載された焦点検出装置において、
前記コントラスト検出手段は、前記マイクロレンズの配列方向に沿って前記画像情報のコントラストを検出することを特徴とする焦点検出装置。
In the focus detection apparatus according to claim 4,
The focus detection device, wherein the contrast detection unit detects a contrast of the image information along an arrangement direction of the microlenses.
請求項1〜7のいずれか一項に記載の焦点検出装置において、
前記コントラスト検出手段は、前記複数のマイクロレンズの一部に対応する前記画像情報に対して前記コントラストを検出することを特徴とする焦点検出装置。
In the focus detection apparatus according to any one of claims 1 to 7,
The focus detection apparatus, wherein the contrast detection unit detects the contrast with respect to the image information corresponding to a part of the plurality of microlenses.
請求項8に記載の焦点検出装置において、
前記受光素子の受光信号に基づく画像情報の特徴部分を検出する特徴検出手段を備え、
前記コントラスト検出手段は、前記複数のマイクロレンズのうち、前記特徴部分に対応する前記マイクロレンズに関する前記受光部の受光信号に基づいて前記画像情報を生成することを特徴とする焦点検出装置。
The focus detection apparatus according to claim 8, wherein
Comprising a feature detection means for detecting a feature portion of image information based on a light reception signal of the light receiving element;
The focus detection device, wherein the contrast detection unit generates the image information based on a light reception signal of the light receiving unit related to the microlens corresponding to the feature portion among the plurality of microlenses.
請求項1〜9のいずれか一項に記載の焦点検出装置を備えたことを特徴とする撮像装置。 An imaging apparatus comprising the focus detection apparatus according to claim 1.
JP2008039844A 2008-02-21 2008-02-21 Focus detection apparatus and imaging apparatus Expired - Fee Related JP5380857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008039844A JP5380857B2 (en) 2008-02-21 2008-02-21 Focus detection apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008039844A JP5380857B2 (en) 2008-02-21 2008-02-21 Focus detection apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2009198771A true JP2009198771A (en) 2009-09-03
JP5380857B2 JP5380857B2 (en) 2014-01-08

Family

ID=41142325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008039844A Expired - Fee Related JP5380857B2 (en) 2008-02-21 2008-02-21 Focus detection apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5380857B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061408A (en) * 2011-09-12 2013-04-04 Nikon Corp Imaging apparatus
JP2013186187A (en) * 2012-03-06 2013-09-19 Nikon Corp Focus detection device and imaging apparatus
JP2013246215A (en) * 2012-05-23 2013-12-09 Canon Inc Imaging device, control method of the same, program, and memory medium
JP2014174357A (en) * 2013-03-11 2014-09-22 Canon Inc Imaging apparatus, imaging system, signal processor, program, and storage medium
US9188846B2 (en) 2011-02-18 2015-11-17 Nec Corporation Scanning-type image display device and its image display method
KR101773168B1 (en) * 2011-07-21 2017-09-12 삼성전자주식회사 Apparatus and method for controlling focus by image sensor for outputting phase difference signal
US10484593B2 (en) 2012-04-25 2019-11-19 Nikon Corporation Focus detection device, focus adjustment device and camera

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990206A (en) * 1996-03-25 1997-04-04 Minolta Co Ltd Automatic focusing device
JP2000292685A (en) * 1999-04-01 2000-10-20 Olympus Optical Co Ltd Image pick-up element
JP2001305415A (en) * 2000-04-19 2001-10-31 Canon Inc Focus detector
JP2005300992A (en) * 2004-04-13 2005-10-27 Canon Inc Device for detecting focal point
JP2007011314A (en) * 2005-05-30 2007-01-18 Nikon Corp Image formation state detection device, camera and light receiving unit
JP2007240877A (en) * 2006-03-08 2007-09-20 Canon Inc Imaging apparatus and control method therefor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990206A (en) * 1996-03-25 1997-04-04 Minolta Co Ltd Automatic focusing device
JP2000292685A (en) * 1999-04-01 2000-10-20 Olympus Optical Co Ltd Image pick-up element
JP2001305415A (en) * 2000-04-19 2001-10-31 Canon Inc Focus detector
JP2005300992A (en) * 2004-04-13 2005-10-27 Canon Inc Device for detecting focal point
JP2007011314A (en) * 2005-05-30 2007-01-18 Nikon Corp Image formation state detection device, camera and light receiving unit
JP2007240877A (en) * 2006-03-08 2007-09-20 Canon Inc Imaging apparatus and control method therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9188846B2 (en) 2011-02-18 2015-11-17 Nec Corporation Scanning-type image display device and its image display method
KR101773168B1 (en) * 2011-07-21 2017-09-12 삼성전자주식회사 Apparatus and method for controlling focus by image sensor for outputting phase difference signal
JP2013061408A (en) * 2011-09-12 2013-04-04 Nikon Corp Imaging apparatus
JP2013186187A (en) * 2012-03-06 2013-09-19 Nikon Corp Focus detection device and imaging apparatus
US10484593B2 (en) 2012-04-25 2019-11-19 Nikon Corporation Focus detection device, focus adjustment device and camera
JP2013246215A (en) * 2012-05-23 2013-12-09 Canon Inc Imaging device, control method of the same, program, and memory medium
JP2014174357A (en) * 2013-03-11 2014-09-22 Canon Inc Imaging apparatus, imaging system, signal processor, program, and storage medium

Also Published As

Publication number Publication date
JP5380857B2 (en) 2014-01-08

Similar Documents

Publication Publication Date Title
WO2010001641A1 (en) Focal point detection device
JP5617157B2 (en) Focus detection apparatus and imaging apparatus
JP5169499B2 (en) Imaging device and imaging apparatus
JP5034556B2 (en) Focus detection apparatus and imaging apparatus
US8098984B2 (en) Focus detecting apparatus and an imaging apparatus
JP5195506B2 (en) Imaging apparatus and image composition method
JP5380857B2 (en) Focus detection apparatus and imaging apparatus
JP2009175528A (en) Focus-adjusting apparatus and imaging apparatus
JP5896763B2 (en) Optical instrument and method for autofocusing
JP5256675B2 (en) Imaging device
JP6825203B2 (en) Imaging controller and camera
JP2010128205A (en) Imaging apparatus
JP5776191B2 (en) Focus detection apparatus and imaging apparatus
JP5966299B2 (en) FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME
JP2009063689A (en) Focus detecting device and imaging apparatus
JP2009081522A (en) Imaging apparatus
JP6183482B2 (en) Focus detection apparatus and imaging apparatus
JP2019200348A (en) Imaging device and control method for imaging device
JP6047935B2 (en) Camera body and imaging device
JP6136566B2 (en) Imaging device and intermediate adapter
JP6035728B2 (en) Focus adjustment device and imaging device
JP5391587B2 (en) Imaging device
JP6428845B2 (en) Imaging device
JP6424859B2 (en) Imaging device
JP2014052653A (en) Focus adjustment device and imaging device provided with the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130916

R150 Certificate of patent or registration of utility model

Ref document number: 5380857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees