JP5747510B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5747510B2
JP5747510B2 JP2011001164A JP2011001164A JP5747510B2 JP 5747510 B2 JP5747510 B2 JP 5747510B2 JP 2011001164 A JP2011001164 A JP 2011001164A JP 2011001164 A JP2011001164 A JP 2011001164A JP 5747510 B2 JP5747510 B2 JP 5747510B2
Authority
JP
Japan
Prior art keywords
focus detection
ghost
imaging
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011001164A
Other languages
Japanese (ja)
Other versions
JP2012141549A (en
Inventor
日下 洋介
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011001164A priority Critical patent/JP5747510B2/en
Publication of JP2012141549A publication Critical patent/JP2012141549A/en
Application granted granted Critical
Publication of JP5747510B2 publication Critical patent/JP5747510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は撮像装置に関する。   The present invention relates to an imaging apparatus.

マイクロレンズとその背後に配置された一対の光電変換部からなる焦点検出画素を撮影光学系の予定焦点面(撮像面)上に配列する。これにより、光学系を通る一対の焦点検出光束が形成する一対の像に応じた一対の像信号を生成し、この一対の像信号間の像ズレ量を検出することによって撮影光学系の焦点調節状態を検出する、いわゆる瞳分割型位相差検出方式の焦点検出方法が知られている。   Focus detection pixels including a microlens and a pair of photoelectric conversion units disposed behind the microlens are arranged on a planned focal plane (imaging plane) of the photographing optical system. Thereby, a pair of image signals corresponding to a pair of images formed by the pair of focus detection light beams passing through the optical system is generated, and the focus adjustment of the photographing optical system is performed by detecting an image shift amount between the pair of image signals. A focus detection method using a so-called pupil division type phase difference detection method for detecting a state is known.

またこのような焦点検出画素を1つの撮像素子に撮像画素と混在させ、撮像画素による撮像動作と撮像面上の複数の位置における焦点検出動作とを実現した撮像装置も知られている(例えば、特許文献1参照)。   There is also known an imaging apparatus in which such focus detection pixels are mixed with imaging pixels in one imaging device to realize imaging operations by the imaging pixels and focus detection operations at a plurality of positions on the imaging surface (for example, Patent Document 1).

特開2008−152012号公報JP 2008-152012 A

本発明による撮像装置は、撮像信号を出力する撮像画素と、撮影光学系の瞳の一対の領域を通過した一対の光束を受光して第1及び第2のデータ列を出力する焦点検出画素とが2次元的に混在して配置された撮像素子と、撮像面上に設定された焦点検出エリアにおける第1及び第2のデータ列に対して第1の相関演算又は第2の相関演算を行い、デフォーカス量を算出する焦点検出部と、撮像信号に基づき、撮像面上において高輝度物体像の位置を検出する高輝度物体像位置検出と、高輝度物体像の位置に基づき、高輝度物体像に対応して形成されるゴーストの位置を推定するゴースト位置推定とを備え、焦点検出部は、焦点検出エリアの位置がゴースト位置推定により推定されたゴーストの位置近傍に含まれない場合に第1の相関演算を行い、焦点検出エリアの位置がゴースト位置推定部により推定されたゴーストの位置近傍に含まれる場合に第2の相関演算を行うことを特徴とする。
また、本発明による撮像装置は、撮影光学系の瞳の一対の領域を通過した一対の光束を受光して第1及び第2のデータ列を出力する焦点検出画素を有する撮像素子と、撮像面上に設定された焦点検出エリアにおける第1及び第2のデータ列に対して第1の相関演算又は第2の相関演算を行い、デフォーカス量を算出する焦点検出部と、撮像面上において高輝度物体像の位置を検出する高輝度物体像位置検出部と、高輝度物体像の位置に基づき、高輝度物体像に対応して形成されるゴーストの位置を推定するゴースト位置推定部とを備え、焦点検出部は、焦点検出エリアの位置がゴースト位置推定部により推定されたゴーストの位置近傍に含まれない場合に第1の相関演算を行い、焦点検出エリアの位置がゴースト位置推定部により推定されたゴーストの位置近傍に含まれる場合に第2の相関演算を行うことを特徴とする
また、本発明による撮像装置は、撮影光学系の瞳の一対の領域を通過した一対の光束を受光して一対の焦点検出信号を出力する焦点検出画素を有する撮像素子と、撮像面上に設定された複数の焦点検出エリアから所定の焦点検出エリアを選択する選択部と、選択部によって選択された所定の焦点検出エリアにおける一対の焦点検出信号に基づきデフォーカス量を算出する焦点検出部と、撮像面上において高輝度物体像の位置を検出する高輝度物体像位置検出部と、高輝度物体像の位置に基づき、高輝度物体像に対応して形成されるゴーストの位置を推定するゴースト位置推定部と、所定の焦点検出エリアの位置がゴースト位置推定部により推定されたゴーストの位置近傍に含まれる場合に所定の焦点検出エリアをゴーストの位置近傍に含まれない焦点検出エリアに変更する変更部と、を備え、焦点検出部は、所定の焦点検出エリアの位置がゴースト位置推定部により推定されたゴーストの位置近傍に含まれない場合に所定の焦点検出エリアにおける一対の焦点検出信号に基づきデフォーカス量を算出し、所定の焦点検出エリアの位置がゴースト位置推定部により推定されたゴーストの位置近傍に含まれる場合に変更部によって変更された焦点検出エリアにおける一対の焦点検出信号に基づきデフォーカス量を算出することを特徴とする。
An imaging device according to the present invention includes an imaging pixel that outputs an imaging signal, a focus detection pixel that receives a pair of light beams that have passed through a pair of regions of a pupil of a photographing optical system, and outputs first and second data strings. Are subjected to the first correlation calculation or the second correlation calculation on the first and second data strings in the focus detection area set on the imaging surface and the image pickup elements arranged two-dimensionally. A focus detection unit that calculates a defocus amount, a high-luminance object image position detection unit that detects the position of a high-luminance object image on the imaging surface based on an imaging signal, and a high-luminance based on the position of the high-luminance object image A ghost position estimation unit that estimates the position of a ghost formed corresponding to the object image, and the focus detection unit does not include the position of the focus detection area in the vicinity of the ghost position estimated by the ghost position estimation unit If the first correlation performance It was carried out, and performing a second correlation operation when the position of the focus detection area is included in the vicinity of the ghost estimated by the ghost position estimating unit.
An imaging device according to the present invention includes an imaging element having a focus detection pixel that receives a pair of light beams that have passed through a pair of regions of a pupil of an imaging optical system and outputs first and second data strings, and an imaging surface. A focus detection unit that calculates the defocus amount by performing the first correlation calculation or the second correlation calculation on the first and second data strings in the focus detection area set above, and a high value on the imaging surface A high-brightness object image position detection unit that detects the position of a luminance object image, and a ghost position estimation unit that estimates the position of a ghost formed corresponding to the high-brightness object image based on the position of the high-brightness object image The focus detection unit performs a first correlation calculation when the position of the focus detection area is not included in the vicinity of the ghost position estimated by the ghost position estimation unit, and the position of the focus detection area is estimated by the ghost position estimation unit. Was And performing a second correlation calculation if included in the vicinity of the paste.
In addition, an imaging apparatus according to the present invention is set on an imaging surface having an imaging element having focus detection pixels that receive a pair of light beams that have passed through a pair of regions of a pupil of a photographing optical system and output a pair of focus detection signals. A selection unit that selects a predetermined focus detection area from the plurality of focus detection areas that have been performed, a focus detection unit that calculates a defocus amount based on a pair of focus detection signals in the predetermined focus detection area selected by the selection unit, A high-brightness object image position detection unit that detects the position of a high-brightness object image on the imaging surface, and a ghost position that estimates the position of a ghost formed corresponding to the high-brightness object image based on the position of the high-brightness object image When the position of the estimation unit and the predetermined focus detection area is included in the vicinity of the ghost position estimated by the ghost position estimation unit, the predetermined focus detection area is included in the vicinity of the ghost position. And a change unit that changes the focus detection area to a predetermined focus detection area, and the focus detection unit includes a predetermined focus detection area when the position of the predetermined focus detection area is not included in the vicinity of the ghost position estimated by the ghost position estimation unit. The defocus amount is calculated based on the pair of focus detection signals at, and when the position of the predetermined focus detection area is included in the vicinity of the ghost position estimated by the ghost position estimation unit, in the focus detection area changed by the change unit A defocus amount is calculated based on a pair of focus detection signals .

本発明による撮像装置は、撮像信号を出力する撮像画素と焦点検出信号を出力する焦点検出画素とが2次元的に混在して配置された撮像素子と、撮像面上に設定された焦点検出エリアにおける焦点検出信号に基づき焦点調節状態を検出する焦点検出動作と、検出された焦点調節状態に基づく焦点調節動作とを含む焦点調節制御を行う焦点調節制御手段と、撮像信号に基づき、撮像面上において高輝度物体像の位置を検出する高輝度物体像位置検出手段と、高輝度物体像の位置に基づき、高輝度物体像に対応して形成されるゴーストの位置を推定するゴースト位置推定手段とを備え、焦点調節制御手段は、焦点検出エリアの位置がゴースト推定手段により推定されたゴーストの位置近傍に含まれか否かに応じて、焦点調節制御制御を異ならせることを特徴とする。   An imaging apparatus according to the present invention includes an imaging element in which an imaging pixel that outputs an imaging signal and a focus detection pixel that outputs a focus detection signal are two-dimensionally mixed, and a focus detection area set on an imaging surface. A focus adjustment control means for performing focus adjustment control including a focus detection operation for detecting a focus adjustment state based on the focus detection signal in the camera, and a focus adjustment operation based on the detected focus adjustment state, on the imaging surface based on the imaging signal A high luminance object image position detecting means for detecting the position of the high luminance object image, and a ghost position estimating means for estimating a position of a ghost formed corresponding to the high luminance object image based on the position of the high luminance object image; The focus adjustment control means varies the focus adjustment control control according to whether or not the position of the focus detection area is included in the vicinity of the ghost position estimated by the ghost estimation means. And wherein the door.

本発明による撮像装置によれば、ゴースト像に起因する焦点検出誤差を防止できる。   According to the imaging apparatus of the present invention, it is possible to prevent a focus detection error caused by a ghost image.

一実施の形態のデジタルカメラの構成を示す図である。It is a figure which shows the structure of the digital camera of one embodiment. 撮像面に設定した撮影画面上における焦点検出エリアを示す図である。It is a figure which shows the focus detection area on the imaging | photography screen set to the imaging surface. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element. デジタルカメラの撮像動作を示すフローチャートである。It is a flowchart which shows the imaging operation of a digital camera. 露光制御の周期的な切り替えを示す図である。It is a figure which shows the periodic switching of exposure control. 高輝度物体によるゴーストの発生を説明するための図である。It is a figure for demonstrating generation | occurrence | production of the ghost by a high-intensity object. 通常露光時の画面内の被写体の構図例を示す図である。It is a figure which shows the example of a composition of the to-be-photographed object in the screen at the time of normal exposure. 画面内の輝度分布を明暗で示した領域を表す図である。It is a figure showing the area | region which showed the luminance distribution in a screen with light and dark. 高輝度物体露光で得られた画像の輝度分布を示す図である。It is a figure which shows the luminance distribution of the image obtained by high-intensity object exposure. 推定したゴースト発生位置を示す図である。It is a figure which shows the estimated ghost generating position. 推定したゴースト発生位置を示す図である。It is a figure which shows the estimated ghost generating position. 推定したゴースト発生位置を示す図である。It is a figure which shows the estimated ghost generating position. 液晶表示素子の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a liquid crystal display element. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element.

−−−第1の実施の形態−−−
一実施の形態の撮像装置として、レンズ交換式のデジタルカメラを例に挙げて説明する。図1は一実施の形態のデジタルカメラの構成を示す図である。図1(a)に示すように、本実施の形態のデジタルカメラ201は、交換レンズ202とカメラボディ203とから構成され、交換レンズ202がマウント部204を介してカメラボディ203に装着される。カメラボディ203にはマウント部204を介して種々の撮影光学系を有する交換レンズ202が装着可能である。
--- First embodiment ---
As an imaging apparatus according to an embodiment, a digital camera with interchangeable lenses will be described as an example. FIG. 1 is a diagram illustrating a configuration of a digital camera according to an embodiment. As shown in FIG. 1A, the digital camera 201 according to the present embodiment includes an interchangeable lens 202 and a camera body 203, and the interchangeable lens 202 is attached to the camera body 203 via a mount unit 204. An interchangeable lens 202 having various photographing optical systems can be attached to the camera body 203 via a mount unit 204.

交換レンズ202は、レンズ209、ズーミング用レンズ208、フォーカシング用レンズ210、絞り211、レンズ駆動制御装置206などを備えている。レンズ駆動制御装置206は、不図示のマイクロコンピューター、メモリ、駆動制御回路などから構成される。レンズ駆動制御装置206は、フォーカシング用レンズ210の焦点調節と絞り211の開口径調節のための駆動制御や、ズーミング用レンズ208、フォーカシング用レンズ210および絞り211の状態検出などを行う。また、後述するボディ駆動制御装置214との通信によりレンズ情報の送信とカメラ情報(デフォーカス量や絞り値など)の受信を行う。絞り211は、光量およびボケ量調整のために光軸中心に開口径が可変な開口を形成する。   The interchangeable lens 202 includes a lens 209, a zooming lens 208, a focusing lens 210, a diaphragm 211, a lens drive control device 206, and the like. The lens drive control device 206 includes a microcomputer (not shown), a memory, a drive control circuit, and the like. The lens drive control unit 206 performs drive control for adjusting the focus of the focusing lens 210 and adjusting the aperture diameter of the aperture 211, and detecting the states of the zooming lens 208, the focusing lens 210, and the aperture 211. Further, transmission of lens information and reception of camera information (defocus amount, aperture value, etc.) are performed by communication with a body drive control device 214 described later. The aperture 211 forms an aperture having a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur.

カメラボディ203は、撮像素子212、ボディ駆動制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219、操作部材220、AD変換装置221などを備えている。撮像素子212には、撮像画素が二次元状(行と列)に配置されるとともに、焦点検出位置(焦点検出エリア)に対応した部分に焦点検出画素が組み込まれている。この撮像素子212については詳細を後述する。   The camera body 203 includes an imaging device 212, a body drive control device 214, a liquid crystal display device drive circuit 215, a liquid crystal display device 216, an eyepiece lens 217, a memory card 219, an operation member 220, an AD conversion device 221, and the like. In the image sensor 212, image pickup pixels are two-dimensionally arranged (rows and columns), and focus detection pixels are incorporated in portions corresponding to focus detection positions (focus detection areas). Details of the image sensor 212 will be described later.

ボディ駆動制御装置214は、マイクロコンピューター、メモリ、駆動制御回路などのハードウェアから構成される。ボディ駆動制御装置214は、図1(b)に示すように、例えば、露光制御機能部2141、焦点検出機能部2142、焦点調節機能部2143、制御装置間通信機能部2144、表示制御機能部2145、記録制御機能部2146、画像信号読み出し機能部2147、撮影機能部2148、画像信号処理機能部2149、高輝度物体情報検出機能部2150、ゴースト情報推定機能部2151、および焦点検出動作決定機能部2152を含む。これらの各機能部は、上述したハードウェアによって個別に実現されても良いし、ソフトウェアによって個別に実現されても良い。   The body drive control device 214 includes hardware such as a microcomputer, a memory, and a drive control circuit. As shown in FIG. 1B, the body drive control device 214 includes, for example, an exposure control function unit 2141, a focus detection function unit 2142, a focus adjustment function unit 2143, an inter-control device communication function unit 2144, and a display control function unit 2145. , Recording control function unit 2146, image signal reading function unit 2147, photographing function unit 2148, image signal processing function unit 2149, high-luminance object information detection function unit 2150, ghost information estimation function unit 2151, and focus detection operation determination function unit 2152. including. Each of these functional units may be realized individually by the hardware described above or may be realized individually by software.

露光制御機能部2141は、撮像素子212の露光制御を行う。画像信号読み出し機能部2147は、撮像素子212からの画素信号(画像信号)の読み出しを行う。焦点検出機能部2142は、焦点検出画素の画素信号(焦点検出信号)に基づく焦点検出演算を行う。焦点調節機能部2143は、交換レンズ202の焦点調節を繰り返し行う。画像信号処理機能部2149は、画像信号読み出し機能部2147によって読み出された画素信号に基づき、撮像画像の画像信号処理を行う。表示制御機能部2145は、液晶表示素子駆動回路215を制御して、画像信号処理機能部によって画像信号処理が行われた撮像画像を液晶表示素子216に表示させる。記録制御機能部2146は、撮像画像の画像信号をメモリカード219に記録する。撮影機能部2148は、カメラの動作制御などを行う。制御装置間通信機能部2144は、電気接点213を介してレンズ駆動制御装置206と通信を行い、レンズ情報の受信とカメラ情報の送信を行う。高輝度物体情報検出機能部2150、ゴースト情報推定機能部2151、および焦点検出動作機能部2152の各々が行う処理内容については後述する。   The exposure control function unit 2141 performs exposure control of the image sensor 212. The image signal reading function unit 2147 reads pixel signals (image signals) from the image sensor 212. The focus detection function unit 2142 performs a focus detection calculation based on a pixel signal (focus detection signal) of the focus detection pixel. The focus adjustment function unit 2143 repeatedly performs focus adjustment of the interchangeable lens 202. The image signal processing function unit 2149 performs image signal processing of the captured image based on the pixel signal read by the image signal reading function unit 2147. The display control function unit 2145 controls the liquid crystal display element driving circuit 215 to cause the liquid crystal display element 216 to display a captured image that has been subjected to image signal processing by the image signal processing function unit. The recording control function unit 2146 records the image signal of the captured image on the memory card 219. The shooting function unit 2148 performs camera operation control and the like. The inter-control device communication function unit 2144 communicates with the lens drive control device 206 through the electrical contact 213 to receive lens information and transmit camera information. Details of processing performed by each of the high-luminance object information detection function unit 2150, the ghost information estimation function unit 2151, and the focus detection operation function unit 2152 will be described later.

液晶表示素子216は電気的なビューファインダー(EVF:Electronic View Finder)として機能する。液晶表示素子駆動回路215は撮像素子212から読み出された撮像画像データに基づき、スルー画像(撮像画像)を液晶表示素子216に表示し、撮影者は接眼レンズ217を介してスルー画像を観察することができる。メモリカード219は、撮像素子212により撮像された画像データを記憶する画像ストレージである。   The liquid crystal display element 216 functions as an electric view finder (EVF). The liquid crystal display element driving circuit 215 displays a through image (captured image) on the liquid crystal display element 216 based on the captured image data read from the image sensor 212, and the photographer observes the through image via the eyepiece 217. be able to. The memory card 219 is an image storage that stores image data captured by the image sensor 212.

AD変換装置221は、撮像素子212からの出力される画素信号をAD変換してボディ駆動制御装置214に送る。撮像素子212がAD変換装置221を内蔵する構成であってもよい。   The AD conversion device 221 performs AD conversion on the pixel signal output from the image sensor 212 and sends it to the body drive control device 214. The imaging device 212 may have a configuration in which the AD conversion device 221 is incorporated.

交換レンズ202を通過した光束により、撮像素子212の撮像面上に被写体像が形成される。この被写体像は撮像素子212により光電変換され、撮像画素および焦点検出画素の画素信号がボディ駆動制御装置214へ送られる。   A subject image is formed on the imaging surface of the imaging element 212 by the light beam that has passed through the interchangeable lens 202. This subject image is photoelectrically converted by the image sensor 212, and the pixel signals of the imaging pixels and focus detection pixels are sent to the body drive control device 214.

ボディ駆動制御装置214は、撮像素子212の焦点検出画素からの画素信号(焦点検出信号)に基づいてデフォーカス量を算出し、このデフォーカス量をレンズ駆動制御装置206へ送る。また、ボディ駆動制御装置214は、撮像素子212の撮像画素の画素信号(撮像信号)を処理して画像データを生成し、メモリカード219に格納するとともに、撮像素子212から読み出されたスルー画像信号を液晶表示素子駆動回路215へ送り、スルー画像(撮像画像)を液晶表示素子216に表示させる。さらに、ボディ駆動制御装置214は、レンズ駆動制御装置206へ絞り制御情報を送って絞り211の開口制御を行う。   The body drive control device 214 calculates the defocus amount based on the pixel signal (focus detection signal) from the focus detection pixel of the image sensor 212 and sends this defocus amount to the lens drive control device 206. In addition, the body drive control device 214 processes the pixel signal (imaging signal) of the imaging pixel of the imaging element 212 to generate image data, stores the image data in the memory card 219, and reads the through image read from the imaging element 212. The signal is sent to the liquid crystal display element driving circuit 215, and a through image (captured image) is displayed on the liquid crystal display element 216. Further, the body drive control device 214 sends aperture control information to the lens drive control device 206 to control the aperture of the aperture 211.

レンズ駆動制御装置206は、フォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じてレンズ情報を更新する。具体的には、ズーミング用レンズ208とフォーカシング用レンズ210の位置と絞り211の絞り値とを検出し、これらのレンズ位置と絞り値とに応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからレンズ位置と絞り値とに応じたレンズ情報を選択する。   The lens drive controller 206 updates the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the positions of the zooming lens 208 and the focusing lens 210 and the aperture value of the aperture 211 are detected, and lens information is calculated according to these lens positions and aperture values, or prepared in advance. Lens information corresponding to the lens position and aperture value is selected from the look-up table.

レンズ駆動制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、レンズ駆動量に応じてフォーカシング用レンズ210を合焦位置へ駆動する。また、レンズ駆動制御装置206は受信した絞り値に応じて絞り211を駆動する。   The lens drive control device 206 calculates a lens drive amount based on the received defocus amount, and drives the focusing lens 210 to the in-focus position according to the lens drive amount. Further, the lens drive control device 206 drives the diaphragm 211 in accordance with the received diaphragm value.

操作部材220は後述する複数の焦点検出エリアから1つの焦点検出エリアを選択するために、ユーザーにより手動操作される部材である。ボディ駆動制御装置214は、操作部材220を介して選択された焦点検出エリアにおいて焦点検出処理を行う。   The operation member 220 is a member that is manually operated by the user in order to select one focus detection area from a plurality of focus detection areas described later. The body drive control device 214 performs focus detection processing in the focus detection area selected via the operation member 220.

図2は、交換レンズ202の予定結像面、すなわち撮像面に設定した撮影画面上における焦点検出位置(焦点検出エリア)を示す図であり、後述する撮像素子212上の焦点検出画素列が焦点検出の際に撮影画面上で像をサンプリングする領域(焦点検出エリア、焦点検出位置)の一例を示す。この例では、矩形の撮影画面100上の中央(光軸上)および上下左右の25箇所に焦点検出エリア1601〜1625が配置される。長方形で示す焦点検出エリアの長手方向に、焦点検出画素が直線的に配列される。撮影画面100の中央部の焦点検出エリア1613などにおいては焦点検出画素が水平方向に配列され、撮影画面100の左右端部の焦点検出エリア1601および1625などにおいては焦点検出画素が垂直方向に配列される。   FIG. 2 is a diagram showing a focus detection position (focus detection area) on a scheduled imaging plane of the interchangeable lens 202, that is, a shooting screen set on the imaging plane. An example of a region (a focus detection area, a focus detection position) where an image is sampled on a shooting screen at the time of detection is shown. In this example, focus detection areas 1601 to 1625 are arranged at the center (on the optical axis) on the rectangular shooting screen 100 and at 25 locations in the vertical and horizontal directions. Focus detection pixels are linearly arranged in the longitudinal direction of the focus detection area indicated by a rectangle. The focus detection pixels are arranged in the horizontal direction in the focus detection area 1613 at the center of the shooting screen 100, and the focus detection pixels are arranged in the vertical direction in the focus detection areas 1601 and 1625 at the left and right ends of the shooting screen 100. The

図3および図4は撮像素子212の詳細な構成を示す正面図である。図3は図2において垂直方向に配置された焦点検出エリアの近傍を拡大した画素配列の詳細を示す。図4は図2において水平方向に配置された焦点検出エリアの近傍を拡大した画素配列の詳細を示す。撮像素子212には撮像画素310が二次元正方格子状に稠密に配列される。撮像画素310は赤画素(R)、緑画素(G)、青画素(B)からなり、ベイヤー配列の配置規則によって配置されている。   3 and 4 are front views showing a detailed configuration of the image sensor 212. FIG. FIG. 3 shows the details of the pixel arrangement in which the vicinity of the focus detection areas arranged in the vertical direction in FIG. 2 is enlarged. FIG. 4 shows details of the pixel arrangement in which the vicinity of the focus detection areas arranged in the horizontal direction in FIG. 2 is enlarged. Imaging pixels 310 are densely arranged on the imaging element 212 in a two-dimensional square lattice pattern. The imaging pixel 310 includes a red pixel (R), a green pixel (G), and a blue pixel (B), and is arranged according to a Bayer arrangement rule.

図3においては垂直方向に輝度が変化する像の焦点検出用に撮像画素310と同一の画素サイズを有する垂直方向焦点検出用の焦点検出画素313、314が交互に、本来緑画素と青画素が連続的に配置されるべき垂直方向の直線上に連続して配列される。同じく図4においては水平方向に輝度が変化する像の焦点検出用に撮像画素310と同一の画素サイズを有する水平方向焦点検出用の焦点検出画素315、316が交互に、本来緑画素と青画素が連続的に配置されるべき水平方向の直線上に連続して配列される。   In FIG. 3, focus detection pixels 313 and 314 for vertical focus detection having the same pixel size as the imaging pixel 310 are alternately used for focus detection of an image whose luminance changes in the vertical direction. They are continuously arranged on a straight line in the vertical direction to be continuously arranged. Similarly, in FIG. 4, focus detection pixels 315 and 316 for horizontal focus detection having the same pixel size as the imaging pixel 310 for focus detection of an image whose luminance changes in the horizontal direction are alternately green and blue pixels. Are continuously arranged on a horizontal straight line to be continuously arranged.

撮像画素310および焦点検出画素313、314、315、316の各々のマイクロレンズの形状は、元々画素サイズより大きな円形のマイクロレンズから画素サイズに対応した正方形の形状で切り出した形状をしている。   The shape of each microlens of the imaging pixel 310 and the focus detection pixels 313, 314, 315, and 316 is a shape obtained by cutting out from a circular microlens originally larger than the pixel size into a square shape corresponding to the pixel size.

撮像画素310は、矩形のマイクロレンズ10、遮光マスクで受光領域を正方形に制限された光電変換部11、および色フィルタ(不図示)から構成される。色フィルタは赤(R)、緑(G)、青(B)の3種類からなり、それぞれの色に対応する分光感度特性を有している。撮像素子212には、各色フィルタを備えた撮像画素310がベイヤー配列されている。   The imaging pixel 310 includes a rectangular microlens 10, a photoelectric conversion unit 11 whose light receiving area is limited to a square by a light shielding mask, and a color filter (not shown). The color filters include three types of red (R), green (G), and blue (B), and have spectral sensitivity characteristics corresponding to the respective colors. In the image pickup device 212, image pickup pixels 310 having respective color filters are arranged in a Bayer array.

焦点検出画素313、314、315、316には全ての色に対して焦点検出を行うために全ての可視光を透過する白色フィルタが設けられている。その白色フィルタは、緑画素、赤画素および青画素の分光感度特性を加算したような分光感度特性を有し、高い感度を示す光波長領域は緑画素、赤画素および青画素の各々において各色フィルタが高い感度を示す光波長領域を包括している。   The focus detection pixels 313, 314, 315, and 316 are provided with white filters that transmit all visible light in order to perform focus detection for all colors. The white filter has a spectral sensitivity characteristic such that the spectral sensitivity characteristics of the green pixel, the red pixel, and the blue pixel are added, and the light wavelength region exhibiting high sensitivity is each color filter in each of the green pixel, the red pixel, and the blue pixel. Includes a light wavelength region exhibiting high sensitivity.

焦点検出画素313は、図3に示すように矩形のマイクロレンズ10と遮光マスクで受光領域を正方形の上半分(正方形を水平線で2等分した場合の上半分)に制限された光電変換部13、および白色フィルタ(不図示)とから構成される。   As shown in FIG. 3, the focus detection pixel 313 includes a photoelectric conversion unit 13 in which a light receiving region is limited to an upper half of a square (upper half when a square is divided into two equal parts by a horizontal line) using a rectangular microlens 10 and a light shielding mask. And a white filter (not shown).

また、焦点検出画素314は、図3に示すように矩形のマイクロレンズ10と遮光マスクで受光領域を正方形の下半分(正方形を水平線で2等分した場合の下半分)に制限された光電変換部14、および白色フィルタ(不図示)とから構成される。   Further, as shown in FIG. 3, the focus detection pixel 314 is a photoelectric conversion in which a light receiving area is limited to a lower half of a square (lower half when a square is divided into two equal parts by a horizontal line) using a rectangular microlens 10 and a light shielding mask. And a white filter (not shown).

焦点検出画素313と焦点検出画素314とをマイクロレンズ10を重ね合わせて表示すると、遮光マスクで受光領域を正方形の半分に制限された光電変換部13、14が垂直方向に並んでいる。   When the focus detection pixel 313 and the focus detection pixel 314 are displayed with the microlens 10 superimposed, the photoelectric conversion units 13 and 14 in which the light receiving area is limited to a half of a square by a light shielding mask are arranged in the vertical direction.

また、上述した正方形の半分に制限された受光領域の部分に正方形を半分にした残りの部分を加えると、撮像画素310の受光領域と同じサイズの正方形となる。   Further, when the remaining portion obtained by halving the square is added to the portion of the light receiving region limited to the half of the square described above, a square having the same size as the light receiving region of the imaging pixel 310 is obtained.

焦点検出画素315は、図4に示すように矩形のマイクロレンズ10と遮光マスクで受光領域を正方形の左半分(正方形を垂直線で2等分した場合の左半分)に制限された光電変換部15、および白色フィルタ(不図示)とから構成される。   As shown in FIG. 4, the focus detection pixel 315 is a photoelectric conversion unit in which a light receiving region is limited to a left half of a square (left half when a square is divided into two equal parts by a vertical line) using a rectangular microlens 10 and a light shielding mask. 15 and a white filter (not shown).

また、焦点検出画素316は、図4に示すように矩形のマイクロレンズ10と遮光マスクで受光領域を正方形の右半分(正方形を垂直線で2等分した場合の右半分)に制限された光電変換部16、および白色フィルタ(不図示)とから構成される。   Further, as shown in FIG. 4, the focus detection pixel 316 is a photoelectric sensor in which the light receiving region is limited to the right half of a square (right half when the square is divided into two equal parts by a vertical line) using a rectangular microlens 10 and a light shielding mask. It is comprised from the conversion part 16 and a white filter (not shown).

焦点検出画素315と焦点検出画素316とをマイクロレンズ10を重ね合わせて表示すると、遮光マスクで受光領域を正方形の半分に制限された光電変換部15、16が水平方向に並んでいる。   When the focus detection pixel 315 and the focus detection pixel 316 are displayed with the microlens 10 superimposed, the photoelectric conversion units 15 and 16 in which the light receiving area is limited to a half of a square by a light shielding mask are arranged in the horizontal direction.

また、上述した正方形の半分に制限された受光領域の部分に正方形を半分にした残りの部分を加えると、撮像画素310の受光領域と同じサイズの正方形となる。   Further, when the remaining portion obtained by halving the square is added to the portion of the light receiving region limited to the half of the square described above, a square having the same size as the light receiving region of the imaging pixel 310 is obtained.

以上のような撮像画素と焦点検出画素の構成においては、一般的な光源のもとでは、緑色の撮像画素の出力レベルと焦点検出画素の出力レベルがほぼ等しくなり、赤色の撮像画素と青色の撮像画素の出力レベルはこれよりも小さくなる。   In the configuration of the imaging pixel and the focus detection pixel as described above, under a general light source, the output level of the green imaging pixel and the output level of the focus detection pixel are substantially equal, and the red imaging pixel and the blue detection pixel The output level of the imaging pixel is smaller than this.

上述した一対の焦点検出画素313、314、315、316は、例えば特開2009−124575号公報に開示される一対の測距瞳を通過する一対の焦点検出光束を受光し、一対の焦点検出信号を出力する。一対の焦点検出画素313、314、315、316の光電変換部13、14、15、16と一対の測距瞳とはマイクロレンズ10により光学的に共役な関係となっている。   The pair of focus detection pixels 313, 314, 315, and 316 described above receive a pair of focus detection light beams that pass through a pair of distance measurement pupils disclosed in, for example, Japanese Unexamined Patent Application Publication No. 2009-124575, and a pair of focus detection signals. Is output. The photoelectric conversion units 13, 14, 15, and 16 of the pair of focus detection pixels 313, 314, 315, and 316 and the pair of distance measurement pupils are in an optically conjugate relationship by the microlens 10.

また一対の測距瞳の位置は、一般に、複数のマイクロレンズ10が2次元状に配列されたマイクロレンズアレイから一対の測距瞳の位置する測距瞳面までの測距瞳距離が、光学系(交換レンズ202)の射出瞳距離と同一になるように設定される。複数の交換レンズが択一的に装着される場合には、複数の交換レンズの平均的な射出瞳距離に測距瞳距離を設定する。   In general, the distance between the pair of distance measurement pupils is the distance measurement pupil distance from the microlens array in which the plurality of microlenses 10 are two-dimensionally arranged to the distance measurement pupil plane where the pair of distance measurement pupils are located. It is set to be the same as the exit pupil distance of the system (interchangeable lens 202). When a plurality of interchangeable lenses are selectively attached, the distance measurement pupil distance is set to the average exit pupil distance of the plurality of interchangeable lenses.

上述した一対の焦点検出画素313、314を交互にかつ直線状に多数配置し、各焦点検出画素の光電変換部の出力を一対の測距瞳に対応した一対の出力グループにまとめることによって、一対の測距瞳の各々を通過する一対の光束が焦点検出画素配列上(垂直方向)に形成する一対の像の強度分布に関する情報が得られる。この情報に対して像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。さらに、像ズレ量に一対の測距瞳の重心間隔と測距瞳距離の比例関係に応じた変換演算を行うことによって、焦点検出位置(垂直方向)における予定結像面と結像面の偏差(デフォーカス量)が算出される。   A large number of the pair of focus detection pixels 313 and 314 described above are arranged alternately and linearly, and the output of the photoelectric conversion unit of each focus detection pixel is collected into a pair of output groups corresponding to the pair of distance measurement pupils. Information on the intensity distribution of the pair of images formed on the focus detection pixel array (vertical direction) by the pair of light beams passing through each of the distance measurement pupils is obtained. By applying an image shift detection calculation process (correlation calculation process, phase difference detection process) to this information, the image shift amount of a pair of images is detected by a so-called pupil division type phase difference detection method. Furthermore, by performing a conversion operation according to the proportional relationship between the distance between the center of gravity of the pair of distance measurement pupils and the distance measurement pupil distance, the deviation between the planned image formation surface and the image formation surface at the focus detection position (vertical direction) is performed. (Defocus amount) is calculated.

焦点検出画素315、316が受光する焦点検出光束も焦点検出画素313、314と同様に、一対の測距瞳が設定される。一対の焦点検出画素315、316を交互にかつ直線状に多数配置し、各焦点検出画素の光電変換部の出力を一対の測距瞳に対応した一対の出力グループにまとめることによって、一対の測距瞳をそれぞれ通過する一対の光束が焦点検出画素配列上(水平方向)に形成する一対の像の強度分布に関する情報が得られる。この情報に基づき、焦点検出位置(水平方向)における予定結像面と結像面の偏差(デフォーカス量)が算出される。   As with the focus detection pixels 313 and 314, a pair of distance measurement pupils is set for the focus detection light beams received by the focus detection pixels 315 and 316. A large number of pairs of focus detection pixels 315 and 316 are arranged alternately and in a straight line, and the output of the photoelectric conversion unit of each focus detection pixel is collected into a pair of output groups corresponding to the pair of distance measurement pupils. Information on the intensity distribution of the pair of images formed on the focus detection pixel array (horizontal direction) by the pair of light beams respectively passing through the distance pupil is obtained. Based on this information, the deviation (defocus amount) between the planned imaging plane and the imaging plane at the focus detection position (horizontal direction) is calculated.

図5は、本実施の形態のデジタルカメラ201の撮像動作を示すフローチャートである。ボディ駆動制御装置214は、ステップS100でデジタルカメラ201の電源がオンされると、ステップS110以降の撮像動作を開始する。ステップS100において撮像素子は一定周期(例えば1秒間に60フレーム)で撮像と画像表示とを繰り返すライブビュー動作モードに設定される。なお後述する高輝度フラグは初期化(OFF)される。   FIG. 5 is a flowchart showing the imaging operation of the digital camera 201 of the present embodiment. When the power of the digital camera 201 is turned on in step S100, the body drive control device 214 starts an imaging operation after step S110. In step S100, the imaging device is set to a live view operation mode in which imaging and image display are repeated at a constant cycle (for example, 60 frames per second). Note that a high-intensity flag described later is initialized (OFF).

この動作モードにおいては、図6に示すように露光制御が原則として周期的に切り替えられる。こうした露光制御は、露光制御機能部2141によって行われる。図6において横軸は時間であり、1フレーム分に相当する1単位時間は1/60秒である。図6(a)、(b)、(c)は、時間を略揃えることにより、対応付けて記載している。図6(a)において、通常はハッチングされていないフレームとして示す通常露光制御が実行される。通常露光においては、図6(b)、(c)に示すように、ライブビュー表示に適した露光量(表示画面の平均的な輝度が所定レベルになる露光量)で撮像素子の撮像画素および焦点検出画素の電荷蓄積時間が制御され、1/60秒ごとに撮像素子から画像信号が読み出され、EVFにより1/60秒ごとに更新表示にされる。電荷蓄積時間を制御する電子シャッタ制御の代わりに、撮像素子212のISO感度を変更することとしても良い。   In this operation mode, as shown in FIG. 6, exposure control is periodically switched in principle. Such exposure control is performed by the exposure control function unit 2141. In FIG. 6, the horizontal axis represents time, and one unit time corresponding to one frame is 1/60 second. 6A, 6B, and 6C are described in association with each other by substantially aligning the times. In FIG. 6A, the normal exposure control shown as a frame that is not normally hatched is executed. In the normal exposure, as shown in FIGS. 6B and 6C, the imaging pixels of the image sensor and the exposure pixels suitable for live view display (exposure amounts at which the average luminance of the display screen becomes a predetermined level) and The charge accumulation time of the focus detection pixel is controlled, an image signal is read from the image sensor every 1/60 seconds, and is updated and displayed every 1/60 seconds by EVF. Instead of the electronic shutter control for controlling the charge accumulation time, the ISO sensitivity of the image sensor 212 may be changed.

図6(a)において、ハッチングされたフレームとして示すように、周期的に、例えば4フレームに1回、後述する高輝度物体によるゴーストを検出するための高輝度用露光が行われる。高輝度用露光が行われる露光制御処理サイクルを、高輝度検出サイクルという。図6(b)、(c)に示すように、高輝度用露光時の露光量が通常露光よりも小さくなるように、撮像素子の撮像画素および焦点検出画素の電荷蓄積時間が制御される。後述するように、図5のステップS120における判定結果によっては高輝度用露光が行われい場合もあるため、高輝度用露光は必ずしも周期的に行われるとは限らない。   In FIG. 6A, as shown as a hatched frame, high-luminance exposure for detecting a ghost caused by a high-luminance object, which will be described later, is performed periodically, for example, once every four frames. An exposure control processing cycle in which exposure for high luminance is performed is called a high luminance detection cycle. As shown in FIGS. 6B and 6C, the charge accumulation times of the image pickup pixels and focus detection pixels of the image pickup device are controlled so that the exposure amount at the time of exposure for high luminance is smaller than the normal exposure. As will be described later, high-brightness exposure may not be performed depending on the determination result in step S120 of FIG. 5, and thus high-brightness exposure is not necessarily performed periodically.

ここで高輝度物体によるゴーストの発生について図7を用いて説明する。図7において、高輝度物体から出た光線120はレンズ110を通り、撮像面101上の点125に正規な像を形成する光線として到達する。また光線120はレンズ110の後面110b上の点1101で反射され、該反射光線130はさらにレンズ前面100a上の点1102にて反射される、該反射光線140はレンズ110を通り、撮像面101上の点145に有害光線として到達する。   Here, generation of a ghost due to a high-luminance object will be described with reference to FIG. In FIG. 7, a light beam 120 emitted from a high-luminance object passes through the lens 110 and reaches a point 125 on the imaging surface 101 as a light beam that forms a normal image. The light beam 120 is reflected at a point 1101 on the rear surface 110b of the lens 110, and the reflected light beam 130 is further reflected at a point 1102 on the lens front surface 100a. The reflected light beam 140 passes through the lens 110 and is reflected on the imaging surface 101. This point 145 is reached as a harmful ray.

これによりいわゆるゴーストが発生する。明確な像を形成しないいわゆるフレアもゴーストに含まれる。上記ゴーストが発生する位置において、正規光の量に比較してゴースト量が無視出来ない量となると、表示画面中で視認できるとともに、上記ゴーストが発生する位置近傍の焦点検出エリアにおける焦点検出に悪影響を与えることになる。すなわちゴーストの原因となる有害光線は、撮影レンズの絞り開口で規制された 一対の測距瞳を通る正規な光線以外の経路で焦点検出画素に入射するため、一対の焦点検出画素の一方にのみに多く入射したり、正規な像の結像面とは光軸方向の位置が異なる面に結像する。そのためにゴースト像の近傍で焦点検出を行うと、焦点検出が不能となったり、焦点検出結果に大きな誤差が発生することになる。   This causes a so-called ghost. The so-called flare that does not form a clear image is also included in the ghost. If the ghost amount becomes a non-negligible amount compared to the amount of regular light at the position where the ghost occurs, it can be visually recognized on the display screen and adversely affects the focus detection in the focus detection area near the position where the ghost occurs. Will give. In other words, harmful rays that cause ghosts are incident on the focus detection pixels through a path other than the normal rays passing through the pair of distance measuring pupils regulated by the aperture opening of the photographing lens, and therefore only one of the pair of focus detection pixels. Or an image is formed on a surface whose position in the optical axis direction is different from that of a regular image. Therefore, if focus detection is performed in the vicinity of the ghost image, focus detection becomes impossible or a large error occurs in the focus detection result.

ステップS110において、今回のフレームが高輝度検出サイクルにおけるフレーム(図6(a)の例では4フレームに1回)であるか判定する。高輝度検出サイクルであった場合はステップS120に進み、そうでない場合はステップS200以降の通常露光時の一連の動作に進む。   In step S110, it is determined whether the current frame is a frame in the high luminance detection cycle (once every four frames in the example of FIG. 6A). If it is a high-intensity detection cycle, the process proceeds to step S120, and if not, the process proceeds to a series of operations during normal exposure after step S200.

ステップS120においては前回のフレームで得られた画像中に飽和領域が存在するか否かを判定する。例えばAD変換後の画素信号に対し、AD変換の最大値を示す画素信号が所定単位面積あたり所定個数以上存在する場合、飽和領域が存在すると判定する。この判定は、高輝度物体情報検出機能部2150によって行われる。ステップS120で飽和領域がない、すなわち高輝度物体がないと判定された場合はステップS130で高輝度フラグをOFFして、ステップS200以降の通常露光時の一連の動作に進む。高輝度フラグについては、後述するステップS150にて説明する。   In step S120, it is determined whether or not a saturated region exists in the image obtained in the previous frame. For example, if a predetermined number or more of pixel signals indicating the maximum value of AD conversion exist for a pixel signal after AD conversion, a saturated region is determined to exist. This determination is performed by the high luminance object information detection function unit 2150. If it is determined in step S120 that there is no saturated region, that is, there is no high-luminance object, the high-luminance flag is turned off in step S130, and the process proceeds to a series of operations during normal exposure after step S200. The high brightness flag will be described later in step S150.

ステップS120で飽和領域があると判定された場合は、ステップS140で高輝度検出用の露光量で撮像素子の露光制御を行い、画像信号を読み出す。ここで高輝度検出用の露光量とは前述したように通常露光よりも露光量が小さい量であり、例えば通常露光量の1/8〜1/64である。高輝度検出用の露光量での露光制御は、露光制御機能部2141によって行われる。   If it is determined in step S120 that there is a saturated region, exposure control of the image sensor is performed with an exposure amount for high luminance detection in step S140, and an image signal is read out. Here, the exposure amount for high-luminance detection is an amount that is smaller than the normal exposure amount as described above, and is, for example, 1/8 to 1/64 of the normal exposure amount. Exposure control with an exposure amount for high brightness detection is performed by an exposure control function unit 2141.

ステップS150では読み出された画像信号に基づいて画面上での輝度分布を求め、高輝度物体の像が画面上に存在するか否か判定する。例えば通常露光時の露光制御において、適正な露光量の基準として設定された輝度に対して所定輝度以上ある部分を高輝度物体像と判定する。あるいは通常露光時の画面内の輝度のヒストグラム分布のピーク位置の輝度に対して所定輝度以上ある部分を高輝度物体像と判定する。この高輝度物体の像の判定は、高輝度物体情報検出機能部2150によって行われる。   In step S150, a luminance distribution on the screen is obtained based on the read image signal, and it is determined whether or not an image of a high-luminance object exists on the screen. For example, in exposure control during normal exposure, a portion having a predetermined luminance or higher than the luminance set as a reference for an appropriate exposure amount is determined as a high luminance object image. Alternatively, a portion having a predetermined luminance or higher than the luminance at the peak position of the luminance histogram distribution in the screen during normal exposure is determined as a high luminance object image. The determination of the image of the high luminance object is performed by the high luminance object information detection function unit 2150.

ステップS150で高輝度物体の像がないと判定された場合は、ステップS160で高輝度フラグをOFFにして、ステップS110に戻り、次回の撮像フレームの動作を開始する。高輝度フラグは、高輝度検出サイクルでの高輝度物体像の有無についての判定結果を示すフラグである。   If it is determined in step S150 that there is no image of a high-luminance object, the high-luminance flag is turned off in step S160, the process returns to step S110, and the next imaging frame operation is started. The high-intensity flag is a flag indicating a determination result regarding the presence / absence of a high-intensity object image in the high-intensity detection cycle.

ステップS150で高輝度物体像があると判定された場合は、ステップS170では、高輝度フラグをONにした後、高輝度物体像が存在すると判定された領域内において輝度分布のピークの位置を高輝度物体像の位置とするとともに、該ピーク位置の周囲において該ピーク輝度から所定輝度差以内の領域に基づき高輝度物体の大きさを決定する。この高輝度物体の大きさの決定は、高輝度物体情報検出機能部2150によって行われる。   If it is determined in step S150 that there is a high-luminance object image, in step S170, after turning on the high-luminance flag, the position of the peak of the luminance distribution in the region where it is determined that the high-luminance object image exists is set to high. The position of the luminance object image is determined, and the size of the high luminance object is determined based on a region within the predetermined luminance difference from the peak luminance around the peak position. The size of the high brightness object is determined by the high brightness object information detection function unit 2150.

以上のステップS120、ステップS140、ステップS170の処理の詳細について、図8〜10を用いて説明する。図8は通常露光時の画面内の被写体の構図例を示しており、画面800の中央付近に位置する主要被写体の人物810、背景の山820、空830および高輝度物体の太陽840が画面800を構成する。   Details of the processing in steps S120, S140, and S170 will be described with reference to FIGS. FIG. 8 shows a composition example of the subject in the screen during normal exposure. A person 810 as a main subject, a background mountain 820, a sky 830, and a sun 840 as a high-intensity object located near the center of the screen 800. Configure.

図9は図8に対応して画面800内の輝度分布を明暗で示した領域900を表しており、領域900は領域910〜940を含む。主要被写体の人物810は逆光状態になっているため、これに対応する領域910は最も暗い。高輝度物体である太陽840の周囲は広範囲にわたって飽和領域となっているため、これに対応する領域940は最も明るい。山820に対応する領域920は領域910に次いで暗く、空830に対応する領域930は領域940に次いで明るい。   FIG. 9 shows a region 900 in which the luminance distribution in the screen 800 is shown in light and dark corresponding to FIG. 8, and the region 900 includes regions 910 to 940. Since the main subject person 810 is backlit, the corresponding area 910 is darkest. Since the periphery of the sun 840, which is a high-luminance object, is a saturated region over a wide range, the corresponding region 940 is brightest. A region 920 corresponding to the mountain 820 is darker than the region 910, and a region 930 corresponding to the sky 830 is brighter than the region 940.

図10は高輝度物体露光で得られた画像の輝度分布であって、画面1000は、図9の領域900に対応している。露光量が大幅に小さくなっているので、太陽840に対応する高輝度部分領域1400のみが輝度分布上で明確に認識され、太陽840以外の部分領域は太陽840に対応する高輝度部分領域1400の輝度に比較して大幅に低い背景輝度領域1500として認識される。図10において画面1000上の高輝度部分領域1400の中心位置(または輝度のヒストグラム分布のピーク位置)を高輝度物体像の位置P0として判定する。位置P0は、画面1000の中心C0を原点として、座標(X0,Y0)で表されるものとして判定する。また高輝度物体像の位置P0(X0,Y0)を中心とした直径D0の範囲を高輝度物体像の大きさとする。直径D0は、例えば、その範囲内の平均輝度が高輝度物体像の位置P0(X0,Y0)の輝度から所定輝度を差し引いた輝度となるように定められる。   FIG. 10 shows the luminance distribution of the image obtained by the high-luminance object exposure, and the screen 1000 corresponds to the area 900 in FIG. Since the exposure amount is greatly reduced, only the high-luminance partial region 1400 corresponding to the sun 840 is clearly recognized on the luminance distribution, and the partial regions other than the sun 840 are the high-luminance partial region 1400 corresponding to the sun 840. It is recognized as a background luminance area 1500 that is significantly lower than the luminance. In FIG. 10, the center position of the high luminance partial area 1400 on the screen 1000 (or the peak position of the luminance histogram distribution) is determined as the position P0 of the high luminance object image. The position P0 is determined to be represented by coordinates (X0, Y0) with the center C0 of the screen 1000 as the origin. Further, the range of the diameter D0 around the position P0 (X0, Y0) of the high luminance object image is set as the size of the high luminance object image. For example, the diameter D0 is determined such that the average luminance within the range is a luminance obtained by subtracting a predetermined luminance from the luminance at the position P0 (X0, Y0) of the high-luminance object image.

ステップS180ではステップS170で求められた高輝度物体像(高輝度被写体)の位置、大きさ、および輝度を含む高輝度物体情報に基づいて、画面800上でゴーストの発生する位置、ゴーストの大きさ、およびゴーストの輝度などのゴースト情報を推定する。このゴースト情報の推定は、ゴースト情報推定機能部2151によって行われる。図11〜図13はステップS180で行われる処理の例を説明するための図である。図11ではゴーストの発生する位置を、画面800上において高輝度物体の太陽840の像の位置P1と画面中心位置C1とを通る直線150上にあるとして推定して表示している。これは一般に光学系におけるレンズなどの光学要素の形状は光軸中心に関して回転対称形であり、このような形状のレンズ表面での反射により発生するゴーストは必ず高輝度物体像の位置と画面中心位置とを通る直線上に発生するという知見に基づいた推定である。この推定では高輝度物体像の位置情報のみに基づいてゴースト発生位置を推定することができる。   In step S180, based on the high-luminance object information including the position, size, and luminance of the high-luminance object image (high-luminance subject) obtained in step S170, the position where the ghost occurs and the size of the ghost on the screen 800. And ghost information such as ghost brightness. The ghost information is estimated by the ghost information estimation function unit 2151. 11 to 13 are diagrams for explaining an example of processing performed in step S180. In FIG. 11, the position where the ghost is generated is estimated and displayed on the screen 800 as being on a straight line 150 passing through the position P1 of the image of the sun 840 of the high brightness object and the screen center position C1. In general, the shape of an optical element such as a lens in an optical system is rotationally symmetric with respect to the center of the optical axis. It is an estimation based on the knowledge that it occurs on a straight line passing through. In this estimation, the ghost generation position can be estimated based only on the position information of the high-luminance object image.

図12はさらに高輝度物体像の大きさの情報も使用して、直線151と直線152とにより規定されるゴースト発生領域を推定して表示した画面800の一例を示した図である。直線151と直線152とにより規定されるゴースト発生領域は、直線150を中心として高輝度物体像の大きさの情報に応じた幅を有する領域として推定される。   FIG. 12 is a diagram showing an example of a screen 800 that estimates and displays a ghost generation region defined by the straight line 151 and the straight line 152 using information on the size of the high-luminance object image. A ghost generation region defined by the straight line 151 and the straight line 152 is estimated as a region having a width corresponding to information on the size of the high-luminance object image with the straight line 150 as the center.

図13は交換レンズ202との通信で得られるレンズ情報に基づき、光線追跡計算によってゴーストの発生位置G1、G2、およびゴーストの輝度分布を推定して表示した画面800の一例を示した図である。レンズ情報は、例えば、光学系(交換レンズ202)の構成、レンズの屈折率、レンズ面の形状、レンズの焦点距離、レンズの配置、レンズに対するコートの有無およびコートの種類、レンズ各面の反射率、絞り位置、絞り開口径またはF値などを含む。ゴーストの輝度分布については、図13においては、2つのゴーストが発生している。ゴーストの発生位置G1、G2の近傍の範囲R11、R21がそれぞれ最も輝度の高い領域として表され、範囲R11、R21の外側の範囲R12、R22はそれぞれR11、R21よりも輝度が低い領域として表されている。   FIG. 13 is a diagram showing an example of a screen 800 displayed by estimating the ghost occurrence positions G1 and G2 and the luminance distribution of the ghost by ray tracing calculation based on the lens information obtained by communication with the interchangeable lens 202. . The lens information includes, for example, the configuration of the optical system (interchangeable lens 202), the refractive index of the lens, the shape of the lens surface, the focal length of the lens, the lens arrangement, the presence / absence of a coat on the lens and the type of coat, and the reflection of each lens surface. Including the ratio, aperture position, aperture diameter or F value. Regarding the luminance distribution of the ghost, two ghosts are generated in FIG. The ranges R11 and R21 in the vicinity of the ghost occurrence positions G1 and G2 are each expressed as a region having the highest luminance, and the ranges R12 and R22 outside the ranges R11 and R21 are respectively expressed as regions having lower luminance than R11 and R21. ing.

このような光線追跡計算は時間がかかるので、次のようにしてもよい。すなわち、カメラボディ203側のボディ駆動制御装置214から交換レンズ202側のレンズ駆動制御装置206に高輝度物体像の位置、大きさ、および輝度を含む高輝度物体情報を送信する。レンズ駆動制御装置206は、受信した高輝度物体情報とレンズ情報とに基づき、予め記憶しているテーブルを参照して求めたゴーストの位置、および輝度分布などを含むゴースト情報をボディ駆動制御装置214に送り返す。レンズ駆動制御装置206が予め記憶しているテーブルには、レンズ情報と高輝度物体情報とに応じてゴースト情報を経験的に、または予め実験もしくは計算により得られた結果が格納されている。図11を用いて前述したようにゴーストが高輝度物体像の位置と画面中心位置とを通る直線上に発生するという条件を用いれば、高輝度物体像の位置情報として、2次元データによる位置情報ではなく画面中心からの距離データを使用することにより、上記テーブルのメモリ容量を大幅に削減することができる。   Since such ray tracing calculation takes time, it may be performed as follows. That is, high-luminance object information including the position, size, and luminance of the high-luminance object image is transmitted from the body drive control device 214 on the camera body 203 side to the lens drive control device 206 on the interchangeable lens 202 side. The lens drive control device 206 receives the ghost information including the ghost position and the luminance distribution obtained by referring to the table stored in advance based on the received high-luminance object information and lens information, and the body drive control device 214. Send back to. The table stored in advance by the lens drive control device 206 stores ghost information empirically in accordance with lens information and high-luminance object information, or results obtained by experiment or calculation in advance. As described above with reference to FIG. 11, using the condition that a ghost occurs on a straight line passing through the position of the high-luminance object image and the center position of the screen, the position information based on the two-dimensional data is used as the position information of the high-luminance object image. Instead, the memory capacity of the table can be greatly reduced by using distance data from the center of the screen.

ステップS180の処理を終えるとステップS110に戻り、次回の撮像フレームの動作を開始する。   When the process of step S180 is completed, the process returns to step S110, and the operation of the next imaging frame is started.

一方ステップS110にて今回の撮像フレームが高輝度検出サイクルでないと判定された場合は、ステップS200でライブビュー表示用の適正露出画像を得るための露光量で撮像素子の露光制御を行い、画像信号を読み出す。露光制御は露光制御機能部2141によって行われ、画像信号の読み出しは画像信号読み出し機能部2147によって行われる。ステップS210では得られた画像信号に基づいて液晶表示素子駆動回路215を制御し、液晶表示素子216に画像表示を行う。表示画像の生成は、画像信号処理機能部2149によって行われ、液晶表示素子駆動回路215の制御は、表示制御機能部2145によって行われる。   On the other hand, if it is determined in step S110 that the current imaging frame is not a high-intensity detection cycle, the exposure control of the imaging device is performed with an exposure amount for obtaining an appropriate exposure image for live view display in step S200, and the image signal Is read. Exposure control is performed by the exposure control function unit 2141, and image signal reading is performed by the image signal reading function unit 2147. In step S210, the liquid crystal display element driving circuit 215 is controlled based on the obtained image signal, and an image is displayed on the liquid crystal display element 216. The generation of the display image is performed by the image signal processing function unit 2149, and the control of the liquid crystal display element driving circuit 215 is performed by the display control function unit 2145.

ステップS220ではユーザーにより選択されている焦点検出エリアの位置を液晶表示素子216に表示した画像800に重畳して表示するように液晶表示素子駆動回路215を制御する。例えば図14に示す液晶表示素子216の表示画面2160において、画像800に重畳して、25カ所の焦点検出エリア1601〜1625のうちの、ユーザーにより選択された1つの焦点検出エリア1621に対応する枠線を赤色表示する。こうした表示画像の生成は、画像信号処理機能部2149によって行われ、液晶表示素子駆動回路215の制御は、表示制御機能部2145によって行われる。   In step S220, the liquid crystal display element driving circuit 215 is controlled so as to superimpose and display the position of the focus detection area selected by the user on the image 800 displayed on the liquid crystal display element 216. For example, on the display screen 2160 of the liquid crystal display element 216 shown in FIG. 14, a frame corresponding to one focus detection area 1621 selected by the user from among 25 focus detection areas 1601 to 1625 superimposed on the image 800. The line is displayed in red. Such display image generation is performed by the image signal processing function unit 2149, and the liquid crystal display element driving circuit 215 is controlled by the display control function unit 2145.

ステップS230では高輝度フラグがONであるか否かを判定し、OFFの場合はステップS270に進み、ONの場合はステップS240に進む。ステップS240では、直近の高輝度検出サイクルのステップS180で得られたゴースト情報に基づき、図14に示すように画像800および焦点検出エリア1601〜1625の表示に重畳して、太陽840の像である高輝度物体像に起因するゴーストの発生位置G1およびG2、ならびに範囲R11、R12、R21、およびR22を表示するように液晶表示素子駆動回路215を制御する。液晶表示素子駆動回路215の制御は、表示制御機能部2145によって行われる。ユーザーは、例えば焦点検出エリア1621を選択した場合、ステップS220で赤色表示された焦点検出エリア1621の一部がゴーストの範囲R21またはR22に重なっていることを視認できる。   In step S230, it is determined whether or not the high luminance flag is ON. If it is OFF, the process proceeds to step S270. If it is ON, the process proceeds to step S240. In step S240, an image of the sun 840 is superimposed on the display of the image 800 and the focus detection areas 1601 to 1625 as shown in FIG. 14 based on the ghost information obtained in step S180 of the latest high-intensity detection cycle. The liquid crystal display element driving circuit 215 is controlled to display the ghost generation positions G1 and G2 caused by the high-luminance object image and the ranges R11, R12, R21, and R22. The liquid crystal display element driving circuit 215 is controlled by a display control function unit 2145. For example, when the focus detection area 1621 is selected, the user can visually recognize that a part of the focus detection area 1621 displayed in red in step S220 overlaps the ghost range R21 or R22.

ステップS250ではユーザーにより選択された焦点検出エリアの位置とゴースト情報とに基づいて、該焦点検出エリアの焦点検出に対してゴーストの影響があるか否かを判定する。焦点検出に対してゴーストの影響があるか否かの判定は、焦点検出動作決定機能部2152によって行われる。例えば図14に示すゴーストの発生位置G1およびG2の近傍の範囲R11、R12、R21、およびR22に一部が含まれる焦点検出エリア1612、1616、1617、1621のいずれかがユーザーにより選択された場合には、ゴーストの影響ありと判定して、ステップS260に進む。   In step S250, based on the position of the focus detection area selected by the user and the ghost information, it is determined whether or not there is a ghost effect on the focus detection of the focus detection area. The focus detection operation determination function unit 2152 determines whether there is a ghost effect on focus detection. For example, when the user selects one of the focus detection areas 1612, 1616, 1617, and 1621 partially included in the ranges R11, R12, R21, and R22 in the vicinity of the ghost generation positions G1 and G2 shown in FIG. Is determined to have a ghost effect, and the process proceeds to step S260.

ユーザーにより選択された焦点検出エリアの一部がゴーストの範囲R11、R12、R21、およびR22に含まれるか否かは、直近の高輝度検出サイクルのステップS180で算出されたゴーストの発生位置、大きさ、および輝度を用いて、所定の判定式に基づき判定される。所定の判定式は、例えば、ゴーストの発生位置G1およびG2の各々からその選択された焦点検出エリアまでの距離、またはゴーストの発生位置G1およびG2の輝度とその焦点検出エリア近傍の輝度との輝度差に応じて予め経験的に、または実験によって定められる。   Whether or not a part of the focus detection area selected by the user is included in the ghost ranges R11, R12, R21, and R22 depends on the ghost occurrence position calculated in step S180 of the most recent high-intensity detection cycle. The determination is made based on a predetermined determination formula using the brightness and the luminance. The predetermined determination formula is, for example, the distance from each of the ghost generation positions G1 and G2 to the selected focus detection area, or the luminance between the luminance of the ghost generation positions G1 and G2 and the luminance in the vicinity of the focus detection area. It is determined empirically or experimentally depending on the difference.

ステップS260では、該焦点検出エリアの表示フレームをフラッシングすることにより、ユーザーに対して選択した焦点検出エリアでの焦点検出および焦点調節のためのレンズ駆動を禁止した旨を知らせ、ステップS110に戻り、次回の撮像フレームの動作を開始する。   In step S260, the display frame of the focus detection area is flushed to inform the user that lens driving for focus detection and focus adjustment in the selected focus detection area is prohibited, and the process returns to step S110. The operation of the next imaging frame is started.

一方ステップS250で選択された焦点検出エリアの焦点検出に対してゴーストの影響がないと判定された場合には、ステップS270に進む。ステップS270では選択された焦点検出エリアにおける焦点検出画素のデータ(焦点検出信号)に基づき焦点検出を行い、デフォーカス量を算出する。こうした焦点検出およびデフォーカス量算出は、焦点検出機能部2142によって行われる。   On the other hand, if it is determined that there is no ghost effect on the focus detection in the focus detection area selected in step S250, the process proceeds to step S270. In step S270, focus detection is performed based on focus detection pixel data (focus detection signal) in the selected focus detection area, and a defocus amount is calculated. Such focus detection and defocus amount calculation are performed by the focus detection function unit 2142.

ステップS280では合焦か否かを判定し、合焦の場合にはステップS300に進み、非合焦の場合はステップS290に進む。合焦状態とは、ステップS270で算出されたデフォーカス量の絶対値が予め定められた閾値以下である状態をいう。合焦か否かの判定は、焦点検出機能部2142によって行われる。   In step S280, it is determined whether or not the subject is in focus. If the subject is in focus, the process proceeds to step S300. If the subject is out of focus, the process proceeds to step S290. The in-focus state refers to a state where the absolute value of the defocus amount calculated in step S270 is equal to or less than a predetermined threshold value. The focus detection function unit 2142 determines whether or not it is in focus.

ステップS290ではデフォーカス量をレンズ駆動制御装置206へ送信し、交換レンズ202のフォーカシング用レンズ210を合焦位置に駆動させる。デフォーカス量の信頼性が低い場合や焦点検出不能の場合にはその旨をレンズ駆動制御装置206へ送信し、交換レンズ202のフォーカシング用レンズ210の駆動制御は更新しない。その後、ステップS110へ戻り、次回の撮像フレームの動作を開始する。レンズ駆動制御装置206へのデフォーカス量や焦点検出不能の旨の制御情報は、焦点調節機能部2142によって生成され、その制御情報の送信は、制御装置間通信機能部2144によって行われる。   In step S290, the defocus amount is transmitted to the lens drive control device 206, and the focusing lens 210 of the interchangeable lens 202 is driven to the in-focus position. If the reliability of the defocus amount is low or focus detection is impossible, this is transmitted to the lens drive control unit 206, and the drive control of the focusing lens 210 of the interchangeable lens 202 is not updated. Then, it returns to step S110 and starts the operation of the next imaging frame. Control information indicating that the defocus amount to the lens drive control device 206 and focus detection is impossible is generated by the focus adjustment function unit 2142, and transmission of the control information is performed by the inter-control device communication function unit 2144.

ステップS300では、撮影ONであるか否か、すなわち不図示の操作部材による撮影の指示がなされているか否かを判定し、撮影の指示がなされていない場合には、ステップS110へ戻り、次回の撮像フレームの動作を開始する。ステップS300で撮影の指示がなされていた場合には、ステップS310で撮像用の適正露光量で撮像素子212の露光制御を行い、撮像画像の画像信号を読み出す。撮影の指示がなされているか否かの判定は、撮影機能部2148によって行われる。露光制御は露光制御機能部2141によって行われ、画像信号の読み出しは画像信号読み出し機能部2147によって行われる。   In step S300, it is determined whether or not shooting is ON, that is, whether or not a shooting instruction is given by an operating member (not shown). If shooting is not instructed, the process returns to step S110, and the next time. The operation of the imaging frame is started. If a shooting instruction has been issued in step S300, exposure control of the image sensor 212 is performed with an appropriate exposure amount for imaging in step S310, and an image signal of the captured image is read. The shooting function unit 2148 determines whether or not a shooting instruction has been issued. Exposure control is performed by the exposure control function unit 2141, and image signal reading is performed by the image signal reading function unit 2147.

ステップS320では読み出された画像信号を撮像画像データとしてメモリカード219に記録して、ステップS110へ戻り、次回の撮像フレームの動作を開始する。撮像画像データのメモリカード219への記録は、記録制御機能部2146によって行われる。   In step S320, the read image signal is recorded in the memory card 219 as captured image data, and the process returns to step S110 to start the operation of the next imaging frame. Recording of the captured image data to the memory card 219 is performed by the recording control function unit 2146.

次に図5のステップS270で用いられる一般的な像ズレ検出演算処理(相関演算処理)の詳細について説明する。焦点検出画素列から読み出された一対のデータ列(A1〜A1、A2〜A2:Mはデータ数)に対し、以下のような相関演算式(1)による演算を行い、相関量C(k)を演算する。
C(k)=Σ|A1−A2n+k| ・・・・(1)
Next, details of a general image shift detection calculation process (correlation calculation process) used in step S270 of FIG. 5 will be described. For a pair of data strings (A1 1 to A1 M , A2 1 to A2 M : M is the number of data) read from the focus detection pixel string, the following correlation calculation formula (1) is used to calculate the correlation The quantity C (k) is calculated.
C (k) = Σ | A1 n −A2 n + k | (1)

式(1)において、Σ演算はnについて累積される。nのとる範囲は、像ずらし量kに応じてA1、A1n+1、A2n+k、A2n+1+kのデータが存在する範囲に限定される。像ずらし量kは整数であり、データ列のデータ間隔を単位とした相対的シフト量である。 In equation (1), Σ operations are accumulated for n. The range taken by n is limited to the range in which the data of A1 n , A1 n + 1 , A2 n + k , A2 n + 1 + k exists according to the image shift amount k. The image shift amount k is an integer and is a relative shift amount with the data interval of the data string as a unit.

式(1)の演算結果は、特開2010−128205号公報に開示されるように、一対のデータの相関が高い像ずらし量(例えばk=kj=2)において相関量C(k)が極小になる。相関量C(k)が小さいほど一対のデータの相関度は高い。   As disclosed in Japanese Patent Application Laid-Open No. 2010-128205, the calculation result of Expression (1) has a minimum correlation amount C (k) when the image shift amount (for example, k = kj = 2) with a high correlation between a pair of data. become. The smaller the correlation amount C (k), the higher the degree of correlation between the pair of data.

式(2)〜(5)による3点内挿の手法を用いて連続的な相関量に対する極小値C(ks)を与える像ずらし量ksを求める。
ks=kj+D/SLOP ・・・(2)
C(ks)= C(kj)−|D| ・・・(3)
D={C(kj−1)−C(kj+1)}/2 ・・・(4)
SLOP=MAX{C(kj+1)−C(kj),C(kj−1)−C(kj)}・・(5)
An image shift amount ks that gives a minimum value C (ks) with respect to a continuous correlation amount is obtained by using a three-point interpolation method according to equations (2) to (5).
ks = kj + D / SLOP (2)
C (ks) = C (kj) − | D | (3)
D = {C (kj−1) −C (kj + 1)} / 2 (4)
SLOP = MAX {C (kj + 1) -C (kj), C (kj-1) -C (kj)} (5)

式(2)で算出された像ずらし量ksの信頼性があるかどうかは、以下のようにして判定される。特開2010−128205号公報に開示されるように、一対のデータの相関度が低い場合は、内挿された相関量の極小値C(ks)の値が大きくなる。したがって、極小値C(ks)が所定の閾値以上の場合は算出された像ずらし量の信頼性が低いと判定し、算出された像ずらし量ksをキャンセルする。   Whether or not the image shift amount ks calculated by Expression (2) is reliable is determined as follows. As disclosed in Japanese Patent Application Laid-Open No. 2010-128205, when the degree of correlation between a pair of data is low, the value of the minimum value C (ks) of the interpolated correlation amount increases. Therefore, when the minimum value C (ks) is equal to or greater than a predetermined threshold, it is determined that the reliability of the calculated image shift amount is low, and the calculated image shift amount ks is canceled.

あるいは、極小値C(ks)をデータのコントラストで規格化するために、コントラストに比例した値となる差分SLOPで極小値C(ks)を除した値が所定値以上の場合は、算出された像ずらし量の信頼性が低いと判定し、算出された像ずらし量ksをキャンセルする。   Alternatively, in order to normalize the minimum value C (ks) with the contrast of the data, the value obtained by dividing the minimum value C (ks) by the difference SLOP that is proportional to the contrast is equal to or greater than a predetermined value. It is determined that the reliability of the image shift amount is low, and the calculated image shift amount ks is canceled.

あるいはまた、コントラストに比例した値となる差分SLOPが所定値以下の場合は、被写体が低コントラストであり、算出された像ずらし量の信頼性が低いと判定し、算出された像ずらし量ksをキャンセルする。   Alternatively, if the difference SLOP that is a value proportional to the contrast is equal to or smaller than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated image shift amount is low, and the calculated image shift amount ks is Cancel.

特開2010−128205号公報に開示されるように、一対のデータの相関度が低く、像ずらし量kのシフト範囲kmin〜kmaxの間で相関量C(k)の落ち込みがない場合は、極小値C(ks)を求めることができず、このような場合は焦点検出不能と判定する。 As disclosed in JP 2010-128205 A, when the degree of correlation between a pair of data is low and there is no drop in the correlation amount C (k) between the shift ranges k min to k max of the image shift amount k In such a case, it is determined that the focus cannot be detected.

算出された像ずらし量ksの信頼性があると判定された場合は、式(6)により像ズレ量shftに換算される。式(6)において、検出ピッチPYは焦点検出画素の画素ピッチの2倍の大きさを有する。
shft=PY×ks ・・・(6)
When it is determined that the calculated image shift amount ks is reliable, the image shift amount shft is converted by the equation (6). In equation (6), the detection pitch PY has a size twice as large as the pixel pitch of the focus detection pixels.
shft = PY × ks (6)

式(6)で算出された像ズレ量shftに所定の変換係数Kdを乗じてデフォーカス量defへ変換する。なお変換係数Kdは焦点検出画素が受光する一対の光束の開き角に対応しており、上述した測距瞳距離を一対の測距瞳の重心間隔で除算した値に相当する。
def=Kd×shft ・・・(7)
The image shift amount shft calculated by Expression (6) is multiplied by a predetermined conversion coefficient Kd to convert it to a defocus amount def. The conversion coefficient Kd corresponds to the opening angle of the pair of light beams received by the focus detection pixel, and corresponds to a value obtained by dividing the distance measuring pupil distance described above by the center of gravity distance between the pair of distance measuring pupils.
def = Kd × shft (7)

以上のように本発明においては、高輝度物体情報を検出するとともに、該高輝度物体情報に基づきゴースト情報を推定し、該ゴースト情報に基づき焦点検出動作を制御している。したがって、ゴーストが発生した場合においても、焦点検出不能に陥ったり、焦点検出結果の誤差増大に伴って焦点調節動作が誤動作することを防止できる。   As described above, in the present invention, high-luminance object information is detected, ghost information is estimated based on the high-luminance object information, and focus detection operation is controlled based on the ghost information. Therefore, even when a ghost occurs, it is possible to prevent the focus detection operation from being disabled or the focus adjustment operation from malfunctioning due to an increase in the error of the focus detection result.

−−−変形例−−−
(1)上述した実施の形態にて説明した図5の動作フローチャートにおいては、ゴースト発生位置近傍に位置する焦点検出エリアでの焦点検出動作を禁止しているが、焦点検出動作を行った後に、該焦点検出結果に応じた焦点調節動作を禁止するようにしてもよい。
---- Modified example ---
(1) In the operation flowchart of FIG. 5 described in the above-described embodiment, the focus detection operation in the focus detection area located in the vicinity of the ghost occurrence position is prohibited, but after performing the focus detection operation, The focus adjustment operation according to the focus detection result may be prohibited.

(2)上述した実施の形態にて説明した図5の動作フローチャートにおいては、ゴースト発生位置近傍に位置する焦点検出エリアでの焦点検出動作を一律に禁止している。しかし、ゴースト輝度がゴーストの周囲の輝度に比較して所定比率(例えば10%)以下の場合は、ゴーストの影響が小さいとして、焦点検出を許可するようにしてもよい。 (2) In the operation flowchart of FIG. 5 described in the above-described embodiment, the focus detection operation in the focus detection area located in the vicinity of the ghost occurrence position is uniformly prohibited. However, when the ghost luminance is a predetermined ratio (for example, 10%) or less as compared with the luminance around the ghost, the focus detection may be permitted because the influence of the ghost is small.

(3)上述した実施の形態にて説明した図5の動作フローチャートにおいては、選択された焦点検出エリアがゴースト発生位置近傍に位置する場合には該焦点検出エリアでの焦点検出動作を禁止している。しかし、選択された焦点検出エリアの近傍のゴーストの影響のない焦点検出エリアに自動的に切替えて焦点検出動作を行うようにしてもよい。 (3) In the operation flowchart of FIG. 5 described in the above-described embodiment, when the selected focus detection area is located in the vicinity of the ghost generation position, the focus detection operation in the focus detection area is prohibited. Yes. However, the focus detection operation may be performed by automatically switching to a focus detection area in the vicinity of the selected focus detection area that is not affected by a ghost.

(4)上述した実施の形態にて説明した図5の動作フローチャートにおいては、ゴースト発生位置近傍に位置する焦点検出エリアでの焦点検出動作を禁止しているが、上述した焦点検出処理における相関演算式を、式(1)から他の演算式に変更するようにしてもよい。 (4) In the operation flowchart of FIG. 5 described in the above-described embodiment, the focus detection operation in the focus detection area located in the vicinity of the ghost occurrence position is prohibited, but the correlation calculation in the focus detection process described above. The expression may be changed from the expression (1) to another arithmetic expression.

ゴースト発生位置近傍に位置する焦点検出エリアでの焦点検出処理において、焦点検出画素が検出する一対の像は、ゴーストの影響を受けて光量バランスが崩れている可能性がある。そこで、焦点検出処理における相関演算式として、式(1)に比して光量バランスの崩れに対して像ズレ検出精度を維持できるタイプの相関演算を施すために例えば式(8)を用いる。   In the focus detection process in the focus detection area located in the vicinity of the ghost generation position, the pair of images detected by the focus detection pixels may be affected by the ghost and the light amount balance may be lost. Therefore, as a correlation calculation expression in the focus detection process, for example, Expression (8) is used in order to perform a correlation calculation that can maintain the image shift detection accuracy with respect to the loss of the light amount balance as compared with Expression (1).

すなわち焦点検出画素列から読み出された一対のデータ列(A1〜A1、A2〜A2:Mはデータ数)に対し、特開2007−333720号公報に開示された、以下に示す相関演算式(8)を用い、相関量C(k)を演算する。
C(k)=Σ|A1×A2n+1+k−A2n+k×A1n+1| ・・・(8)
That is, for a pair of data strings (A1 1 to A1 M , A2 1 to A2 M : M is the number of data) read out from the focus detection pixel string, disclosed in Japanese Patent Application Laid-Open No. 2007-333720 is shown below. The correlation amount C (k) is calculated using the correlation calculation formula (8).
C (k) = Σ | A1 n × A2 n + 1 + k -A2 n + k × A1 n + 1 | ··· (8)

式(8)において、Σ演算はnについて累積される。nのとる範囲は、像ずらし量kに応じてA1、A1n+1、A2n+k、A2n+1+kのデータが存在する範囲に限定される。像ずらし量kは整数であり、データ列のデータ間隔を単位とした相対的シフト量である。 In equation (8), Σ operations are accumulated for n. The range taken by n is limited to the range in which the data of A1 n , A1 n + 1 , A2 n + k , A2 n + 1 + k exists according to the image shift amount k. The image shift amount k is an integer and is a relative shift amount with the data interval of the data string as a unit.

(5)上述した実施の形態においては、露光制御は撮像素子212の電荷蓄積時間を変更することによって行ってもよいし、撮像素子212のゲインを変更したり、絞りの開口径の変更によっても露光制御を行うことが可能である。 (5) In the above-described embodiment, exposure control may be performed by changing the charge accumulation time of the image sensor 212, or by changing the gain of the image sensor 212 or by changing the aperture diameter of the diaphragm. Exposure control can be performed.

(6)上述した実施の形態においては、一定周期で行われる通常露光動作の数回に1回の割合で高輝度検出用の露光動作を行っている。しかし、ダイナミックレンジの大きな撮像素子212を用いる場合や高輝度物体検出に高い検出精度が要求されない場合には通常露光動作で得られた撮像画像から高輝度物体検出を行うことも可能である。 (6) In the above-described embodiment, the exposure operation for high brightness detection is performed at a rate of once per several times of the normal exposure operation performed at a constant cycle. However, when the image sensor 212 having a large dynamic range is used or when high detection accuracy is not required for high-brightness object detection, high-brightness object detection can also be performed from the captured image obtained by the normal exposure operation.

(7)上述した実施の形態においては、焦点検出を行う焦点検出エリアはユーザーが手動で選択しているが、これに限定されるものではない。例えば画像処理により全体画像の中から特定の画像パターン(例えば人間の顔画像)を検出し、該特定の画像パターンの位置に応じて自動的に1つまたは複数の焦点検出エリアを選択するようにしてもよい。また電源ON時の最初のステップにおいて複数の焦点検出エリアにおいて同時に焦点検出を行い、得られた複数の焦点検出結果に応じて自動的に1つの焦点検出エリアを選択するようにしてもよい。例えば複数の焦点検出結果の中で最至近の結果を出した焦点検出エリアを選択することもできる。 (7) In the above-described embodiment, the focus detection area for performing focus detection is manually selected by the user. However, the present invention is not limited to this. For example, a specific image pattern (for example, a human face image) is detected from the entire image by image processing, and one or more focus detection areas are automatically selected according to the position of the specific image pattern. May be. Alternatively, focus detection may be performed simultaneously in a plurality of focus detection areas in the first step when the power is turned on, and one focus detection area may be automatically selected according to the obtained plurality of focus detection results. For example, it is possible to select a focus detection area that gives the closest result among a plurality of focus detection results.

(8)上述した実施の形態においては、複数の焦点検出エリアの中から選択された焦点検出エリアがゴースト発生位置の近傍にあるか否かで焦点検出動作を変更しているが、本発明はこれに限定されるものではない。焦点検出エリアを1つしか備えない場合、例えば図2において画面中央の焦点検出エリア1613のみを備える場合においても、本発明の効果を得ることができる。 (8) In the embodiment described above, the focus detection operation is changed depending on whether or not the focus detection area selected from the plurality of focus detection areas is in the vicinity of the ghost occurrence position. It is not limited to this. Even when only one focus detection area is provided, for example, when only the focus detection area 1613 at the center of the screen in FIG. 2 is provided, the effect of the present invention can be obtained.

(9)図3、図4に示す撮像素子212の部分拡大図では、各画素に1つの光電変換部を有する一対の焦点検出画素313,314および一対の焦点検出画素315,316を備える例を示したが、1つの焦点検出画素内に一対の光電変換部を備えるようにしてもよい。図15、図16は図3、4に対応した撮像素子212の部分拡大図であり、焦点検出画素311は一対の光電変換部13、14を備え、焦点検出画素312は一対の光電変換部15、16を備える。 (9) In the partially enlarged view of the image sensor 212 shown in FIGS. 3 and 4, an example including a pair of focus detection pixels 313 and 314 and a pair of focus detection pixels 315 and 316 each having one photoelectric conversion unit. Although shown, a pair of photoelectric conversion units may be provided in one focus detection pixel. FIGS. 15 and 16 are partial enlarged views of the image sensor 212 corresponding to FIGS. 3 and 4. The focus detection pixel 311 includes a pair of photoelectric conversion units 13 and 14, and the focus detection pixel 312 includes a pair of photoelectric conversion units 15. , 16.

図15に示す焦点検出画素311は、図3に示す焦点検出画素313と焦点検出画素314とのペアに相当した機能を果たし、図16に示す焦点検出画素312は、図4に示す焦点検出画素315と焦点検出画素316とのペアに相当した機能を果たす。焦点検出画素311、312は、図15および図16に示すようにマイクロレンズ10と一対の光電変換部13,14または一対の光電変換部15,16とから構成される。焦点検出画素311、312には白色フィルタが配置されている。その白色フィルタは、光電変換を行うフォトダイオードの分光感度特性と、赤外カットフィルタ(不図示)の分光感度特性とを総合した分光感度特性となる。すなわち、焦点検出画素311、312は、緑画素、赤画素および青画素の分光感度特性を加算したような分光感度特性を示す。高い感度を示す光波長領域は、緑画素、赤画素および青画素の各々において各色フィルタが高い感度を示す光波長領域を包括している。   The focus detection pixel 311 shown in FIG. 15 performs a function corresponding to the pair of the focus detection pixel 313 and the focus detection pixel 314 shown in FIG. 3, and the focus detection pixel 312 shown in FIG. 16 is the focus detection pixel shown in FIG. It performs a function corresponding to a pair of 315 and the focus detection pixel 316. As shown in FIGS. 15 and 16, the focus detection pixels 311 and 312 include the microlens 10 and a pair of photoelectric conversion units 13 and 14 or a pair of photoelectric conversion units 15 and 16. A white filter is disposed in the focus detection pixels 311 and 312. The white filter has a spectral sensitivity characteristic that combines the spectral sensitivity characteristic of a photodiode that performs photoelectric conversion and the spectral sensitivity characteristic of an infrared cut filter (not shown). That is, the focus detection pixels 311 and 312 exhibit spectral sensitivity characteristics that are obtained by adding the spectral sensitivity characteristics of the green pixel, the red pixel, and the blue pixel. The light wavelength region exhibiting high sensitivity includes light wavelength regions in which each color filter exhibits high sensitivity in each of the green pixel, the red pixel, and the blue pixel.

(10)上述した実施の形態における撮像素子では焦点検出画素が白色フィルタを備えた例を示したが、撮像画素と同じ色フィルタ(例えば緑フィルタ)を備えるようにした場合にも本発明を適用することができる。 (10) In the image pickup device according to the above-described embodiment, an example in which the focus detection pixel includes a white filter has been described. However, the present invention is also applied to a case where the same color filter as the image pickup pixel (for example, a green filter) is provided. can do.

例えば図16に示した焦点検出画素312のみを2次元に配列して撮像素子212を構成するとともに、2次元に配置された焦点検出画素312にベイヤー配列した色フィルタを備えるようにしてもよい。このような構成において、撮像時は焦点検出画素312の一対の光電変換部15、16のデータを加算することにより、撮像画素310と同等のデータを算出することが可能である。それとともに、焦点検出時は同色の焦点検出画素312同士で相関演算を行うことにより、色別の焦点検出結果を得ることが出来、輝度のみではコントラストが出ないような場合にも焦点検出が可能になる。   For example, only the focus detection pixels 312 shown in FIG. 16 may be two-dimensionally arranged to form the image sensor 212, and color filters arranged in a Bayer arrangement may be provided on the two-dimensionally arranged focus detection pixels 312. In such a configuration, data equivalent to that of the imaging pixel 310 can be calculated by adding data of the pair of photoelectric conversion units 15 and 16 of the focus detection pixel 312 during imaging. At the same time, by performing correlation calculation between the focus detection pixels 312 of the same color at the time of focus detection, it is possible to obtain a focus detection result for each color, and focus detection is possible even when there is no contrast only with luminance. become.

(11)上述した実施の形態においては、焦点検出画素の分光感度が可視光波長領域の全体をカバーするように設定されているが、焦点検出画素の分光感度はこれに限定されることはない。例えば焦点検出画素の分光感度を緑画素の分光感度と同様な分光感度にすることもできる。 (11) In the embodiment described above, the spectral sensitivity of the focus detection pixel is set so as to cover the entire visible light wavelength region, but the spectral sensitivity of the focus detection pixel is not limited to this. . For example, the spectral sensitivity of the focus detection pixel can be set to the same spectral sensitivity as that of the green pixel.

(12)上述した実施の形態においては、ゴースト発生位置近傍に位置する焦点検出エリアでの焦点検出動作を一律禁止している。しかし、変形例(10)のように焦点検出画素の分光感度が特定の色(例えば緑)に対応している場合には、高輝度物体像の検出において高輝度物体像の色を検出し、該色に応じて焦点検出動作を制御するようにしてもよい。例えば、図2のステップS250において肯定判定されても、高輝度物体像の色が焦点検出画素の分光感度から外れている場合には処理をステップS270へ進めて焦点検出動作を行い、外れていない場合には焦点検出動作を禁止するために処理をステップS260へ進める。 (12) In the above-described embodiment, the focus detection operation in the focus detection area located in the vicinity of the ghost occurrence position is uniformly prohibited. However, when the spectral sensitivity of the focus detection pixel corresponds to a specific color (for example, green) as in Modification (10), the color of the high-luminance object image is detected in the detection of the high-luminance object image, The focus detection operation may be controlled according to the color. For example, even if an affirmative determination is made in step S250 of FIG. 2, if the color of the high-luminance object image deviates from the spectral sensitivity of the focus detection pixel, the process proceeds to step S270 to perform the focus detection operation and is not deviated. In this case, the process proceeds to step S260 to prohibit the focus detection operation.

(13)上述した実施の形態においては、図5のステップS120における前回のフレームで得られた画像中に飽和領域が存在するか否かの判定結果によっては高輝度物体像検出やゴースト情報推定が行われない。しかし、図5のステップS110において高輝度検出サイクルが肯定判定されたら必ず高輝度物体像検出やゴースト情報推定が行われるようにしてもよい。 (13) In the above-described embodiment, high-luminance object image detection or ghost information estimation is performed depending on the determination result of whether or not a saturated region exists in the image obtained in the previous frame in step S120 in FIG. Not done. However, if an affirmative determination is made in step S110 in FIG. 5, high-luminance object image detection or ghost information estimation may be performed.

(14)上述した実施の形態においては、撮像素子としてCCDイメージセンサやCMOSイメージセンサ等を用いることもできる。 (14) In the above-described embodiment, a CCD image sensor, a CMOS image sensor, or the like can be used as the image sensor.

(15)本発明は瞳分割型位相差検出用の焦点検出画素を備える撮像素子に限定されるものではなく、所謂コントラスト検出に用いられる焦点検出画素を備える撮像素子にも適用することができる。 (15) The present invention is not limited to an image sensor provided with a focus detection pixel for pupil division type phase difference detection, and can also be applied to an image sensor provided with a focus detection pixel used for so-called contrast detection.

(16)上述した実施形態における撮像素子では撮像画素がベイヤー配列の色フィルタを備えた例を示したが、色フィルタの構成や配列はこれに限定されることはない。例えば、補色フィルタ(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列やベイヤー配列以外の配列にも本発明を適用することができる。また色フィルタを備えないモノクロの撮像素子にも本発明を適用することができる。 (16) In the imaging device according to the above-described embodiment, an example in which the imaging pixel includes a Bayer array color filter is shown, but the configuration and the array of the color filter are not limited to this. For example, the present invention can be applied to an arrangement other than the arrangement of complementary color filters (green: G, yellow: Ye, magenta: Mg, cyan: Cy) or a Bayer arrangement. Further, the present invention can also be applied to a monochrome image sensor that does not include a color filter.

(17)撮像装置としては、上述したような、カメラボディに交換レンズが装着される構成のデジタルカメラに限定されない。例えば、レンズ一体型のデジタルカメラあるいはビデオカメラにも本発明を適用することができる。さらには、携帯電話などに内蔵される小型カメラモジュール、監視カメラやロボット用の視覚認識装置、車載カメラなどにも適用できる。 (17) The imaging device is not limited to a digital camera having a configuration in which an interchangeable lens is attached to the camera body as described above. For example, the present invention can be applied to a lens-integrated digital camera or video camera. Furthermore, the present invention can be applied to a small camera module built in a mobile phone, a surveillance camera, a visual recognition device for a robot, an in-vehicle camera, and the like.

10 マイクロレンズ、11、13、14、15、16 光電変換部、
100 撮影画面、
101 撮像面、110 レンズ、120 光線、
125、145、1101、1102 点、130、140 反射光線、
150、151、152 直線、
201 デジタルカメラ、202 交換レンズ、203 カメラボディ、
204 マウント部、206 レンズ駆動制御装置、
208 ズーミング用レンズ、209 レンズ、210 フォーカシング用レンズ、
211 絞り、212 撮像素子、213 電気接点、
214 ボディ駆動制御装置、
215 液晶表示素子駆動回路、216 液晶表示素子、217 接眼レンズ、
219 メモリカード、220 操作部材、221 AD変換装置、
310 撮像画素、
311、312、313、314、315、316 焦点検出画素、
800、1000 画面、810 人物、820 山、830 空、840 太陽、
900、910、920、930、940、1400、1500 領域、
1601、1602、1603、1604、1605、1606、1607、1608、1609、1610、1611、1612、1613、1614、1615、1616、1617、1618、1619、1620、1621、1622、1623、1624、1625 焦点検出エリア、
2141 露光制御機能部、2142 焦点検出機能部、2143 焦点調節機能部、
2144 制御装置間通信機能部、2145 表示制御機能部、
2146 記録制御機能部、2147 画像信号読み出し機能部、
2148 撮影機能部、2149 画像信号処理機能部、
2150 高輝度物体情報検出機能部、2151 ゴースト情報推定機能部、
2152 焦点検出動作決定機能部、
2160 表示画面
10 microlens, 11, 13, 14, 15, 16 photoelectric conversion unit,
100 shooting screen,
101 imaging surface, 110 lens, 120 rays,
125, 145, 1101, 1102 points, 130, 140 reflected rays,
150, 151, 152 straight line,
201 digital camera, 202 interchangeable lens, 203 camera body,
204 mount unit, 206 lens drive control device,
208 zooming lens, 209 lens, 210 focusing lens,
211 Aperture, 212 Image sensor, 213 Electrical contact,
214 body drive control device,
215 liquid crystal display element driving circuit, 216 liquid crystal display element, 217 eyepiece,
219 memory card, 220 operation member, 221 AD converter,
310 imaging pixels,
311, 312, 313, 314, 315, 316 focus detection pixel,
800, 1000 screens, 810 people, 820 mountains, 830 sky, 840 sun,
900, 910, 920, 930, 940, 1400, 1500 region,
1601, 1602, 1603, 1604, 1605, 1606, 1607, 1608, 1609, 1610, 1611, 1612, 1613, 1614, 1615, 1616, 1617, 1618, 1619, 1620, 1621, 1622, 1623, 1624, 1625 Detection area,
2141 exposure control function unit, 2142 focus detection function unit, 2143 focus adjustment function unit,
2144 inter-control device communication function unit, 2145 display control function unit,
2146 recording control function unit, 2147 image signal readout function unit,
2148 shooting function unit, 2149 image signal processing function unit,
2150 high brightness object information detection function unit, 2151 ghost information estimation function unit,
2152 focus detection operation determination function unit,
2160 Display screen

Claims (11)

撮像信号を出力する撮像画素と、撮影光学系の瞳の一対の領域を通過した一対の光束を受光して第1及び第2のデータ列を出力する焦点検出画素とが2次元的に混在して配置された撮像素子と、
撮像面上に設定された焦点検出エリアにおける前記第1及び第2のデータ列に対して第1の相関演算又は第2の相関演算を行い、デフォーカス量を算出する焦点検出部と、
前記撮像信号に基づき、前記撮像面上において高輝度物体像の位置を検出する高輝度物体像位置検出と、
前記高輝度物体像の位置に基づき、前記高輝度物体像に対応して形成されるゴーストの位置を推定するゴースト位置推定とを備え、
前記焦点検出部は、前記焦点検出エリアの位置が前記ゴースト位置推定により推定された前記ゴーストの位置近傍に含まれない場合に前記第1の相関演算を行い、前記焦点検出エリアの位置が前記ゴースト位置推定部により推定された前記ゴーストの位置近傍に含まれる場合に前記第2の相関演算を行うことを特徴とする撮像装置。
An imaging pixel that outputs an imaging signal and a focus detection pixel that receives a pair of light beams that have passed through a pair of regions of the pupil of the imaging optical system and outputs the first and second data strings are two-dimensionally mixed. An image sensor arranged
A focus detection unit that calculates a defocus amount by performing a first correlation calculation or a second correlation calculation on the first and second data strings in the focus detection area set on the imaging surface;
A high-luminance object image position detection unit that detects a position of a high-luminance object image on the imaging surface based on the imaging signal;
A ghost position estimating unit that estimates a position of a ghost formed corresponding to the high-luminance object image based on the position of the high-luminance object image;
The focus detection unit performs the first correlation calculation when the position of the focus detection area is not included in the vicinity of the ghost position estimated by the ghost position estimation unit , and the position of the focus detection area is An imaging apparatus that performs the second correlation calculation when included in the vicinity of the ghost position estimated by a ghost position estimation unit .
撮影光学系の瞳の一対の領域を通過した一対の光束を受光して第1及び第2のデータ列を出力する焦点検出画素を有する撮像素子と、
撮像面上に設定された焦点検出エリアにおける前記第1及び第2のデータ列に対して第1の相関演算又は第2の相関演算を行い、デフォーカス量を算出する焦点検出部と、
前記撮像面上において高輝度物体像の位置を検出する高輝度物体像位置検出部と、
前記高輝度物体像の位置に基づき、前記高輝度物体像に対応して形成されるゴーストの位置を推定するゴースト位置推定部とを備え、
前記焦点検出部は、前記焦点検出エリアの位置が前記ゴースト位置推定部により推定された前記ゴーストの位置近傍に含まれない場合に前記第1の相関演算を行い、前記焦点検出エリアの位置が前記ゴースト位置推定部により推定された前記ゴーストの位置近傍に含まれる場合に前記第2の相関演算を行うことを特徴とする撮像装置
An imaging device having focus detection pixels that receive a pair of light beams that have passed through a pair of regions of the pupil of the photographing optical system and output the first and second data strings;
A focus detection unit that calculates a defocus amount by performing a first correlation calculation or a second correlation calculation on the first and second data strings in the focus detection area set on the imaging surface;
A high-brightness object image position detection unit that detects the position of the high-brightness object image on the imaging surface;
A ghost position estimating unit that estimates a position of a ghost formed corresponding to the high-luminance object image based on the position of the high-luminance object image;
The focus detection unit performs the first correlation calculation when the position of the focus detection area is not included in the vicinity of the ghost position estimated by the ghost position estimation unit, and the position of the focus detection area is An imaging apparatus that performs the second correlation calculation when included in the vicinity of the ghost position estimated by a ghost position estimation unit .
請求項1または2に記載の撮像装置において、
前記第1の相関演算は、前記第1及び第2のデータ列を相対的にずらしながら、前記第1のデータ列内の第1データと前記第2のデータ列内の第2データとの差の積算値を算出し、
前記第2の相関演算は、前記第1及び第2のデータ列を相対的にずらしながら、前記第1のデータ列内の2つの第1データと前記第2のデータ列内の2つの第2データとについて前記2つの第1データの一方と前記2つの第2データの一方との積と、前記2つの第1データの他方と前記2つの第2データの他方との積との差の積算値を算出することを特徴とする撮像装置。
The imaging device according to claim 1 or 2,
In the first correlation calculation, the difference between the first data in the first data string and the second data in the second data string is determined while relatively shifting the first and second data strings. The integrated value of
The second correlation calculation includes two first data in the first data string and two second data in the second data string while relatively shifting the first and second data strings. Integration of the difference between the product of one of the two first data and one of the two second data and the product of the other of the two first data and the other of the two second data An imaging device characterized by calculating a value .
請求項1〜3のいずれか一項に記載の撮像装置において、In the imaging device according to any one of claims 1 to 3,
前記焦点検出画素は、前記焦点検出エリア内に複数個配列されて焦点検出画素列を構成し、  A plurality of the focus detection pixels are arranged in the focus detection area to form a focus detection pixel row,
前記焦点検出画素列は、前記第1及び第2のデータ列を出力することを特徴とする撮像装置。  The focus detection pixel column outputs the first and second data columns, and the imaging apparatus is characterized in that:
請求項1または請求項1を引用する請求項4に記載の撮像装置において、
前記高輝度物体像位置検出は、撮像画像を得るための第1露光量における前記撮像信号と、前記第1露光量よりも小さい第2露光量における前記撮像信号とに基づき、前記高輝度物体像の位置を検出することを特徴とする撮像装置。
In the imaging device according to claim 4 which cites claim 1 or claim 1 ,
The high-luminance object image position detection unit is configured to detect the high-luminance object based on the imaging signal at a first exposure amount for obtaining a captured image and the imaging signal at a second exposure amount that is smaller than the first exposure amount. An image pickup apparatus for detecting a position of an image.
請求項1乃至のいずれか1項に記載の撮像装置において、
前記ゴースト位置推定は、前記高輝度物体像の位置と、前記撮像面と前記撮影光学系の光軸との交点とを結ぶ直線上に前記ゴーストの位置を推定することを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 5 ,
The ghost position estimation unit estimates the position of the ghost on a straight line connecting the position of the high-luminance object image and the intersection of the imaging surface and the optical axis of the photographing optical system. .
請求項1乃至のいずれか1項に記載の撮像装置において、
前記ゴースト位置推定は、前記撮影光学系の構成に関する情報に基づき、前記ゴーストの位置を推定することを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 6 ,
The imaging apparatus according to claim 1, wherein the ghost position estimation unit estimates the position of the ghost based on information relating to a configuration of the photographing optical system.
請求項1乃至のいずれか1項に記載の撮像装置において、
前記高輝度物体像の輝度に基づき前記ゴーストのゴースト輝度を推定するゴースト輝度推定とをさらに備えることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 7 ,
An imaging apparatus, further comprising: a ghost luminance estimation unit that estimates a ghost luminance of the ghost based on a luminance of the high luminance object image.
請求項1乃至のいずれか1項に記載の撮像装置において、
前記デフォーカス量に基づき焦点調節動作を行う焦点調節部を更に含み、
前記焦点調節は、前記焦点検出エリアの位置が前記ゴースト位置推定により推定された前記ゴーストの位置近傍に含まれないときは前記焦点調節動作を行い
前記焦点検出部の動作は、前記焦点検出エリアの位置が前記ゴースト位置推定部により推定された前記ゴーストの位置近傍に含まれるときは禁止されることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 8 ,
A focus adjustment unit that performs a focus adjustment operation based on the defocus amount ;
The focus adjustment unit performs the focus adjustment operation when the position of the focus detection area is not included in the vicinity of the ghost position estimated by the ghost position estimation unit ,
The operation of the focus detection unit is prohibited when the position of the focus detection area is included in the vicinity of the ghost position estimated by the ghost position estimation unit .
請求項1または5に記載の撮像装置において、
前記撮像信号に基づき撮像画像を表示するとともに、前記撮像画像に重畳して前記焦点検出エリアの位置と前記ゴースト位置推定により推定された前記ゴーストの位置とを表示する表示手段を備えることを特徴とする撮像装置。
In the imaging device according to claim 1 or 5 ,
The image processing apparatus includes a display unit that displays a captured image based on the captured image signal, and displays the position of the focus detection area and the position of the ghost estimated by the ghost position estimation unit while being superimposed on the captured image. An imaging device.
撮影光学系の瞳の一対の領域を通過した一対の光束を受光して一対の焦点検出信号を出力する焦点検出画素を有する撮像素子と、
撮像面上に設定された複数の焦点検出エリアから所定の焦点検出エリアを選択する選択部と、
前記選択部によって選択された前記所定の焦点検出エリアにおける前記一対の焦点検出信号に基づきデフォーカス量を算出する焦点検出部と、
前記撮像面上において高輝度物体像の位置を検出する高輝度物体像位置検出部と、
前記高輝度物体像の位置に基づき、前記高輝度物体像に対応して形成されるゴーストの位置を推定するゴースト位置推定部と、
前記所定の焦点検出エリアの位置が前記ゴースト位置推定部により推定された前記ゴーストの位置近傍に含まれる場合に前記所定の焦点検出エリアを前記ゴーストの位置近傍に含まれない焦点検出エリアに変更する変更部と、を備え、
前記焦点検出部は、前記所定の焦点検出エリアの位置が前記ゴースト位置推定部により推定された前記ゴーストの位置近傍に含まれない場合に前記所定の焦点検出エリアにおける前記一対の焦点検出信号に基づきデフォーカス量を算出し、前記所定の焦点検出エリアの位置が前記ゴースト位置推定部により推定された前記ゴーストの位置近傍に含まれる場合に前記変更部によって変更された前記焦点検出エリアにおける前記一対の焦点検出信号に基づきデフォーカス量を算出することを特徴とする撮像装置。
An imaging device having a focus detection pixel that receives a pair of light beams that have passed through a pair of regions of a pupil of a photographing optical system and outputs a pair of focus detection signals;
A selection unit that selects a predetermined focus detection area from a plurality of focus detection areas set on the imaging surface;
A focus detection unit that calculates a defocus amount based on the pair of focus detection signals in the predetermined focus detection area selected by the selection unit;
A high-brightness object image position detection unit that detects the position of the high-brightness object image on the imaging surface;
A ghost position estimation unit that estimates a position of a ghost formed corresponding to the high-luminance object image based on the position of the high-luminance object image;
When the position of the predetermined focus detection area is included in the vicinity of the ghost position estimated by the ghost position estimation unit, the predetermined focus detection area is changed to a focus detection area not included in the vicinity of the ghost position. A change unit, and
The focus detection unit is based on the pair of focus detection signals in the predetermined focus detection area when the position of the predetermined focus detection area is not included in the vicinity of the ghost position estimated by the ghost position estimation unit. A defocus amount is calculated, and when the position of the predetermined focus detection area is included in the vicinity of the ghost position estimated by the ghost position estimation unit, the pair of pairs in the focus detection area changed by the change unit An image pickup apparatus that calculates a defocus amount based on a focus detection signal .
JP2011001164A 2011-01-06 2011-01-06 Imaging device Active JP5747510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011001164A JP5747510B2 (en) 2011-01-06 2011-01-06 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011001164A JP5747510B2 (en) 2011-01-06 2011-01-06 Imaging device

Publications (2)

Publication Number Publication Date
JP2012141549A JP2012141549A (en) 2012-07-26
JP5747510B2 true JP5747510B2 (en) 2015-07-15

Family

ID=46677876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011001164A Active JP5747510B2 (en) 2011-01-06 2011-01-06 Imaging device

Country Status (1)

Country Link
JP (1) JP5747510B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014038258A1 (en) 2012-09-06 2014-03-13 富士フイルム株式会社 Imaging device and focus control method
JP6218389B2 (en) * 2013-02-07 2017-10-25 キヤノン株式会社 Image processing apparatus and image processing method
JP6124703B2 (en) * 2013-06-21 2017-05-10 キヤノン株式会社 Imaging apparatus and control method thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004126359A (en) * 2002-10-04 2004-04-22 Nikon Corp Automatic focusing camera
JP2006129084A (en) * 2004-10-28 2006-05-18 Canon Inc Apparatus and method of imaging
JP2006184321A (en) * 2004-12-24 2006-07-13 Canon Inc Focus detecting device and optical equipment equipped with focus detecting device
JP4931227B2 (en) * 2007-05-21 2012-05-16 キヤノン株式会社 Image processing apparatus and image processing program
JP5104104B2 (en) * 2007-07-31 2012-12-19 株式会社ニコン Imaging device
JP4571179B2 (en) * 2007-12-07 2010-10-27 パナソニック株式会社 Imaging device

Also Published As

Publication number Publication date
JP2012141549A (en) 2012-07-26

Similar Documents

Publication Publication Date Title
EP1975695B1 (en) Focus detection device, focusing state detection method and imaging apparatus
JP4770560B2 (en) Imaging apparatus, camera, and image processing method
JP4935162B2 (en) Imaging apparatus, camera, and image processing method
JP4857877B2 (en) Imaging device and camera
US8259215B2 (en) Image pickup apparatus having focus control using phase difference detection
JP4935161B2 (en) Imaging apparatus, camera, and image processing method
US7783185B2 (en) Image sensor, imaging device and imaging method
JP5565105B2 (en) Imaging device
JP5458475B2 (en) Focus detection apparatus and imaging apparatus
US7711261B2 (en) Imaging device, camera and image processing method
JP5699480B2 (en) Focus detection device and camera
US20110085786A1 (en) Focus adjusting apparatus and focus adjusting method
JP2009141390A (en) Image sensor and imaging apparatus
JP2008040087A (en) Imaging device, imaging apparatus and focus detecting device
JP6478670B2 (en) Image processing apparatus and control method thereof
JP2012113189A (en) Imaging apparatus
JP5609232B2 (en) Imaging device
JP6642628B2 (en) Imaging device and imaging device
JP2011128302A (en) Imaging apparatus
JP5747510B2 (en) Imaging device
JP5600941B2 (en) Focus detection apparatus and imaging apparatus
JP5724208B2 (en) Imaging device
JP5440585B2 (en) Digital camera
JP2014139675A (en) Focus adjustment device
JP2015148819A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150427

R150 Certificate of patent or registration of utility model

Ref document number: 5747510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250