JP2012128343A - Camera - Google Patents

Camera Download PDF

Info

Publication number
JP2012128343A
JP2012128343A JP2010281903A JP2010281903A JP2012128343A JP 2012128343 A JP2012128343 A JP 2012128343A JP 2010281903 A JP2010281903 A JP 2010281903A JP 2010281903 A JP2010281903 A JP 2010281903A JP 2012128343 A JP2012128343 A JP 2012128343A
Authority
JP
Japan
Prior art keywords
focus detection
sensor
phase difference
area
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010281903A
Other languages
Japanese (ja)
Inventor
Akira Ezawa
朗 江沢
Natsuki Shirai
夏樹 白井
Eiji Toki
英史 土岐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010281903A priority Critical patent/JP2012128343A/en
Publication of JP2012128343A publication Critical patent/JP2012128343A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve focusing accuracy of a camera.SOLUTION: The camera comprises: selection means 101 configured to select an arbitrary focus detection area from a plurality of focus detection areas within a photographic image plane; focus detection means 108 arranged in each of the plurality of focus detection areas, having sensor lines including a plurality of light receiving sensors arranged at a plurality of different positions in the focus detection areas, and configured to detect a focus adjustment state of a photographic optical system based on a phase difference of an image obtained from the sensor line corresponding to the focus detection area selected by the selection means 101; scene recognition means 102 configured to recognize a photographic scene based on image information on an imaging sensor 229; and control means 101 configured to select a sensor used for phase difference detection from the plurality of positional sensor lines corresponding the focus detection area selected by the selection means 101 and to control the focus detection means 108 so as to detect the focus adjustment state by using a signal from the selected light receiving sensor.

Description

本発明は、カメラに関する。   The present invention relates to a camera.

撮像素子の中に配置された焦点検出用画素列からの信号により焦点調節状態を検出する、いわゆる撮像素子位相差AF(オートフォーカス)技術が知られている(特許文献1参照)。焦点検出用画素列は、予め配設される位置と長さが定められている。   A so-called image sensor phase difference AF (autofocus) technique for detecting a focus adjustment state based on a signal from a focus detection pixel array arranged in the image sensor is known (see Patent Document 1). The focus detection pixel column has a predetermined position and length.

特開2007-279312号公報JP 2007-279212 A

従来技術では、焦点検出用画素列の長さ方向の全ての画素からの信号を用いて焦点検出演算を行うので、主要被写体からの光束を受けない画素からの信号が含まれる場合は合焦精度を高められないという問題があった。   In the prior art, focus detection calculation is performed using signals from all the pixels in the length direction of the focus detection pixel row. Therefore, if signals from pixels that do not receive the light flux from the main subject are included, focusing accuracy is included. There was a problem that could not be raised.

本発明によるカメラは、撮影画面内の複数の領域に対応付けてそれぞれ設けられた複数の焦点検出領域から、任意の焦点検出領域を選択する選択手段と、複数の焦点検出領域の各々に配置されており、且つ該各焦点検出領域内の互いに異なる複数の位置に配置された複数の受光センサを含むセンサ列を有し、そして瞳分割された一対の光束による像の位相差を、選択手段で選択された焦点検出領域に対応するセンサ列を用いて検出し、該位相差に基づいて撮影光学系の焦点調節状態を検出する焦点検出手段と、撮像センサで取得された画像情報に基づいて、撮影シーンを認識するシーン認識手段と、シーン認識手段による認識結果に基づいて、選択手段に選択された焦点検出領域に対応する複数の位置のセンサ列の中から位相差検出に用いる位置の受光センサを選択し、該選択された受光センサからの信号を用いて焦点調節状態を検出するように焦点検出手段を制御する制御手段と、を備えることを特徴とする。   A camera according to the present invention is arranged in each of a plurality of focus detection areas, a selection unit that selects an arbitrary focus detection area from a plurality of focus detection areas provided in association with a plurality of areas in a shooting screen, respectively. And a sensor array including a plurality of light receiving sensors disposed at a plurality of different positions in each focus detection area, and the phase difference of an image due to a pair of pupil-divided light beams is selected by a selection unit. Based on the image information acquired by the focus detection means that detects using the sensor array corresponding to the selected focus detection area and detects the focus adjustment state of the imaging optical system based on the phase difference, Used for phase difference detection from a plurality of sensor rows at a plurality of positions corresponding to the focus detection area selected by the selection means based on the scene recognition means for recognizing the photographic scene and the recognition result by the scene recognition means Select the light receiving sensor location, characterized in that it comprises a control means for controlling the focus detection means to detect the focusing state using a signal from the selected light-receiving sensor.

本発明によるカメラでは、合焦精度を高めることができる。   In the camera according to the present invention, the focusing accuracy can be increased.

本発明の一実施の形態による焦点検出装置を搭載した一眼レフ電子カメラの要部構成を説明する図である。It is a figure explaining the principal part structure of the single-lens reflex electronic camera carrying the focus detection apparatus by one embodiment of this invention. 本発明の一実施の形態による焦点検出装置を搭載した一眼レフ電子カメラの要部構成を説明する図である。It is a figure explaining the principal part structure of the single-lens reflex electronic camera carrying the focus detection apparatus by one embodiment of this invention. 電子カメラの外観を例示する図である。It is a figure which illustrates the external appearance of an electronic camera. 電子カメラの構成を説明するブロック図である。It is a block diagram explaining the structure of an electronic camera. 撮像素子の詳細な構成を示す正面図である。It is a front view which shows the detailed structure of an image pick-up element. 撮像用画素のみを拡大した断面図である。It is sectional drawing to which only the pixel for imaging was expanded. 焦点検出用画素のみを拡大した断面図である。It is sectional drawing to which only the pixel for focus detection was expanded. 撮像素子AFによる瞳分割型位相差検出方法を説明する図である。It is a figure explaining the pupil division type phase difference detection method by image sensor AF. 9箇所の測距エリアの配置を例示する図である。It is a figure which illustrates arrangement | positioning of nine ranging areas. シーン認識エリアを説明する図である。It is a figure explaining a scene recognition area. 測距エリアとシーン認識エリアとを重ね合わせて示した図である。It is the figure which showed the ranging area and the scene recognition area in an overlapping manner. 人物を撮影する例を説明する図である。It is a figure explaining the example which image | photographs a person. 測距エリア、該測距エリアを構成するブロック、および対応するシーン認識エリアを示す図である。It is a figure which shows a ranging area, the block which comprises this ranging area, and a corresponding scene recognition area. デフォーカス量演算に用いるデータを決定する処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the process which determines the data used for a defocus amount calculation.

以下、図面を参照して本発明を実施するための形態について説明する。図1および図2は、本発明の一実施の形態による焦点検出装置を搭載した一眼レフ電子カメラの要部構成を説明する図である。図1および図2において、カメラ本体201に対して着脱可能に構成される撮影レンズ鏡筒202が装着されている。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 and FIG. 2 are diagrams for explaining the main configuration of a single-lens reflex electronic camera equipped with a focus detection device according to an embodiment of the present invention. 1 and 2, a photographic lens barrel 202 that is detachably attached to the camera body 201 is attached.

被写体からの光は、撮影レンズ鏡筒202の撮影光学系210および絞り211を介してカメラ本体201へ入射される。カメラ本体201に入射した被写体光は、レリーズ前は図1に例示したミラーダウン状態にある半透過のクイックリターンミラー(以下ミラーと呼ぶ)203で上方のファインダー部へ向けて折り曲げられ、拡散スクリーン206に結像する。また、ミラー203を透過した被写体光は、撮像素子212へ導かれ、その撮像面上に被写体像を結像する。撮像素子212は、画素に対応する複数の光電変換素子を備えたCMOSイメージセンサなどによって構成される。   Light from the subject enters the camera body 201 through the photographing optical system 210 and the diaphragm 211 of the photographing lens barrel 202. The subject light incident on the camera body 201 is bent toward the upper finder by a transflective quick return mirror (hereinafter referred to as a mirror) 203 in the mirror-down state illustrated in FIG. To form an image. Further, the subject light transmitted through the mirror 203 is guided to the image sensor 212 and forms a subject image on the imaging surface. The image sensor 212 is configured by a CMOS image sensor or the like provided with a plurality of photoelectric conversion elements corresponding to pixels.

拡散スクリーン206に結像した被写体光はさらに、ペンタプリズム221へ入射される。ペンタプリズム221は、入射された被写体光を接眼光学系223へ導く。撮影者は、ファインダー接眼窓41(図3)から接眼光学系223を通してファインダーによる被写体像を観察する。   The subject light imaged on the diffusion screen 206 is further incident on the pentaprism 221. The pentaprism 221 guides incident subject light to the eyepiece optical system 223. The photographer observes the subject image through the viewfinder through the eyepiece optical system 223 from the viewfinder eyepiece window 41 (FIG. 3).

ペンタプリズム221へ入射された被写体光の一部は、プリズム25で上方へ折り曲げられ、レンズ227を介してシーン認識センサ229の撮像面上に被写体像を結像する。シーン認識センサ229は、画素に対応する複数の光電変換素子を備えたCMOSイメージセンサなどによって構成される。シーン認識センサ229の画素数は撮像素子212の画素数に比べて少なく構成される。これにより、シーン認識センサ229で取得される画像の解像度は、撮像素子212で取得される画像の解像度より低い。   Part of the subject light incident on the pentaprism 221 is bent upward by the prism 25 and forms a subject image on the imaging surface of the scene recognition sensor 229 via the lens 227. The scene recognition sensor 229 is configured by a CMOS image sensor having a plurality of photoelectric conversion elements corresponding to pixels. The number of pixels of the scene recognition sensor 229 is smaller than the number of pixels of the image sensor 212. Thereby, the resolution of the image acquired by the scene recognition sensor 229 is lower than the resolution of the image acquired by the image sensor 212.

レリーズ後は、図2に例示したミラーアップ位置へミラー203が回動し、全ての被写体光はメカニカルシャッター205を介して撮像素子212へ導かれ、その撮像面上に被写体像を結像する。撮像素子212は、撮像面上に結像されている被写体像を撮像し、被写体像の明るさに応じた光電変換信号を出力する。なお、撮像素子212の撮像面側に光学ローパスフィルター213が設けられている。   After the release, the mirror 203 is rotated to the mirror-up position illustrated in FIG. 2, and all subject light is guided to the image sensor 212 via the mechanical shutter 205, and forms a subject image on the imaging surface. The image sensor 212 captures a subject image formed on the imaging surface, and outputs a photoelectric conversion signal corresponding to the brightness of the subject image. An optical low-pass filter 213 is provided on the imaging surface side of the imaging element 212.

レンズ駆動機構214は、撮影光学系210を構成するフォーカス調節レンズを光軸方向に進退駆動する。フォーカス調節レンズの駆動方向および駆動量は、カメラ本体201側から指示される。なお、図を簡単にするため、撮影光学系210を単レンズとして表している。   The lens driving mechanism 214 drives the focus adjustment lens constituting the photographing optical system 210 to advance and retract in the optical axis direction. The drive direction and drive amount of the focus adjustment lens are instructed from the camera body 201 side. In order to simplify the drawing, the photographing optical system 210 is represented as a single lens.

図1のミラーダウン状態は、撮影者が接眼光学系223を介して被写体像を観察できるようにする撮影準備状態である。図2のミラーアップ状態は、被写体光が全て撮像素子212へ導かれる撮影時の状態である。本実施形態では、ミラーダウン状態およびミラーアップ状態のいずれの場合にも、撮像素子212からの出力信号に基づいて焦点検出(撮像素子位相差AFと呼ぶ)が可能に構成される。   The mirror-down state in FIG. 1 is a shooting preparation state in which the photographer can observe the subject image via the eyepiece optical system 223. The mirror-up state in FIG. 2 is a state at the time of photographing in which all subject light is guided to the image sensor 212. In the present embodiment, focus detection (referred to as image sensor phase difference AF) is possible based on an output signal from the image sensor 212 in both the mirror down state and the mirror up state.

図3は、電子カメラの外観を例示する図である。図3において、電子カメラの上面に、メインスイッチSW1と、レリーズボタンSW2と、白黒液晶モニター31とを有する。電子カメラの背面に、取消しスイッチSW3と、モードスイッチSW4と、左選択スイッチSW5と、右選択スイッチSW6と、上選択スイッチSW7と、下選択スイッチSW8と、確定スイッチSW9と、削除スイッチSW10と、コマンドダイアル45と、カラー液晶モニター61と、ファインダー接眼窓41とを有する。   FIG. 3 is a diagram illustrating an appearance of the electronic camera. In FIG. 3, a main switch SW1, a release button SW2, and a monochrome liquid crystal monitor 31 are provided on the upper surface of the electronic camera. On the back of the electronic camera, a cancel switch SW3, a mode switch SW4, a left selection switch SW5, a right selection switch SW6, an upper selection switch SW7, a lower selection switch SW8, a confirmation switch SW9, and a deletion switch SW10, A command dial 45, a color liquid crystal monitor 61, and a viewfinder eyepiece window 41 are provided.

図4は、上述した電子カメラの構成を説明するブロック図である。電子カメラは、マイクロコンピュータ101によって制御される。メインスイッチSW1は、電子カメラの電源オン/オフをそれぞれ指示する操作信号を出力する。レリーズスイッチは、レリーズボタンSW2の押下操作に連動して撮影開始を指示する信号を出力する。   FIG. 4 is a block diagram illustrating the configuration of the electronic camera described above. The electronic camera is controlled by the microcomputer 101. The main switch SW1 outputs an operation signal for instructing power on / off of the electronic camera. The release switch outputs a signal instructing to start shooting in conjunction with the pressing operation of the release button SW2.

取消しスイッチSW3は、操作取消しを示す操作信号を出力する。モードスイッチSW4は、電子カメラの動作モード、すなわち、撮影モードおよび再生モード等を切替えるための操作信号をそれぞれ出力する。   The cancel switch SW3 outputs an operation signal indicating operation cancellation. The mode switch SW4 outputs an operation signal for switching the operation mode of the electronic camera, that is, the photographing mode and the reproduction mode.

左選択スイッチSW5、右選択スイッチSW6、上選択スイッチSW7、および下選択スイッチSW8は、それぞれ選択方向を示す操作信号を出力する。確定スイッチSW9は、操作確定を示す操作信号を出力する。削除スイッチSW10は、削除指示を示す操作信号を出力する。スイッチSW11およびスイッチSW12は、コマンドダイアル45の回転操作に応じて操作信号を出力する。   The left selection switch SW5, right selection switch SW6, upper selection switch SW7, and lower selection switch SW8 each output an operation signal indicating the selection direction. The confirmation switch SW9 outputs an operation signal indicating operation confirmation. The deletion switch SW10 outputs an operation signal indicating a deletion instruction. The switch SW11 and the switch SW12 output an operation signal according to the rotation operation of the command dial 45.

レンズ鏡筒202はレンズ鏡筒内CPUを含み、マイクロコンピュータ101との間で通信を行う。レンズ鏡筒内CPUは、マイクロコンピュータ101からの指示に応じてレンズ駆動機構214(図1、図2)を駆動制御し、上記フォーカス調節レンズ(210)を進退移動させる。   The lens barrel 202 includes a CPU in the lens barrel, and communicates with the microcomputer 101. The CPU in the lens barrel drives and controls the lens driving mechanism 214 (FIGS. 1 and 2) in accordance with an instruction from the microcomputer 101, and moves the focus adjustment lens (210) forward and backward.

撮像処理回路107は、撮像素子212から出力される画像データに対して所定の画像処理を行う。画像処理は、γ変換処理やホワイトバランス調整処理などを含む。   The imaging processing circuit 107 performs predetermined image processing on the image data output from the imaging element 212. Image processing includes γ conversion processing and white balance adjustment processing.

撮像素子AF回路108は、撮像素子212の所定画素からの出力信号に基づいて像ズレ検出演算処理(相関処理、位相差検出処理)を施すことにより、いわゆる瞳分割型位相差検出方式(マイクロレンズ方式)で一対の像の像ズレ量を検出する。さらに、像ズレ量に所定の変換係数を乗ずることにより、予定焦点面に対する現在の結像面の偏差(デフォーカス量)を算出する。そして、該デフォーカス量に応じて上記フォーカス調節レンズの移動方向および移動量を演算する。像ズレ検出演算処理の詳細については後述する。   The image sensor AF circuit 108 performs an image shift detection calculation process (correlation process, phase difference detection process) based on an output signal from a predetermined pixel of the image sensor 212, so-called pupil division type phase difference detection method (micro lens). Method) to detect an image shift amount of a pair of images. Further, the deviation (defocus amount) of the current image plane with respect to the planned focal plane is calculated by multiplying the image shift amount by a predetermined conversion coefficient. Then, the movement direction and movement amount of the focus adjustment lens are calculated according to the defocus amount. Details of the image shift detection calculation process will be described later.

測光演算回路109は、シーン認識センサ229からの画素出力信号に基づいて測光演算を行う。シーン認識処理部102は、シーン認識センサ229の所定のエリア(シーン認識エリアと呼ぶ)ごとの画素出力信号に基づき、各シーン認識エリアについて輝度および色を検出する。たとえば、G色成分の信号から輝度を求め、R色成分とB色成分との信号比率から色を検出する。   The photometric calculation circuit 109 performs photometric calculation based on the pixel output signal from the scene recognition sensor 229. The scene recognition processing unit 102 detects luminance and color for each scene recognition area based on a pixel output signal for each predetermined area (referred to as a scene recognition area) of the scene recognition sensor 229. For example, the luminance is obtained from the signal of the G color component, and the color is detected from the signal ratio of the R color component and the B color component.

ドライバ回路103は、マイクロコンピュータ101からの指令に応じてメカニカルシャッター205を駆動する。ドライバ回路104は、マイクロコンピュータ101からの指令に応じて絞り機構214を駆動する。絞り機構214が不図示の絞り駆動レバーを動かすと、レンズ鏡筒202側の絞り211の口径が変化する。ドライバ回路105は、マイクロコンピュータ101からの指令に応じてミラー機構215を駆動する。ミラー機構215は、ミラー203をアップ駆動またはダウン駆動する。   The driver circuit 103 drives the mechanical shutter 205 in response to a command from the microcomputer 101. The driver circuit 104 drives the aperture mechanism 214 in response to a command from the microcomputer 101. When the diaphragm mechanism 214 moves a diaphragm drive lever (not shown), the aperture of the diaphragm 211 on the lens barrel 202 side changes. The driver circuit 105 drives the mirror mechanism 215 in response to a command from the microcomputer 101. The mirror mechanism 215 drives the mirror 203 up or down.

外部インタフェース113は、電子カメラ内のデータをパソコンや別の電子カメラなどの外部機器へ出力(送信)したり、外部機器からのデータを入力(受信)したりするインターフェース回路である。外部インタフェース113の例として、RS232C、USB、IEEE1394などがある。   The external interface 113 is an interface circuit that outputs (transmits) data in the electronic camera to an external device such as a personal computer or another electronic camera, and inputs (receives) data from the external device. Examples of the external interface 113 include RS232C, USB, and IEEE1394.

表示制御部110は、マイクロコンピュータ101からの指令によりカラー液晶モニター61に対する駆動信号を生成する。カラー液晶モニター61は、画像や操作メニューなどを表示する。表示制御部111は、マイクロコンピュータ101からの指令により白黒液晶モニター31に対する駆動信号を生成する。白黒液晶モニター31は、コマ数や撮影条件などの撮影情報を表示する。   The display control unit 110 generates a drive signal for the color liquid crystal monitor 61 according to a command from the microcomputer 101. The color liquid crystal monitor 61 displays images and operation menus. The display control unit 111 generates a drive signal for the monochrome liquid crystal monitor 31 according to a command from the microcomputer 101. The monochrome liquid crystal monitor 31 displays shooting information such as the number of frames and shooting conditions.

メモリカード119は、カードコネクター117を介して電子カメラに着脱される記録媒体である。メモリカード119には画像データや音声データが記録される。ドライバ回路106は、マイクロコンピュータ101からの指令に応じて測距エリア照射装置115を駆動制御する。測距エリア照射装置115は、撮像素子位相差AF時における必要な場合に、測距補助光を発して被写体を照明する。   The memory card 119 is a recording medium that can be attached to and detached from the electronic camera via the card connector 117. Image data and audio data are recorded in the memory card 119. The driver circuit 106 drives and controls the ranging area irradiation device 115 in accordance with a command from the microcomputer 101. The distance measurement area irradiation device 115 emits distance measurement auxiliary light to illuminate the subject when necessary at the time of imaging element phase difference AF.

画像記憶メモリ121は、上述した画像処理、後述する圧縮処理および伸長処理の際に一時的に画像データを格納する。圧縮/伸長回路123は、たとえば、JPEGなど所定の方式で画像データを圧縮処理したり、圧縮された画像データを伸長処理したりする。メモリ125は、マイクロコンピュータ101の作業領域として利用される。タイマー127は、マイクロコンピュータ101によって指定された時間を計時し、タイムアップ信号を出力する。電池129は、電子カメラ内の各部に電力を供給する。   The image storage memory 121 temporarily stores image data during the above-described image processing, compression processing and decompression processing described later. The compression / decompression circuit 123 compresses the image data by a predetermined method such as JPEG, or decompresses the compressed image data. The memory 125 is used as a work area for the microcomputer 101. The timer 127 measures the time designated by the microcomputer 101 and outputs a time-up signal. The battery 129 supplies power to each unit in the electronic camera.

<撮像素子位相差AF処理>
撮像素子AF回路108で行うAF(自動焦点調節)処理について詳細に説明する。本実施形態の撮像素子212は、フォーカス検出用の画素(焦点検出用画素と呼ぶ)を有する。この撮像素子212は、特開2007−279312号公報に記載されている撮像素子と同様のものである。撮像素子AF回路108は、焦点検出用画素からの画素出力データを用いて位相差検出演算を行うことにより、焦点検出処理を行う。
<Image sensor phase difference AF processing>
An AF (automatic focus adjustment) process performed by the image sensor AF circuit 108 will be described in detail. The image sensor 212 of the present embodiment has focus detection pixels (referred to as focus detection pixels). The image sensor 212 is the same as the image sensor described in Japanese Patent Application Laid-Open No. 2007-279312. The image sensor AF circuit 108 performs focus detection processing by performing phase difference detection calculation using pixel output data from the focus detection pixels.

図5は、撮像素子212の詳細な構成を示す正面図である。撮像素子212には、撮像用画素310が二次元状に配列されている。そして、後述する測距エリアに対応する部分に焦点検出用画素311が配列されている。図5の例では、撮像面の略中央に焦点検出用画素列が水平方向に並ぶ。図6は、撮像用画素のみを拡大した断面図であり、図7は、焦点検出用画素のみを拡大した断面図である。   FIG. 5 is a front view showing a detailed configuration of the image sensor 212. In the imaging element 212, imaging pixels 310 are two-dimensionally arranged. In addition, focus detection pixels 311 are arranged in a portion corresponding to a distance measurement area described later. In the example of FIG. 5, focus detection pixel rows are arranged in the horizontal direction substantially at the center of the imaging surface. FIG. 6 is an enlarged cross-sectional view of only the imaging pixels, and FIG. 7 is an enlarged cross-sectional view of only the focus detection pixels.

図6において、撮像用画素310は、マイクロレンズ10と撮像用の光電変換部11を備える。マイクロレンズ10は光電変換部11の前方(図6において左側)に配置され、光電変換部11は撮像素子212内の半導体回路基板(不図示)上に形成される。   In FIG. 6, the imaging pixel 310 includes a microlens 10 and an imaging photoelectric conversion unit 11. The microlens 10 is disposed in front of the photoelectric conversion unit 11 (on the left side in FIG. 6), and the photoelectric conversion unit 11 is formed on a semiconductor circuit substrate (not shown) in the image sensor 212.

図7において、焦点検出用画素311は、マイクロレンズ10と焦点検出用の一対の光電変換部12および光電変換部13を備える。両光電変換部12、13は、それぞれがマイクロレンズ10の中央に対して対称に配置される。マイクロレンズ10は光電変換部12、13 の前方(図7において左側)に配置され、光電変換部12、13は撮像用画素310の光電変換部11と同一の半導体回路基板上に形成される。なお、上記マイクロレンズ10は、撮影光学系210の焦点面近傍に配置される。   In FIG. 7, the focus detection pixel 311 includes a microlens 10 and a pair of photoelectric conversion units 12 and photoelectric conversion units 13 for focus detection. The photoelectric conversion units 12 and 13 are arranged symmetrically with respect to the center of the microlens 10. The microlens 10 is disposed in front of the photoelectric conversion units 12 and 13 (on the left side in FIG. 7), and the photoelectric conversion units 12 and 13 are formed on the same semiconductor circuit substrate as the photoelectric conversion unit 11 of the imaging pixel 310. The microlens 10 is disposed in the vicinity of the focal plane of the photographic optical system 210.

図8は、撮像素子AFによる瞳分割型位相差検出方法を説明する図であり、焦点検出用画素311の一部(マイクロレンズ50、60 と二対の光電変換部52・53、62・63)を図示したものである。射出瞳90は、撮影光学系210の焦点面位置に配置されたマイクロレンズ50、60から前方(図8において左側)の距離d4に投影される射出瞳である。距離d4は、マイクロレンズ10(50、60)の曲率、屈折率、およびマイクロレンズ10(50、60)と光電変換部12、13との間の距離などに応じて決まる距離であり、測距瞳距離と呼ぶ。   FIG. 8 is a diagram for explaining a pupil division type phase difference detection method using the image sensor AF. A part of the focus detection pixel 311 (microlenses 50 and 60 and two pairs of photoelectric conversion units 52, 53, 62, and 63). ). The exit pupil 90 is an exit pupil that is projected at a distance d4 forward (left side in FIG. 8) from the microlenses 50 and 60 disposed at the focal plane position of the photographing optical system 210. The distance d4 is a distance determined according to the curvature and refractive index of the microlens 10 (50, 60), the distance between the microlens 10 (50, 60) and the photoelectric conversion units 12, 13, and the like. Called pupil distance.

光軸91は、撮影光学系210の光軸である。測距瞳92は、マイクロレンズ50、60および光電変換部52、62 に対応する測距瞳であり、測距瞳93は、マイクロレンズ50、60および光電変換部53、63に対応する測距瞳である。一対の測距瞳領域92、93を通過した二対の焦点検出用被写体光束72・73、82・83は、それぞれマイクロレンズ50、60を介して二対の光電変換部52・53、62・63に到達する。図8では、光軸91上にある焦点検出用画素311(マイクロレンズ50と一対の光電変換部52・53)と、光軸91外にある焦点検出用画素311(マイクロレンズ60と一対の光電変換部62・63)を模式的に例示しているが、その他の焦点検出用画素311においても一対の測距瞳から各マイクロレンズに到来する焦点検出用光束を一対の光電変換部でそれぞれ受光する。なお、焦点検出用画素311の配列方向(図5において水平方向)は、一対の測距瞳の分割方向(図8において上下方向)と一致させる。   The optical axis 91 is the optical axis of the photographing optical system 210. The distance measurement pupil 92 is a distance measurement pupil corresponding to the microlenses 50 and 60 and the photoelectric conversion units 52 and 62, and the distance measurement pupil 93 is a distance measurement pupil corresponding to the microlenses 50 and 60 and the photoelectric conversion units 53 and 63. It is a pupil. The two pairs of focus detection subject light beams 72, 73, 82, 83 that have passed through the pair of distance measuring pupil regions 92, 93 pass through the microlenses 50, 60, respectively, and two pairs of photoelectric conversion units 52, 53, 62,. 63 is reached. In FIG. 8, a focus detection pixel 311 (microlens 50 and a pair of photoelectric conversion units 52 and 53) on the optical axis 91 and a focus detection pixel 311 (microlens 60 and a pair of photoelectric conversions) outside the optical axis 91 are shown. The conversion units 62 and 63) are schematically illustrated, but also in the other focus detection pixels 311, the focus detection light beams coming from the pair of distance measurement pupils to the micro lenses are received by the pair of photoelectric conversion units, respectively. To do. Note that the arrangement direction (horizontal direction in FIG. 5) of the focus detection pixels 311 is made to coincide with the division direction (vertical direction in FIG. 8) of the pair of distance measurement pupils.

上述した構成を有することにより、焦点検出用画素は、特開2007−279312号公報に記載されるように、それぞれ瞳分割された光束が入射されることになる。具体的には、光電変換部12、13には、それぞれマイクロレンズ10の片半面を通過した光束のみが受光される。たとえば、光電変換部52、62には、測距瞳92からの光束(A成分と呼ぶ)のみが入射される。一方、光電変換部53、63には、測距瞳93からの光束(B成分と呼ぶ)のみが入射される。   By having the above-described configuration, the focus detection pixels are each incident with a pupil-divided light beam as described in Japanese Patent Application Laid-Open No. 2007-279312. Specifically, the photoelectric conversion units 12 and 13 receive only light beams that have passed through one half of the microlens 10. For example, only the light flux (referred to as the A component) from the distance measuring pupil 92 enters the photoelectric conversion units 52 and 62. On the other hand, only the luminous flux (referred to as B component) from the distance measuring pupil 93 is incident on the photoelectric conversion units 53 and 63.

この結果、A成分の光束が入射される光電変換部52、62、…から得られる画素出力(A成分のデータ列)は、撮影光学系210の測距瞳92から入射された光束による像を表し、B成分の光束が入射される光電変換部53、63、…から得られる画素出力(B成分のデータ列)は、測距瞳93から入射された光束による像を表す。   As a result, the pixel output (A component data string) obtained from the photoelectric conversion units 52, 62,... Where the A component light beam is incident is an image of the light beam incident from the distance measuring pupil 92 of the photographing optical system 210. The pixel output (B component data string) obtained from the photoelectric conversion units 53, 63,... Into which the B component light beam is incident represents an image of the light beam incident from the distance measuring pupil 93.

A成分による被写体像、およびB成分による被写体像からなる一対の被写体像は、撮影光学系210が予定焦点面よりも前に被写体の鮮鋭像を結ぶいわゆる前ピン状態では互いに近づき、逆に予定焦点面より後ろに被写体の鮮鋭像を結ぶいわゆる後ピン状態では互いに遠ざかる。予定焦点面において被写体の鮮鋭像を結ぶ合焦状態には、上記一対の像が相対的に一致する。したがって、一対の像の相対位置ズレ量を求めることにより、撮影光学系210のフォーカス調節状態、すなわちデフォーカス量が得られる。   A pair of subject images composed of a subject image by the A component and a subject image by the B component approach each other in the so-called front pin state in which the photographing optical system 210 forms a sharp image of the subject before the planned focal plane, and conversely the planned focus. In a so-called rear pin state in which a sharp image of the subject is connected behind the surface, they move away from each other. The pair of images relatively coincide with each other in a focused state that connects a sharp image of the subject on the planned focal plane. Therefore, the focus adjustment state of the photographing optical system 210, that is, the defocus amount can be obtained by obtaining the relative positional deviation amount of the pair of images.

撮像素子AF回路108は、A成分のデータ列およびB成分のデータ列の相対的な位置関係をずらしながら、2つのデータ列間の像ズレ量(シフト量と呼ぶ)と、A成分のデータ列とB成分のデータ列との相関度を演算する。相関値が最小となる(相関値が小さいほど2つのデータ列の相関度が高い)シフト量を求める演算は、公知の位相差検出演算による。   The image sensor AF circuit 108 shifts the relative positional relationship between the A component data string and the B component data string, and an image shift amount (referred to as a shift amount) between the two data strings and the A component data string. And the B component data string are calculated. The calculation for obtaining the shift amount that minimizes the correlation value (the smaller the correlation value, the higher the correlation between the two data strings) is by a known phase difference detection calculation.

撮像素子AF回路108は、相関値を最小にするシフト量に所定係数を掛けることにより、デフォーカス量を求める。なお、デフォーカス量は測距エリアごとに異なる。また、デフォーカス量の検出精度は、像ズレ量の検出ピッチおよびマイクロレンズ10の配列ピッチに依存する。撮像素子AF回路108は、デフォーカス量に基づいてフォーカス調節レンズ(210)の移動方向および移動量を演算する。   The image sensor AF circuit 108 obtains the defocus amount by multiplying the shift amount that minimizes the correlation value by a predetermined coefficient. Note that the defocus amount differs for each distance measurement area. The defocus amount detection accuracy depends on the image shift amount detection pitch and the arrangement pitch of the microlenses 10. The image sensor AF circuit 108 calculates the moving direction and moving amount of the focus adjustment lens (210) based on the defocus amount.

<測距エリアの配置>
撮影光学系210の焦点面に設定する測距エリア(焦点検出位置)について、図9−図11を参照して説明する。図9は、撮影光学系210の焦点面に相当する領域400の中に9箇所の測距エリア401〜409が設定されている場合の測距エリア401〜409の配置を例示する図である。各測距エリア401〜409は、それぞれが3つのブロック(測距エリアが縦長の場合は上からa,b,c、測距エリアが横長の場合は左からa,b,cと表す)で構成される。測距エリア401を例に説明すると、上から順にブロック401a、ブロック401b、およびブロック401cによって構成される。
<Range of ranging area>
A ranging area (focus detection position) set on the focal plane of the photographing optical system 210 will be described with reference to FIGS. FIG. 9 is a diagram illustrating the arrangement of the distance measurement areas 401 to 409 when nine distance measurement areas 401 to 409 are set in the region 400 corresponding to the focal plane of the photographing optical system 210. Each of the ranging areas 401 to 409 is composed of three blocks (a, b, c from the top when the ranging area is vertically long, and a, b, c from the left when the ranging area is horizontally long). Composed. The distance measuring area 401 will be described as an example. The distance measuring area 401 is composed of a block 401a, a block 401b, and a block 401c in order from the top.

本実施形態では、マイクロコンピュータ101がユーザーによる測距エリアの指定操作を受け付ける測距モードの場合には、左選択スイッチSW5、右選択スイッチSW6、上選択スイッチSW7、および下選択スイッチSW8からの操作信号に応じて、マイクロコンピュータ101が測距エリア401〜409のいずれか1つを選択する。そして、選択した1つの測距エリア内に含まれる複数のブロックから、測距演算に用いるブロックをマイクロコンピュータ101が決定する。たとえば、測距エリア401を選択している状態では、ブロック401a〜ブロック401cの中から測距演算に使用するブロックを決める。   In the present embodiment, when the microcomputer 101 is in a distance measurement mode in which a user designates a distance measurement area, the operation from the left selection switch SW5, the right selection switch SW6, the upper selection switch SW7, and the lower selection switch SW8. In response to the signal, the microcomputer 101 selects any one of the ranging areas 401 to 409. Then, the microcomputer 101 determines a block to be used for the distance measurement calculation from a plurality of blocks included in the selected one distance measurement area. For example, when the ranging area 401 is selected, a block to be used for ranging calculation is determined from the blocks 401a to 401c.

また、マイクロコンピュータ101が撮影画面における主要被写体を追尾する測距モードの場合には、追尾対象の位置に応じて測距エリア401〜409のいずれか1つをマイクロコンピュータ101が選択する。そして、選択した1つの測距エリア内に含まれる複数のブロックから、測距演算に用いるブロックをマイクロコンピュータ101が決定する。ユーザーによる測距エリアの指定操作を受け付ける測距モードと、主要被写体を追尾して測距エリアを選択する測距モードとの切替えは、モードスイッチSW4からの操作信号に応じて行うように構成される。   When the microcomputer 101 is in a distance measurement mode for tracking the main subject on the shooting screen, the microcomputer 101 selects any one of the distance measurement areas 401 to 409 according to the position of the tracking target. Then, the microcomputer 101 determines a block to be used for the distance measurement calculation from a plurality of blocks included in the selected one distance measurement area. Switching between a ranging mode that accepts a ranging area designation operation by the user and a ranging mode that selects a ranging area by tracking the main subject is configured to be performed according to an operation signal from the mode switch SW4. The

図10は、シーン認識処理部102が輝度や色を検出する(シーン認識を行う)単位領域であるシーン認識エリアを説明する図である。図10において、撮影光学系210の焦点面に相当する領域500の中に、たとえば、横13列、縦9行で合計117のシーン認識エリア501〜617が設けられている。シーン認識処理部102は、各シーン認識エリアに含まれる画素からの信号に基づいて、各シーン認識エリアを代表する輝度や色を認識する。   FIG. 10 is a diagram for explaining a scene recognition area which is a unit area in which the scene recognition processing unit 102 detects luminance and color (performs scene recognition). In FIG. 10, in a region 500 corresponding to the focal plane of the photographing optical system 210, for example, a total of 117 scene recognition areas 501 to 617 in 13 horizontal rows and 9 vertical rows are provided. The scene recognition processing unit 102 recognizes luminance and color representing each scene recognition area based on signals from pixels included in each scene recognition area.

図11は、図9の測距エリアと図10のシーン認識エリアとを重ね合わせて示した図である。本実施形態では、測距エリアを構成する各ブロックが別々のシーン認識エリアと重なるように構成されている。図11に示すように、ユーザー操作または追尾処理によって選択する「測距エリア」の単位領域は、測距演算に使用する「ブロック」の単位領域の大きさよりも大である。   FIG. 11 is a diagram in which the ranging area of FIG. 9 and the scene recognition area of FIG. 10 are overlapped. In this embodiment, each block constituting the distance measurement area is configured to overlap with a separate scene recognition area. As shown in FIG. 11, the unit area of the “ranging area” selected by the user operation or the tracking process is larger than the unit area of the “block” used for the ranging calculation.

図12は、人物を撮影する例を説明する図である。たとえば、ユーザーによる測距エリアの指定操作を受け付ける測距モードにおいて、測距エリア402が選択されている。図12によれば、測距エリア402には人物の「顔」が含まれるが、「顔」の他に「首」や「胸」も含まれている。仮に測距エリア402を構成するブロック402a〜402cに相当する焦点検出用画素からの出力信号の全てを用いてデフォーカス量を演算する場合、「顔」のみに正確に合焦させるのは困難である。この理由を図13を参照して説明する。図13は、測距エリア402、該測距エリア402を構成するブロック402a〜402c、および対応するシーン認識エリア543,556,569を示す図である。   FIG. 12 is a diagram illustrating an example of photographing a person. For example, the distance measurement area 402 is selected in the distance measurement mode in which the user designates the distance measurement area. According to FIG. 12, the distance measurement area 402 includes a “face” of a person, but also includes “neck” and “chest” in addition to “face”. If the defocus amount is calculated using all the output signals from the focus detection pixels corresponding to the blocks 402a to 402c constituting the distance measuring area 402, it is difficult to accurately focus only on the “face”. is there. The reason for this will be described with reference to FIG. FIG. 13 is a diagram showing a distance measurement area 402, blocks 402a to 402c constituting the distance measurement area 402, and corresponding scene recognition areas 543, 556, and 569.

ブロック402aは「顔」に対応するので、ブロック402aに相当する焦点検出用画素からの出力信号を用いてデフォーカス量を演算すると、「顔」を対象にデフォーカス量が算出される。また、ブロック402bは「首」に対応するので、ブロック402bに相当する焦点検出用画素からの出力信号を用いてデフォーカス量を演算すると、「首」を対象にデフォーカス量が算出される。さらに、ブロック402cは「胸」に対応するので、ブロック402cに相当する焦点検出用画素からの出力信号を用いてデフォーカス量を演算すると、「胸」を対象にデフォーカス量が算出される。したがって、ブロック402a〜402cに相当する焦点検出用画素からの全ての出力信号を用いた場合、3つのデフォーカス量の平均的な値に基づいてピント合わせを行うことになるため、「顔」のみに正確に合焦させるのが困難となる。   Since the block 402a corresponds to the “face”, when the defocus amount is calculated using the output signal from the focus detection pixel corresponding to the block 402a, the defocus amount is calculated for the “face”. Further, since the block 402b corresponds to the “neck”, when the defocus amount is calculated using the output signal from the focus detection pixel corresponding to the block 402b, the defocus amount is calculated for the “neck”. Further, since the block 402c corresponds to “chest”, when the defocus amount is calculated using the output signal from the focus detection pixel corresponding to the block 402c, the defocus amount is calculated for “chest”. Accordingly, when all the output signals from the focus detection pixels corresponding to the blocks 402a to 402c are used, focusing is performed based on the average value of the three defocus amounts, so only the “face” is selected. It is difficult to focus accurately on.

シーン認識処理部102は、シーン認識エリア543で「顔」に対応する輝度・肌色を認識し、シーン認識エリア556および569ではそれぞれ「首」、「胸」の輝度・色を認識する。図12および図13の例では、シーン認識エリア543で肌色が認識されるものの、シーン認識エリア556および569では肌色は認識されない。そこで、マイクロコンピュータ101は、肌色領域に基づくデフォーカス量を優先的に採用するため、肌色が認識されているシーン認識エリア543に重なっているブロック402aに相当する焦点検出用画素からの出力信号のみを用いてデフォーカス量を演算する。人物撮影の場合は肌色領域が被写体の主要部分である可能性が高いからである。これにより、「顔」に正確に合焦させることができる。なお、「顔」を認識する手法としては、周知のパターンマッチングによる手法を用いるようにしてもよい。   The scene recognition processing unit 102 recognizes the luminance / skin color corresponding to “face” in the scene recognition area 543, and recognizes the luminance / color of “neck” and “chest” in the scene recognition areas 556 and 569, respectively. In the example of FIGS. 12 and 13, the skin color is recognized in the scene recognition area 543, but the skin color is not recognized in the scene recognition areas 556 and 569. Therefore, since the microcomputer 101 preferentially employs the defocus amount based on the skin color area, only the output signal from the focus detection pixel corresponding to the block 402a overlapping the scene recognition area 543 in which the skin color is recognized. Is used to calculate the defocus amount. This is because in the case of portrait photography, the skin color area is likely to be the main part of the subject. Thereby, the “face” can be accurately focused. As a method for recognizing “face”, a known pattern matching method may be used.

上述したマイクロコンピュータ101が実行する処理(デフォーカス量演算に用いるデータを決定する処理)の流れについて、図14に例示するフローチャートを参照して説明する。マイクロコンピュータ101は、たとえば、レリーズボタンSW2が半押し操作された場合に図14による処理を起動する。   A flow of processing (processing for determining data used for defocus amount calculation) executed by the microcomputer 101 will be described with reference to a flowchart illustrated in FIG. For example, when the release button SW2 is half-pressed, the microcomputer 101 starts the processing shown in FIG.

図14のステップS101において、マイクロコンピュータ101は、シーン認識センサ229に画像を取得させてステップS103へ進む。ステップS103において、マイクロコンピュータ101は、選択している1つの測距エリアを認識してステップS104へ進む。上述したように、1つの測距エリアは、各選択スイッチSW5、SW6、SW7、およびSW8からの操作信号に応じて選択する場合と、撮影画面における追尾対象の位置に応じて選択する場合とがある。   In step S101 of FIG. 14, the microcomputer 101 causes the scene recognition sensor 229 to acquire an image and proceeds to step S103. In step S103, the microcomputer 101 recognizes one selected distance measuring area and proceeds to step S104. As described above, one ranging area may be selected according to an operation signal from each of the selection switches SW5, SW6, SW7, and SW8, and may be selected according to the position of the tracking target on the shooting screen. is there.

ステップS104において、マイクロコンピュータ101は、選択している1つの測距エリアについて、撮像素子212が有する焦点検出用画素のうち、ブロックa〜ブロックcに相当する画素から撮像信号を読出してステップS105へ進む(測距データの取込み)。   In step S104, the microcomputer 101 reads out an imaging signal from the pixels corresponding to the blocks a to c among the focus detection pixels included in the imaging element 212 for one selected ranging area, and proceeds to step S105. Go forward (capture distance measurement data).

ステップS105において、マイクロコンピュータ101は、選択されている測距エリアと、シーン認識処理部102による解析情報(輝度、色)を用いて主要被写体を判定し、ステップS107へ進む。たとえば、選択されている測距エリアを構成するブロックと重なるシーン認識エリアで肌色が検出される場合は、当該肌色が検出された領域を主要被写体と判定する。なお、撮影画面における追尾対象の位置に応じて測距エリアを選択している場合は、ステップS105に相当するプロセスは公知の追尾処理において行われているのでS105をスキップする。   In step S105, the microcomputer 101 determines a main subject using the selected distance measurement area and analysis information (luminance, color) by the scene recognition processing unit 102, and the process proceeds to step S107. For example, when a skin color is detected in a scene recognition area that overlaps a block constituting the selected distance measurement area, the area where the skin color is detected is determined as the main subject. If the distance measurement area is selected according to the position of the tracking target on the shooting screen, the process corresponding to step S105 is performed in a known tracking process, so S105 is skipped.

ステップS107において、マイクロコンピュータ101は、ブロックaが主要被写体上にある(重なっている)か否かを判定する。マイクロコンピュータ101は、主要被写体上にある(たとえば、ブロックaと重なるシーン認識エリアにおいて肌色が検出される)場合にステップS107を肯定判定してステップS121へ進む。マイクロコンピュータ101は、主要被写体上にない(たとえば、ブロックaと重なるシーン認識エリアにおいて肌色が検出されない)場合には、ステップS107を肯定判定してステップS109へ進む。   In step S107, the microcomputer 101 determines whether the block a is on (overlaps) the main subject. If the microcomputer 101 is on the main subject (for example, a skin color is detected in the scene recognition area overlapping with the block a), the microcomputer 101 makes an affirmative decision in step S107 and proceeds to step S121. If the microcomputer 101 is not on the main subject (for example, no skin color is detected in the scene recognition area overlapping with the block a), the microcomputer 101 makes an affirmative decision in step S107 and proceeds to step S109.

ステップS109において、マイクロコンピュータ101は、ブロックbが主要被写体上にある(重なっている)か否かを判定する。マイクロコンピュータ101は、主要被写体上にある(たとえば、ブロックbと重なるシーン認識エリアにおいて肌色が検出される)場合にステップS109を肯定判定してステップS123へ進む。マイクロコンピュータ101は、主要被写体上にない(たとえば、ブロックbと重なるシーン認識エリアにおいて肌色が検出されない)場合には、ステップS109を肯定判定してステップS111へ進む。   In step S109, the microcomputer 101 determines whether the block b is on (overlaps) the main subject. If the microcomputer 101 is on the main subject (for example, a skin color is detected in a scene recognition area overlapping with the block b), the microcomputer 101 makes an affirmative decision in step S109 and proceeds to step S123. If the microcomputer 101 is not on the main subject (for example, no skin color is detected in the scene recognition area overlapping with the block b), the microcomputer 101 makes an affirmative determination in step S109 and proceeds to step S111.

ステップS111において、マイクロコンピュータ101は、ブロックcが主要被写体上にある(重なっている)か否かを判定する。マイクロコンピュータ101は、主要被写体上にある(たとえば、ブロックcと重なるシーン認識エリアにおいて肌色が検出される)場合にステップS111を肯定判定してステップS125へ進む。マイクロコンピュータ101は、主要被写体上にない(たとえば、ブロックcと重なるシーン認識エリアにおいて肌色が検出されない)場合には、ステップS111を肯定判定してステップS113へ進む。   In step S111, the microcomputer 101 determines whether the block c is on (overlaps) the main subject. If the microcomputer 101 is on the main subject (for example, a skin color is detected in a scene recognition area overlapping with the block c), the microcomputer 101 makes an affirmative decision in step S111 and proceeds to step S125. If the microcomputer 101 is not on the main subject (for example, no skin color is detected in the scene recognition area overlapping with the block c), the microcomputer 101 makes an affirmative determination in step S111 and proceeds to step S113.

上記ステップS107を肯定判定した場合に進むステップS121において、マイクロコンピュータ101は、測距エリアのブロックaに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用のデータに決定してステップS109へ進む。   In step S121, which proceeds when an affirmative determination is made in step S107, the microcomputer 101 converts the distance measurement data acquired from the focus detection pixels corresponding to the block a in the distance measurement area into data for calculating the defocus amount. Determine and proceed to step S109.

上記ステップS109を肯定判定した場合に進むステップS123において、マイクロコンピュータ101は、測距エリアのブロックbに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用のデータに決定してステップS111へ進む。   In step S123, which proceeds when an affirmative determination is made in step S109, the microcomputer 101 converts the distance measurement data acquired from the focus detection pixels corresponding to the block b in the distance measurement area into data for calculating the defocus amount. Determine and proceed to step S111.

上記ステップS111を肯定判定した場合に進むステップS125において、マイクロコンピュータ101は、測距エリアのブロックcに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用のデータに決定してステップS113へ進む。   In step S125, which proceeds when an affirmative determination is made in step S111, the microcomputer 101 converts the distance measurement data acquired from the focus detection pixels corresponding to the block c in the distance measurement area into data for calculating the defocus amount. Determine and proceed to step S113.

ステップS113において、マイクロコンピュータ101は、ブロックa、ブロックb、ブロックcのいずれかのブロックに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用のデータに決定したか否かを判定する。マイクロコンピュータ101は、該当する測距データをデフォーカス量の演算用のデータに決定している場合はステップS113を肯定判定してステップS117へ進む。マイクロコンピュータ101は、該当する測距データをデフォーカス量の演算用のデータに決定していない場合には、ステップS113を否定判定してステップS115へ進む。   In step S113, the microcomputer 101 determines the distance measurement data acquired from the focus detection pixels corresponding to any one of the block a, the block b, and the block c as data for calculating the defocus amount. Determine whether or not. If the microcomputer 101 has determined the corresponding distance measurement data as data for calculating the defocus amount, the microcomputer 101 makes an affirmative decision in step S113 and proceeds to step S117. If the microcomputer 101 has not determined the corresponding distance measurement data as the defocus amount calculation data, the microcomputer 101 makes a negative determination in step S113 and proceeds to step S115.

ステップS117において、マイクロコンピュータ101は撮像素子AF回路108へ指示を送り、決定した測距データを用いてデフォーカス量を演算(測距演算)させて図14による処理を終了する。マイクロコンピュータ101が撮像素子AF回路108で演算されたフォーカス調節レンズ(210)の移動方向および移動量を示す情報をレンズ鏡筒202内CPUへ送信すると、該レンズ鏡筒202内CPUがフォーカス調節レンズ(210)を移動させて、一連のAF処理が終了する。   In step S117, the microcomputer 101 sends an instruction to the image sensor AF circuit 108, calculates a defocus amount using the determined distance measurement data (range measurement calculation), and ends the process of FIG. When the microcomputer 101 transmits information indicating the movement direction and amount of movement of the focus adjustment lens (210) calculated by the image sensor AF circuit 108 to the CPU in the lens barrel 202, the CPU in the lens barrel 202 moves to the focus adjustment lens. (210) is moved, and a series of AF processing ends.

上記ステップS113を否定判定した場合に進むステップS115において、マイクロコンピュータ101は、測距エリアのブロックa、ブロックb、およびブロックcの全てのブロックに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用データとして決定してステップS117へ進む。   In step S115, which proceeds when a negative determination is made in step S113, the microcomputer 101 performs distance measurement acquired from focus detection pixels corresponding to all blocks a, b, and c in the distance measurement area. The data is determined as defocus amount calculation data, and the process proceeds to step S117.

ミラーダウン状態で撮像素子位相差AFを行う場合、ミラー203を透過した光束を撮像素子212で捉える。これに対し、ミラーアップ状態で撮像素子位相差AFを行う場合は、撮像素子212にはミラー203を透過しない光束が入射する。このため、ミラーダウン時とミラーアップ時とでは撮像素子212までの光路長に差が生じる。   When the image sensor phase difference AF is performed in the mirror down state, the light beam transmitted through the mirror 203 is captured by the image sensor 212. On the other hand, when imaging element phase difference AF is performed in the mirror-up state, a light beam that does not pass through the mirror 203 is incident on the imaging element 212. For this reason, a difference occurs in the optical path length to the image sensor 212 when the mirror is down and when the mirror is up.

本実施形態では、上記光路差に起因する誤差を抑えるため、ミラー203の厚さと屈折率とを用いてあらかじめ算出した光路差に基づいてオフセット情報を用意しておき、撮像素子AF回路108がデフォーカス量を演算する際に上記オフセット情報を用いて補正を行う。   In this embodiment, in order to suppress the error due to the optical path difference, offset information is prepared based on the optical path difference calculated in advance using the thickness and the refractive index of the mirror 203, and the image sensor AF circuit 108 performs the defocusing. When the focus amount is calculated, correction is performed using the offset information.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)カメラは、撮影画面内の複数の領域に対応付けてそれぞれ設けられた複数の測距エリア401〜409から、任意の測距エリアを選択するマイクロコンピュータ101と、複数の測距エリア401〜409の各々に配置されており、且つ該各測距エリア401〜409内の互いに異なる複数のブロックa、b、cに配置された複数の焦点検出用画素311を含む焦点検出用画素列を有し、そして瞳分割された一対の光束による像の位相差を、マイクロコンピュータ101で選択された測距エリア401〜409に対応する焦点検出用画素列を用いて検出し、該位相差に基づいて撮影光学系210の焦点調節状態を検出する撮像素子AF回路108および撮像素子212と、シーン認識センサ229で取得された画像情報に基づいて、撮影シーンを認識するシーン認識処理部102と、シーン認識処理部102による認識結果に基づいて、マイクロコンピュータ101に選択された測距エリア401〜409に対応する焦点検出用画素列の複数のブロックa、b、cの焦点検出用画素列の中から位相差検出に用いるブロックの焦点検出用画素311を選択し、該選択された焦点検出用画素311からの信号を用いて焦点調節状態を検出するように撮像素子AF回路108および撮像素子212を制御するマイクロコンピュータ101とを備える。
According to the embodiment described above, the following operational effects can be obtained.
(1) The camera includes a microcomputer 101 that selects an arbitrary distance measurement area from a plurality of distance measurement areas 401 to 409 provided in association with a plurality of areas in the shooting screen, and a plurality of distance measurement areas 401, respectively. Focus detection pixel arrays including a plurality of focus detection pixels 311 disposed in each of the plurality of blocks a, b, and c in each of the distance measurement areas 401 to 409. And detecting a phase difference of an image by a pair of luminous fluxes that are divided into pupils using focus detection pixel rows corresponding to the ranging areas 401 to 409 selected by the microcomputer 101, and based on the phase difference. Based on image information acquired by the image sensor AF circuit 108 and the image sensor 212 for detecting the focus adjustment state of the photographing optical system 210 and the scene recognition sensor 229, A scene recognition processing unit 102 for recognizing a scene, and a plurality of blocks a of a pixel row for focus detection corresponding to the ranging areas 401 to 409 selected by the microcomputer 101 based on a recognition result by the scene recognition processing unit 102; The focus detection pixel 311 of the block used for phase difference detection is selected from the focus detection pixel rows b and c, and the focus adjustment state is detected using the signal from the selected focus detection pixel 311. And the microcomputer 101 for controlling the image sensor AF circuit 108 and the image sensor 212.

上記構成によれば、測距エリア401〜409にそれぞれ複数のブロックa、b、cを含め、任意の選択は測距エリア単位で行い、その先の位相差演算に用いる焦点検出画素311をシーン認識処理部102による認識結果に基づいてブロック単位でさらに選ぶ。これにより、測距エリア選択は大雑把に行えばよいので簡単になり、位相差演算に用いる焦点検出画素311の選択はシーン認識に基づいて精度よく行えるから、カメラの合焦精度を高めることができる。   According to the above configuration, each of the ranging areas 401 to 409 includes a plurality of blocks a, b, and c, and arbitrary selection is performed in units of the ranging area, and the focus detection pixel 311 used for the phase difference calculation after that is selected in the scene. Further, selection is made in units of blocks based on the recognition result by the recognition processing unit 102. As a result, it is easy to select the distance measurement area because it is only necessary to roughly select the focus detection pixel 311 used for the phase difference calculation, and the focus accuracy of the camera can be improved because the selection of the focus detection pixel 311 can be performed accurately based on scene recognition. .

(2)シーン認識処理部102は、マイクロコンピュータ101で選択された測距エリア内において主要被写体の特定位置を特定し、マイクロコンピュータ101は、複数のブロックa、b、cの焦点検出用画素列の中から特定位置に対応するブロックの焦点検出用画素を位相差検出用として選択するので、位相差演算に用いる焦点検出画素311を精度よく選択することができる。 (2) The scene recognition processing unit 102 specifies the specific position of the main subject in the distance measurement area selected by the microcomputer 101, and the microcomputer 101 detects the focus detection pixel arrays of the plurality of blocks a, b, and c. Since the focus detection pixels of the block corresponding to the specific position are selected for phase difference detection, the focus detection pixels 311 used for the phase difference calculation can be selected with high accuracy.

(3)シーン認識処理部102は、マイクロコンピュータ101で選択された測距エリアにおいて、所定色を有する特定位置を特定し、マイクロコンピュータ101は、複数のブロックa、b、cの焦点検出用画素列の中から特定位置に対応するブロックの焦点検出用画素を位相差検出用として選択するので、位相差演算に用いる焦点検出画素311を精度よく選択することができる。 (3) The scene recognition processing unit 102 specifies a specific position having a predetermined color in the distance measurement area selected by the microcomputer 101, and the microcomputer 101 detects focus detection pixels of a plurality of blocks a, b, and c. Since the focus detection pixel of the block corresponding to the specific position is selected for phase difference detection from the column, the focus detection pixel 311 used for the phase difference calculation can be selected with high accuracy.

(4)マイクロコンピュータ101は、シーン認識処理部102によって特定位置が特定されなかった場合には、マイクロコンピュータ101で選択された測距エリアに対応する複数のブロックa、b、cの焦点検出用画素列を構成する焦点検出用画素を位相差検出用として選択するので、測距エリアを広く利用することができる。 (4) When the specific position is not specified by the scene recognition processing unit 102, the microcomputer 101 detects the focus of a plurality of blocks a, b, and c corresponding to the distance measurement area selected by the microcomputer 101. Since the focus detection pixels constituting the pixel row are selected for phase difference detection, the distance measurement area can be widely used.

(5)焦点検出用画素列は、撮影用の撮像素子212内に、焦点検出用の画素列として部分的に含めているので、焦点検出用画素列を有する焦点検出用センサを撮影用撮像素子とは別に設ける場合に比べて、カメラをシンプルな構成にできる。 (5) Since the focus detection pixel array is partially included as the focus detection pixel array in the imaging image sensor 212, the focus detection sensor having the focus detection pixel array is included in the imaging image sensor. Compared with the case where it is provided separately, the camera can have a simple configuration.

(6)測距エリア401〜409のサイズは、シーン認識に用いる画像情報を取得するシーン認識センサ229の最小受光領域のサイズより大きく構成するので、位相差演算に用いる焦点検出画素311の選択をシーン認識に基づいて精度よく行える。 (6) Since the size of the ranging areas 401 to 409 is configured to be larger than the size of the minimum light receiving area of the scene recognition sensor 229 that acquires image information used for scene recognition, the focus detection pixel 311 used for the phase difference calculation is selected. It can be done accurately based on scene recognition.

(変形例1)
上述した説明では、撮像素子位相差AFを行う場合を例に説明したが、撮影用の撮像素子212とは別に位相差検出用の光束を受光する受光素子を設ける場合にも本発明を適用できる。
(Modification 1)
In the above description, the case where the image sensor phase difference AF is performed has been described as an example. However, the present invention can also be applied to a case where a light receiving element that receives a light beam for phase difference detection is provided in addition to the imaging element 212 for photographing. .

(変形例2)
上記実施形態では、測距エリア401〜409を構成する複数のブロックa,b,cの1つが1つのシーン認識エリアとちょうど重なる例を説明した。この代わりに、シーン認識エリアの大きさをさらに細かく構成し、上記ブロックa,b,cの1つが複数のシーン認識エリアと重なるように構成しても良い。この場合のマイクロコンピュータ101は、あるブロックと重なる複数のシーン認識エリアの大部分が被写体の主要部分と重なっている場合(たとえば、複数のシーン認識エリアのうち7割以上で肌色が検出される)に、当該ブロックに相当する焦点検出用画素311から取込まれた測距データをデフォーカス量演算用のデータに決定する。
(Modification 2)
In the above embodiment, an example has been described in which one of the plurality of blocks a, b, and c constituting the ranging areas 401 to 409 overlaps with one scene recognition area. Instead, the size of the scene recognition area may be further finely configured so that one of the blocks a, b, and c overlaps with a plurality of scene recognition areas. In this case, the microcomputer 101 has a case where most of a plurality of scene recognition areas overlapping a certain block overlap with a main part of a subject (for example, skin color is detected in 70% or more of the plurality of scene recognition areas). In addition, the distance measurement data fetched from the focus detection pixel 311 corresponding to the block is determined as data for defocus amount calculation.

(変形例3)
また、上記実施形態で例示した測距エリア401〜409よりも小さな測距エリアを設けてもよい。ただし、シーン認識エリアの大きさも測距エリアの大きさに応じて小さくすることにより、測距エリアを構成する複数のブロックa,b,cの1つが少なくとも1つのシーン認識エリアと重なるようにする点に留意する。
(Modification 3)
Moreover, you may provide a ranging area smaller than the ranging areas 401-409 illustrated by the said embodiment. However, the size of the scene recognition area is also reduced in accordance with the size of the distance measurement area so that one of a plurality of blocks a, b, and c constituting the distance measurement area overlaps at least one scene recognition area. Keep this in mind.

(変形例4)
ファインダー部に設けたシーン認識センサ229で被写体像を撮像し、該シーン認識センサ229からの画素出力信号に基づいて各シーン認識エリアについて輝度および色を検出するようにした。この他に、撮像素子212で被写体像を撮像し、該撮像素子212からの画素出力信号に基づいて各シーン認識エリアにおける輝度および色を検出するように構成してもよい。
(Modification 4)
A subject image is picked up by a scene recognition sensor 229 provided in the viewfinder section, and brightness and color are detected for each scene recognition area based on a pixel output signal from the scene recognition sensor 229. In addition, a subject image may be picked up by the image pickup device 212, and the luminance and color in each scene recognition area may be detected based on the pixel output signal from the image pickup device 212.

(変形例5)
静止した被写体や、撮影画面内を移動する被写体の動きが遅い場合にのみ本発明を適用する構成にしてもよい。被写体が静止しているか否かは、所定時間ごとに各シーン認識エリアで検出される輝度および色に変化があるか否かによって判定する。また、被写体の動きが所定の速度より遅いか否かは、所定時間ごとに各シーン認識エリアで輝度および色を検出する場合に、同じ色および輝度が検出された撮影画面上の距離(同じ色および輝度が検出されたシーン認識エリアの間隔)に基づいて判定する。
(Modification 5)
The present invention may be configured to be applied only when a stationary subject or a subject moving within the shooting screen moves slowly. Whether or not the subject is stationary is determined by whether or not there is a change in luminance and color detected in each scene recognition area every predetermined time. In addition, whether or not the movement of the subject is slower than a predetermined speed depends on whether the same color and the distance on the photographing screen where the luminance is detected (the same color) when the luminance and color are detected in each scene recognition area every predetermined time. And the interval of the scene recognition area where the luminance is detected).

被写体の移動速度が所定の速度より速い動体を検出対象にする場合のマイクロコンピュータ101は、測距エリアのブロックa、ブロックb、およびブロックcの全てに相当する焦点検出用画素311から取込まれた測距データをデフォーカス量の演算用データとして決定する。シーン認識処理速度に比べて速く被写体が移動する場合は、選択された測距エリア内のブロックa、ブロックb、およびブロックcから1つを選んだとしても、次の瞬間に他のブロックへ移動してしまう可能性が高い。このような場合は、複数ブロックa〜cを全て用いることによって測距エリアを広く利用するのが好適である。   The microcomputer 101 in a case where a moving object whose moving speed of the subject is faster than a predetermined speed is to be detected is fetched from the focus detection pixels 311 corresponding to all of the blocks a, b, and c in the ranging area. The measured distance data is determined as defocus amount calculation data. When the subject moves faster than the scene recognition processing speed, even if one of the blocks a, b, and c in the selected distance measurement area is selected, it moves to another block at the next moment There is a high possibility that In such a case, it is preferable to use a wide ranging area by using all the blocks a to c.

(変形例6)
変形例5で説明した理由により、撮影モードがスポーツモード以外の他のモードの場合にのみ本発明を適用する構成にしてもよい。マイクロコンピュータ101は、撮影モードがスポーツモードの場合、測距エリアのブロックa、ブロックb、およびブロックcの全てのブロックに相当する焦点検出用画素311から取込まれた測距データをデフォーカス量の演算用データとして決定する。シーン認識処理速度に比べて撮影対象が速く移動する可能性が高いスポーツモードの場合は、選択された測距エリア内のブロックa、ブロックb、およびブロックcから1つを選んだとしても、次の瞬間に他のブロックへ移動してしまう可能性が高い。このような場合は、選択された測距エリア内の複数ブロックa〜cを全て用いることによって測距エリアを広く利用するのが好適である。
(Modification 6)
For the reason described in the fifth modification, the present invention may be applied only when the shooting mode is a mode other than the sport mode. When the shooting mode is the sport mode, the microcomputer 101 defocuses the distance measurement data acquired from the focus detection pixels 311 corresponding to all blocks a, b, and c in the distance measurement area. It is determined as the calculation data. In the sports mode in which there is a high possibility that the shooting target moves faster than the scene recognition processing speed, even if one of the blocks a, b, and c in the selected ranging area is selected, the next There is a high possibility of moving to another block at the moment. In such a case, it is preferable to use the distance measuring area widely by using all the blocks a to c in the selected distance measuring area.

(変形例7)
変形例6に加えて、シーン認識処理速度に比べて撮影対象が速く移動する可能性が高いスポーツモードの場合は、選択された測距エリア内のブロックa、ブロックb、およびブロックcだけでなく、さらに隣接する測距エリア内のブロックに相当する焦点検出用画素から取込まれた測距データもデフォーカス量の演算用データとして決定してもよい。隣接する測距エリア内のブロックも入れて測距演算を行うことで、適確な測距演算を行うことができる。
(Modification 7)
In addition to the modified example 6, in the case of a sports mode in which there is a high possibility that the shooting target moves faster than the scene recognition processing speed, not only the block a, the block b, and the block c in the selected ranging area Further, distance measurement data captured from focus detection pixels corresponding to blocks in the adjacent distance measurement area may be determined as defocus amount calculation data. An accurate distance measurement calculation can be performed by performing a distance measurement calculation including a block in an adjacent distance measurement area.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

101…マイクロコンピュータ
108…撮像素子AF回路
109…測光演算回路
201…カメラ本体
202…レンズ鏡筒
203…メインミラー
205…メカニカルシャッター
210…撮影光学系
212…撮像素子
229…シーン認識センサ
401〜409…測距エリア
DESCRIPTION OF SYMBOLS 101 ... Microcomputer 108 ... Image pick-up element AF circuit 109 ... Photometry calculating circuit 201 ... Camera body 202 ... Lens barrel 203 ... Main mirror 205 ... Mechanical shutter 210 ... Shooting optical system 212 ... Image pick-up element 229 ... Scene recognition sensors 401-409 ... Ranging area

Claims (8)

撮影画面内の複数の領域に対応付けてそれぞれ設けられた複数の焦点検出領域から、任意の焦点検出領域を選択する選択手段と、
前記複数の焦点検出領域の各々に配置されており、且つ該各焦点検出領域内の互いに異なる複数の位置に配置された複数の受光センサを含むセンサ列を有し、そして瞳分割された一対の光束による像の位相差を、前記選択手段で選択された焦点検出領域に対応する前記センサ列を用いて検出し、該位相差に基づいて撮影光学系の焦点調節状態を検出する焦点検出手段と、
撮像センサで取得された画像情報に基づいて、撮影シーンを認識するシーン認識手段と、
前記シーン認識手段による認識結果に基づいて、前記選択手段に選択された焦点検出領域に対応する前記複数の位置のセンサ列の中から前記位相差検出に用いる位置の受光センサを選択し、該選択された受光センサからの信号を用いて前記焦点調節状態を検出するように前記焦点検出手段を制御する制御手段と、
を備えることを特徴とするカメラ。
A selection means for selecting an arbitrary focus detection area from a plurality of focus detection areas respectively provided in association with a plurality of areas in the photographing screen;
A pair of sensor arrays including a plurality of light receiving sensors arranged in each of the plurality of focus detection areas and arranged at a plurality of different positions in each focus detection area, and divided into pupils A focus detection unit that detects a phase difference of an image due to a light beam by using the sensor array corresponding to the focus detection region selected by the selection unit, and detects a focus adjustment state of the photographing optical system based on the phase difference; ,
Scene recognition means for recognizing a photographic scene based on image information acquired by an imaging sensor;
Based on the recognition result by the scene recognition unit, the light receiving sensor at the position used for the phase difference detection is selected from the sensor rows at the plurality of positions corresponding to the focus detection region selected by the selection unit, and the selection is performed. Control means for controlling the focus detection means to detect the focus adjustment state using a signal from the received light sensor;
A camera comprising:
請求項1に記載のカメラにおいて、
前記撮像センサは撮影用撮像素子であることを特徴とするカメラ。
The camera of claim 1,
The camera according to claim 1, wherein the image sensor is a photographing image sensor.
請求項1または2に記載のカメラにおいて、
前記シーン認識手段は、前記選択手段で選択された焦点検出領域内において主要被写体の特定位置を特定し、
前記制御手段は、前記複数の位置のセンサ列の中から、前記特定位置に対応する位置の受光センサを前記位相差検出用として選択することを特徴とするカメラ。
The camera according to claim 1 or 2,
The scene recognizing unit identifies a specific position of the main subject within the focus detection area selected by the selecting unit;
The control means selects a light receiving sensor at a position corresponding to the specific position from among the sensor rows at the plurality of positions for detecting the phase difference.
請求項1または2に記載のカメラにおいて、
前記シーン認識手段は、前記選択手段によって選択された焦点検出領域において、所定色を有する特定位置を特定し、
前記制御手段は、前記複数の位置のセンサ列の中から、前記特定位置に対応する位置の受光センサを前記位相差検出用として選択することを特徴とするカメラ。
The camera according to claim 1 or 2,
The scene recognizing unit identifies a specific position having a predetermined color in the focus detection area selected by the selecting unit,
The control means selects a light receiving sensor at a position corresponding to the specific position from among the sensor rows at the plurality of positions for detecting the phase difference.
請求項3または4に記載のカメラにおいて、
前記制御手段は、前記シーン認識手段によって前記特定位置が特定されなかった場合には、前記選択手段で選択された焦点検出領域に対応する前記複数の位置のセンサ列を構成する全受光センサを前記位相差検出用として選択することを特徴とするカメラ。
The camera according to claim 3 or 4,
When the specific position is not specified by the scene recognizing unit, the control unit selects all the light receiving sensors that constitute the sensor rows at the plurality of positions corresponding to the focus detection area selected by the selecting unit. A camera that is selected for phase difference detection.
請求項1〜5のいずれか一項に記載のカメラにおいて、
前記センサ列は、撮影用撮像素子内に、焦点検出用の画素列として部分的に含まれていることを特徴とするカメラ。
In the camera according to any one of claims 1 to 5,
The camera, wherein the sensor array is partially included as a focus detection pixel array in a photographing image sensor.
請求項1〜5のいずれか一項に記載のカメラにおいて、
複数の前記センサ列は、撮影用撮像素子とは別に構成されることを特徴とするカメラ。
In the camera according to any one of claims 1 to 5,
The camera, wherein the plurality of sensor arrays are configured separately from the imaging element for photographing.
請求項1〜7のいずれか一項に記載のカメラにおいて、
前記焦点検出領域のサイズは、前記シーン認識に用いる画像情報を取得する撮像センサの最小受光領域のサイズより大きいことを特徴とするカメラ。
In the camera according to any one of claims 1 to 7,
The size of the focus detection area is larger than the size of the minimum light receiving area of an image sensor that acquires image information used for the scene recognition.
JP2010281903A 2010-12-17 2010-12-17 Camera Pending JP2012128343A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010281903A JP2012128343A (en) 2010-12-17 2010-12-17 Camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010281903A JP2012128343A (en) 2010-12-17 2010-12-17 Camera

Publications (1)

Publication Number Publication Date
JP2012128343A true JP2012128343A (en) 2012-07-05

Family

ID=46645391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010281903A Pending JP2012128343A (en) 2010-12-17 2010-12-17 Camera

Country Status (1)

Country Link
JP (1) JP2012128343A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015102840A (en) * 2013-11-28 2015-06-04 株式会社ニコン Focus detection device
WO2017135276A1 (en) * 2016-02-01 2017-08-10 ソニー株式会社 Controller, control method, and control program
CN107850753A (en) * 2015-08-31 2018-03-27 索尼公司 Detection device, detection method, detection program and imaging device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249265A (en) * 2000-03-02 2001-09-14 Olympus Optical Co Ltd Range finder
JP2001264621A (en) * 2000-03-15 2001-09-26 Olympus Optical Co Ltd Range-finding device
US20070104472A1 (en) * 2005-11-08 2007-05-10 Shuxue Quan Skin color prioritized automatic focus control via sensor-dependent skin color detection
JP2009244429A (en) * 2008-03-28 2009-10-22 Canon Inc Imaging apparatus
JP2010243899A (en) * 2009-04-08 2010-10-28 Canon Inc Focus detecting device and method, and imaging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249265A (en) * 2000-03-02 2001-09-14 Olympus Optical Co Ltd Range finder
JP2001264621A (en) * 2000-03-15 2001-09-26 Olympus Optical Co Ltd Range-finding device
US20070104472A1 (en) * 2005-11-08 2007-05-10 Shuxue Quan Skin color prioritized automatic focus control via sensor-dependent skin color detection
JP2009244429A (en) * 2008-03-28 2009-10-22 Canon Inc Imaging apparatus
JP2010243899A (en) * 2009-04-08 2010-10-28 Canon Inc Focus detecting device and method, and imaging device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015102840A (en) * 2013-11-28 2015-06-04 株式会社ニコン Focus detection device
CN107850753A (en) * 2015-08-31 2018-03-27 索尼公司 Detection device, detection method, detection program and imaging device
EP3346308A4 (en) * 2015-08-31 2019-07-24 Sony Corporation Detection device, detection method, detection program, and imaging device
US11275230B2 (en) 2015-08-31 2022-03-15 Sony Group Corporation Detection apparatus, detection method, detection program, and imaging apparatus
WO2017135276A1 (en) * 2016-02-01 2017-08-10 ソニー株式会社 Controller, control method, and control program
CN108603997A (en) * 2016-02-01 2018-09-28 索尼公司 control device, control method and control program
JPWO2017135276A1 (en) * 2016-02-01 2018-11-22 ソニー株式会社 Control device, control method, and control program
US10686979B2 (en) 2016-02-01 2020-06-16 Sony Corporation Control apparatus and control method
JP2021105734A (en) * 2016-02-01 2021-07-26 ソニーグループ株式会社 Control device, control method and control program
CN108603997B (en) * 2016-02-01 2021-08-13 索尼公司 Control device, control method, and control program
JP7036423B2 (en) 2016-02-01 2022-03-15 ソニーグループ株式会社 Controls, control methods and control programs
JP7131647B2 (en) 2016-02-01 2022-09-06 ソニーグループ株式会社 Control device, control method and control program

Similar Documents

Publication Publication Date Title
JP4766133B2 (en) Imaging device
US8542941B2 (en) Imaging device, image detecting method and focus adjusting method
JP5163257B2 (en) Imaging device
JP2010197551A (en) Imaging apparatus and image synthesis method
JP2009109839A (en) Image tracking device and imaging device
US10348955B2 (en) Imaging apparatus, control method, and storage medium for tracking an imaging target in a continuous shooting operation
JP5925186B2 (en) Imaging apparatus and control method thereof
JP5056168B2 (en) Focus adjustment device and imaging device
JP2009294416A (en) Imaging apparatus and its control method
JP5056136B2 (en) Image tracking device
JP2010088049A (en) Imaging apparatus and image recording method
JP2012208507A (en) Image tracking device
JP2012128343A (en) Camera
JP6561437B2 (en) Focus adjustment device and imaging device
JP2012083584A (en) Imaging device
JP2009010672A (en) Focus detector and image pickup device
JP2013122494A (en) Focus detector and camera
JP2013122495A (en) Focus detector and camera
JP2012189878A (en) Imaging apparatus
JP5776191B2 (en) Focus detection apparatus and imaging apparatus
JP5256847B2 (en) Imaging device
JP2009063689A (en) Focus detecting device and imaging apparatus
JP5359150B2 (en) Imaging device
JP2014197141A (en) Imaging apparatus
JP4865275B2 (en) Focus detection apparatus and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150106