JP2012128343A - Camera - Google Patents
Camera Download PDFInfo
- Publication number
- JP2012128343A JP2012128343A JP2010281903A JP2010281903A JP2012128343A JP 2012128343 A JP2012128343 A JP 2012128343A JP 2010281903 A JP2010281903 A JP 2010281903A JP 2010281903 A JP2010281903 A JP 2010281903A JP 2012128343 A JP2012128343 A JP 2012128343A
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- sensor
- phase difference
- area
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、カメラに関する。 The present invention relates to a camera.
撮像素子の中に配置された焦点検出用画素列からの信号により焦点調節状態を検出する、いわゆる撮像素子位相差AF(オートフォーカス)技術が知られている(特許文献1参照)。焦点検出用画素列は、予め配設される位置と長さが定められている。 A so-called image sensor phase difference AF (autofocus) technique for detecting a focus adjustment state based on a signal from a focus detection pixel array arranged in the image sensor is known (see Patent Document 1). The focus detection pixel column has a predetermined position and length.
従来技術では、焦点検出用画素列の長さ方向の全ての画素からの信号を用いて焦点検出演算を行うので、主要被写体からの光束を受けない画素からの信号が含まれる場合は合焦精度を高められないという問題があった。 In the prior art, focus detection calculation is performed using signals from all the pixels in the length direction of the focus detection pixel row. Therefore, if signals from pixels that do not receive the light flux from the main subject are included, focusing accuracy is included. There was a problem that could not be raised.
本発明によるカメラは、撮影画面内の複数の領域に対応付けてそれぞれ設けられた複数の焦点検出領域から、任意の焦点検出領域を選択する選択手段と、複数の焦点検出領域の各々に配置されており、且つ該各焦点検出領域内の互いに異なる複数の位置に配置された複数の受光センサを含むセンサ列を有し、そして瞳分割された一対の光束による像の位相差を、選択手段で選択された焦点検出領域に対応するセンサ列を用いて検出し、該位相差に基づいて撮影光学系の焦点調節状態を検出する焦点検出手段と、撮像センサで取得された画像情報に基づいて、撮影シーンを認識するシーン認識手段と、シーン認識手段による認識結果に基づいて、選択手段に選択された焦点検出領域に対応する複数の位置のセンサ列の中から位相差検出に用いる位置の受光センサを選択し、該選択された受光センサからの信号を用いて焦点調節状態を検出するように焦点検出手段を制御する制御手段と、を備えることを特徴とする。 A camera according to the present invention is arranged in each of a plurality of focus detection areas, a selection unit that selects an arbitrary focus detection area from a plurality of focus detection areas provided in association with a plurality of areas in a shooting screen, respectively. And a sensor array including a plurality of light receiving sensors disposed at a plurality of different positions in each focus detection area, and the phase difference of an image due to a pair of pupil-divided light beams is selected by a selection unit. Based on the image information acquired by the focus detection means that detects using the sensor array corresponding to the selected focus detection area and detects the focus adjustment state of the imaging optical system based on the phase difference, Used for phase difference detection from a plurality of sensor rows at a plurality of positions corresponding to the focus detection area selected by the selection means based on the scene recognition means for recognizing the photographic scene and the recognition result by the scene recognition means Select the light receiving sensor location, characterized in that it comprises a control means for controlling the focus detection means to detect the focusing state using a signal from the selected light-receiving sensor.
本発明によるカメラでは、合焦精度を高めることができる。 In the camera according to the present invention, the focusing accuracy can be increased.
以下、図面を参照して本発明を実施するための形態について説明する。図1および図2は、本発明の一実施の形態による焦点検出装置を搭載した一眼レフ電子カメラの要部構成を説明する図である。図1および図2において、カメラ本体201に対して着脱可能に構成される撮影レンズ鏡筒202が装着されている。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 and FIG. 2 are diagrams for explaining the main configuration of a single-lens reflex electronic camera equipped with a focus detection device according to an embodiment of the present invention. 1 and 2, a
被写体からの光は、撮影レンズ鏡筒202の撮影光学系210および絞り211を介してカメラ本体201へ入射される。カメラ本体201に入射した被写体光は、レリーズ前は図1に例示したミラーダウン状態にある半透過のクイックリターンミラー(以下ミラーと呼ぶ)203で上方のファインダー部へ向けて折り曲げられ、拡散スクリーン206に結像する。また、ミラー203を透過した被写体光は、撮像素子212へ導かれ、その撮像面上に被写体像を結像する。撮像素子212は、画素に対応する複数の光電変換素子を備えたCMOSイメージセンサなどによって構成される。
Light from the subject enters the
拡散スクリーン206に結像した被写体光はさらに、ペンタプリズム221へ入射される。ペンタプリズム221は、入射された被写体光を接眼光学系223へ導く。撮影者は、ファインダー接眼窓41(図3)から接眼光学系223を通してファインダーによる被写体像を観察する。
The subject light imaged on the
ペンタプリズム221へ入射された被写体光の一部は、プリズム25で上方へ折り曲げられ、レンズ227を介してシーン認識センサ229の撮像面上に被写体像を結像する。シーン認識センサ229は、画素に対応する複数の光電変換素子を備えたCMOSイメージセンサなどによって構成される。シーン認識センサ229の画素数は撮像素子212の画素数に比べて少なく構成される。これにより、シーン認識センサ229で取得される画像の解像度は、撮像素子212で取得される画像の解像度より低い。
Part of the subject light incident on the
レリーズ後は、図2に例示したミラーアップ位置へミラー203が回動し、全ての被写体光はメカニカルシャッター205を介して撮像素子212へ導かれ、その撮像面上に被写体像を結像する。撮像素子212は、撮像面上に結像されている被写体像を撮像し、被写体像の明るさに応じた光電変換信号を出力する。なお、撮像素子212の撮像面側に光学ローパスフィルター213が設けられている。
After the release, the
レンズ駆動機構214は、撮影光学系210を構成するフォーカス調節レンズを光軸方向に進退駆動する。フォーカス調節レンズの駆動方向および駆動量は、カメラ本体201側から指示される。なお、図を簡単にするため、撮影光学系210を単レンズとして表している。
The
図1のミラーダウン状態は、撮影者が接眼光学系223を介して被写体像を観察できるようにする撮影準備状態である。図2のミラーアップ状態は、被写体光が全て撮像素子212へ導かれる撮影時の状態である。本実施形態では、ミラーダウン状態およびミラーアップ状態のいずれの場合にも、撮像素子212からの出力信号に基づいて焦点検出(撮像素子位相差AFと呼ぶ)が可能に構成される。
The mirror-down state in FIG. 1 is a shooting preparation state in which the photographer can observe the subject image via the eyepiece
図3は、電子カメラの外観を例示する図である。図3において、電子カメラの上面に、メインスイッチSW1と、レリーズボタンSW2と、白黒液晶モニター31とを有する。電子カメラの背面に、取消しスイッチSW3と、モードスイッチSW4と、左選択スイッチSW5と、右選択スイッチSW6と、上選択スイッチSW7と、下選択スイッチSW8と、確定スイッチSW9と、削除スイッチSW10と、コマンドダイアル45と、カラー液晶モニター61と、ファインダー接眼窓41とを有する。
FIG. 3 is a diagram illustrating an appearance of the electronic camera. In FIG. 3, a main switch SW1, a release button SW2, and a monochrome
図4は、上述した電子カメラの構成を説明するブロック図である。電子カメラは、マイクロコンピュータ101によって制御される。メインスイッチSW1は、電子カメラの電源オン/オフをそれぞれ指示する操作信号を出力する。レリーズスイッチは、レリーズボタンSW2の押下操作に連動して撮影開始を指示する信号を出力する。
FIG. 4 is a block diagram illustrating the configuration of the electronic camera described above. The electronic camera is controlled by the
取消しスイッチSW3は、操作取消しを示す操作信号を出力する。モードスイッチSW4は、電子カメラの動作モード、すなわち、撮影モードおよび再生モード等を切替えるための操作信号をそれぞれ出力する。 The cancel switch SW3 outputs an operation signal indicating operation cancellation. The mode switch SW4 outputs an operation signal for switching the operation mode of the electronic camera, that is, the photographing mode and the reproduction mode.
左選択スイッチSW5、右選択スイッチSW6、上選択スイッチSW7、および下選択スイッチSW8は、それぞれ選択方向を示す操作信号を出力する。確定スイッチSW9は、操作確定を示す操作信号を出力する。削除スイッチSW10は、削除指示を示す操作信号を出力する。スイッチSW11およびスイッチSW12は、コマンドダイアル45の回転操作に応じて操作信号を出力する。
The left selection switch SW5, right selection switch SW6, upper selection switch SW7, and lower selection switch SW8 each output an operation signal indicating the selection direction. The confirmation switch SW9 outputs an operation signal indicating operation confirmation. The deletion switch SW10 outputs an operation signal indicating a deletion instruction. The switch SW11 and the switch SW12 output an operation signal according to the rotation operation of the
レンズ鏡筒202はレンズ鏡筒内CPUを含み、マイクロコンピュータ101との間で通信を行う。レンズ鏡筒内CPUは、マイクロコンピュータ101からの指示に応じてレンズ駆動機構214(図1、図2)を駆動制御し、上記フォーカス調節レンズ(210)を進退移動させる。
The
撮像処理回路107は、撮像素子212から出力される画像データに対して所定の画像処理を行う。画像処理は、γ変換処理やホワイトバランス調整処理などを含む。
The
撮像素子AF回路108は、撮像素子212の所定画素からの出力信号に基づいて像ズレ検出演算処理(相関処理、位相差検出処理)を施すことにより、いわゆる瞳分割型位相差検出方式(マイクロレンズ方式)で一対の像の像ズレ量を検出する。さらに、像ズレ量に所定の変換係数を乗ずることにより、予定焦点面に対する現在の結像面の偏差(デフォーカス量)を算出する。そして、該デフォーカス量に応じて上記フォーカス調節レンズの移動方向および移動量を演算する。像ズレ検出演算処理の詳細については後述する。
The image
測光演算回路109は、シーン認識センサ229からの画素出力信号に基づいて測光演算を行う。シーン認識処理部102は、シーン認識センサ229の所定のエリア(シーン認識エリアと呼ぶ)ごとの画素出力信号に基づき、各シーン認識エリアについて輝度および色を検出する。たとえば、G色成分の信号から輝度を求め、R色成分とB色成分との信号比率から色を検出する。
The
ドライバ回路103は、マイクロコンピュータ101からの指令に応じてメカニカルシャッター205を駆動する。ドライバ回路104は、マイクロコンピュータ101からの指令に応じて絞り機構214を駆動する。絞り機構214が不図示の絞り駆動レバーを動かすと、レンズ鏡筒202側の絞り211の口径が変化する。ドライバ回路105は、マイクロコンピュータ101からの指令に応じてミラー機構215を駆動する。ミラー機構215は、ミラー203をアップ駆動またはダウン駆動する。
The
外部インタフェース113は、電子カメラ内のデータをパソコンや別の電子カメラなどの外部機器へ出力(送信)したり、外部機器からのデータを入力(受信)したりするインターフェース回路である。外部インタフェース113の例として、RS232C、USB、IEEE1394などがある。
The
表示制御部110は、マイクロコンピュータ101からの指令によりカラー液晶モニター61に対する駆動信号を生成する。カラー液晶モニター61は、画像や操作メニューなどを表示する。表示制御部111は、マイクロコンピュータ101からの指令により白黒液晶モニター31に対する駆動信号を生成する。白黒液晶モニター31は、コマ数や撮影条件などの撮影情報を表示する。
The
メモリカード119は、カードコネクター117を介して電子カメラに着脱される記録媒体である。メモリカード119には画像データや音声データが記録される。ドライバ回路106は、マイクロコンピュータ101からの指令に応じて測距エリア照射装置115を駆動制御する。測距エリア照射装置115は、撮像素子位相差AF時における必要な場合に、測距補助光を発して被写体を照明する。
The
画像記憶メモリ121は、上述した画像処理、後述する圧縮処理および伸長処理の際に一時的に画像データを格納する。圧縮/伸長回路123は、たとえば、JPEGなど所定の方式で画像データを圧縮処理したり、圧縮された画像データを伸長処理したりする。メモリ125は、マイクロコンピュータ101の作業領域として利用される。タイマー127は、マイクロコンピュータ101によって指定された時間を計時し、タイムアップ信号を出力する。電池129は、電子カメラ内の各部に電力を供給する。
The
<撮像素子位相差AF処理>
撮像素子AF回路108で行うAF(自動焦点調節)処理について詳細に説明する。本実施形態の撮像素子212は、フォーカス検出用の画素(焦点検出用画素と呼ぶ)を有する。この撮像素子212は、特開2007−279312号公報に記載されている撮像素子と同様のものである。撮像素子AF回路108は、焦点検出用画素からの画素出力データを用いて位相差検出演算を行うことにより、焦点検出処理を行う。
<Image sensor phase difference AF processing>
An AF (automatic focus adjustment) process performed by the image
図5は、撮像素子212の詳細な構成を示す正面図である。撮像素子212には、撮像用画素310が二次元状に配列されている。そして、後述する測距エリアに対応する部分に焦点検出用画素311が配列されている。図5の例では、撮像面の略中央に焦点検出用画素列が水平方向に並ぶ。図6は、撮像用画素のみを拡大した断面図であり、図7は、焦点検出用画素のみを拡大した断面図である。
FIG. 5 is a front view showing a detailed configuration of the
図6において、撮像用画素310は、マイクロレンズ10と撮像用の光電変換部11を備える。マイクロレンズ10は光電変換部11の前方(図6において左側)に配置され、光電変換部11は撮像素子212内の半導体回路基板(不図示)上に形成される。
In FIG. 6, the
図7において、焦点検出用画素311は、マイクロレンズ10と焦点検出用の一対の光電変換部12および光電変換部13を備える。両光電変換部12、13は、それぞれがマイクロレンズ10の中央に対して対称に配置される。マイクロレンズ10は光電変換部12、13 の前方(図7において左側)に配置され、光電変換部12、13は撮像用画素310の光電変換部11と同一の半導体回路基板上に形成される。なお、上記マイクロレンズ10は、撮影光学系210の焦点面近傍に配置される。
In FIG. 7, the
図8は、撮像素子AFによる瞳分割型位相差検出方法を説明する図であり、焦点検出用画素311の一部(マイクロレンズ50、60 と二対の光電変換部52・53、62・63)を図示したものである。射出瞳90は、撮影光学系210の焦点面位置に配置されたマイクロレンズ50、60から前方(図8において左側)の距離d4に投影される射出瞳である。距離d4は、マイクロレンズ10(50、60)の曲率、屈折率、およびマイクロレンズ10(50、60)と光電変換部12、13との間の距離などに応じて決まる距離であり、測距瞳距離と呼ぶ。
FIG. 8 is a diagram for explaining a pupil division type phase difference detection method using the image sensor AF. A part of the focus detection pixel 311 (
光軸91は、撮影光学系210の光軸である。測距瞳92は、マイクロレンズ50、60および光電変換部52、62 に対応する測距瞳であり、測距瞳93は、マイクロレンズ50、60および光電変換部53、63に対応する測距瞳である。一対の測距瞳領域92、93を通過した二対の焦点検出用被写体光束72・73、82・83は、それぞれマイクロレンズ50、60を介して二対の光電変換部52・53、62・63に到達する。図8では、光軸91上にある焦点検出用画素311(マイクロレンズ50と一対の光電変換部52・53)と、光軸91外にある焦点検出用画素311(マイクロレンズ60と一対の光電変換部62・63)を模式的に例示しているが、その他の焦点検出用画素311においても一対の測距瞳から各マイクロレンズに到来する焦点検出用光束を一対の光電変換部でそれぞれ受光する。なお、焦点検出用画素311の配列方向(図5において水平方向)は、一対の測距瞳の分割方向(図8において上下方向)と一致させる。
The optical axis 91 is the optical axis of the photographing
上述した構成を有することにより、焦点検出用画素は、特開2007−279312号公報に記載されるように、それぞれ瞳分割された光束が入射されることになる。具体的には、光電変換部12、13には、それぞれマイクロレンズ10の片半面を通過した光束のみが受光される。たとえば、光電変換部52、62には、測距瞳92からの光束(A成分と呼ぶ)のみが入射される。一方、光電変換部53、63には、測距瞳93からの光束(B成分と呼ぶ)のみが入射される。
By having the above-described configuration, the focus detection pixels are each incident with a pupil-divided light beam as described in Japanese Patent Application Laid-Open No. 2007-279312. Specifically, the
この結果、A成分の光束が入射される光電変換部52、62、…から得られる画素出力(A成分のデータ列)は、撮影光学系210の測距瞳92から入射された光束による像を表し、B成分の光束が入射される光電変換部53、63、…から得られる画素出力(B成分のデータ列)は、測距瞳93から入射された光束による像を表す。
As a result, the pixel output (A component data string) obtained from the
A成分による被写体像、およびB成分による被写体像からなる一対の被写体像は、撮影光学系210が予定焦点面よりも前に被写体の鮮鋭像を結ぶいわゆる前ピン状態では互いに近づき、逆に予定焦点面より後ろに被写体の鮮鋭像を結ぶいわゆる後ピン状態では互いに遠ざかる。予定焦点面において被写体の鮮鋭像を結ぶ合焦状態には、上記一対の像が相対的に一致する。したがって、一対の像の相対位置ズレ量を求めることにより、撮影光学系210のフォーカス調節状態、すなわちデフォーカス量が得られる。
A pair of subject images composed of a subject image by the A component and a subject image by the B component approach each other in the so-called front pin state in which the photographing
撮像素子AF回路108は、A成分のデータ列およびB成分のデータ列の相対的な位置関係をずらしながら、2つのデータ列間の像ズレ量(シフト量と呼ぶ)と、A成分のデータ列とB成分のデータ列との相関度を演算する。相関値が最小となる(相関値が小さいほど2つのデータ列の相関度が高い)シフト量を求める演算は、公知の位相差検出演算による。
The image
撮像素子AF回路108は、相関値を最小にするシフト量に所定係数を掛けることにより、デフォーカス量を求める。なお、デフォーカス量は測距エリアごとに異なる。また、デフォーカス量の検出精度は、像ズレ量の検出ピッチおよびマイクロレンズ10の配列ピッチに依存する。撮像素子AF回路108は、デフォーカス量に基づいてフォーカス調節レンズ(210)の移動方向および移動量を演算する。
The image
<測距エリアの配置>
撮影光学系210の焦点面に設定する測距エリア(焦点検出位置)について、図9−図11を参照して説明する。図9は、撮影光学系210の焦点面に相当する領域400の中に9箇所の測距エリア401〜409が設定されている場合の測距エリア401〜409の配置を例示する図である。各測距エリア401〜409は、それぞれが3つのブロック(測距エリアが縦長の場合は上からa,b,c、測距エリアが横長の場合は左からa,b,cと表す)で構成される。測距エリア401を例に説明すると、上から順にブロック401a、ブロック401b、およびブロック401cによって構成される。
<Range of ranging area>
A ranging area (focus detection position) set on the focal plane of the photographing
本実施形態では、マイクロコンピュータ101がユーザーによる測距エリアの指定操作を受け付ける測距モードの場合には、左選択スイッチSW5、右選択スイッチSW6、上選択スイッチSW7、および下選択スイッチSW8からの操作信号に応じて、マイクロコンピュータ101が測距エリア401〜409のいずれか1つを選択する。そして、選択した1つの測距エリア内に含まれる複数のブロックから、測距演算に用いるブロックをマイクロコンピュータ101が決定する。たとえば、測距エリア401を選択している状態では、ブロック401a〜ブロック401cの中から測距演算に使用するブロックを決める。
In the present embodiment, when the
また、マイクロコンピュータ101が撮影画面における主要被写体を追尾する測距モードの場合には、追尾対象の位置に応じて測距エリア401〜409のいずれか1つをマイクロコンピュータ101が選択する。そして、選択した1つの測距エリア内に含まれる複数のブロックから、測距演算に用いるブロックをマイクロコンピュータ101が決定する。ユーザーによる測距エリアの指定操作を受け付ける測距モードと、主要被写体を追尾して測距エリアを選択する測距モードとの切替えは、モードスイッチSW4からの操作信号に応じて行うように構成される。
When the
図10は、シーン認識処理部102が輝度や色を検出する(シーン認識を行う)単位領域であるシーン認識エリアを説明する図である。図10において、撮影光学系210の焦点面に相当する領域500の中に、たとえば、横13列、縦9行で合計117のシーン認識エリア501〜617が設けられている。シーン認識処理部102は、各シーン認識エリアに含まれる画素からの信号に基づいて、各シーン認識エリアを代表する輝度や色を認識する。
FIG. 10 is a diagram for explaining a scene recognition area which is a unit area in which the scene
図11は、図9の測距エリアと図10のシーン認識エリアとを重ね合わせて示した図である。本実施形態では、測距エリアを構成する各ブロックが別々のシーン認識エリアと重なるように構成されている。図11に示すように、ユーザー操作または追尾処理によって選択する「測距エリア」の単位領域は、測距演算に使用する「ブロック」の単位領域の大きさよりも大である。 FIG. 11 is a diagram in which the ranging area of FIG. 9 and the scene recognition area of FIG. 10 are overlapped. In this embodiment, each block constituting the distance measurement area is configured to overlap with a separate scene recognition area. As shown in FIG. 11, the unit area of the “ranging area” selected by the user operation or the tracking process is larger than the unit area of the “block” used for the ranging calculation.
図12は、人物を撮影する例を説明する図である。たとえば、ユーザーによる測距エリアの指定操作を受け付ける測距モードにおいて、測距エリア402が選択されている。図12によれば、測距エリア402には人物の「顔」が含まれるが、「顔」の他に「首」や「胸」も含まれている。仮に測距エリア402を構成するブロック402a〜402cに相当する焦点検出用画素からの出力信号の全てを用いてデフォーカス量を演算する場合、「顔」のみに正確に合焦させるのは困難である。この理由を図13を参照して説明する。図13は、測距エリア402、該測距エリア402を構成するブロック402a〜402c、および対応するシーン認識エリア543,556,569を示す図である。
FIG. 12 is a diagram illustrating an example of photographing a person. For example, the
ブロック402aは「顔」に対応するので、ブロック402aに相当する焦点検出用画素からの出力信号を用いてデフォーカス量を演算すると、「顔」を対象にデフォーカス量が算出される。また、ブロック402bは「首」に対応するので、ブロック402bに相当する焦点検出用画素からの出力信号を用いてデフォーカス量を演算すると、「首」を対象にデフォーカス量が算出される。さらに、ブロック402cは「胸」に対応するので、ブロック402cに相当する焦点検出用画素からの出力信号を用いてデフォーカス量を演算すると、「胸」を対象にデフォーカス量が算出される。したがって、ブロック402a〜402cに相当する焦点検出用画素からの全ての出力信号を用いた場合、3つのデフォーカス量の平均的な値に基づいてピント合わせを行うことになるため、「顔」のみに正確に合焦させるのが困難となる。
Since the
シーン認識処理部102は、シーン認識エリア543で「顔」に対応する輝度・肌色を認識し、シーン認識エリア556および569ではそれぞれ「首」、「胸」の輝度・色を認識する。図12および図13の例では、シーン認識エリア543で肌色が認識されるものの、シーン認識エリア556および569では肌色は認識されない。そこで、マイクロコンピュータ101は、肌色領域に基づくデフォーカス量を優先的に採用するため、肌色が認識されているシーン認識エリア543に重なっているブロック402aに相当する焦点検出用画素からの出力信号のみを用いてデフォーカス量を演算する。人物撮影の場合は肌色領域が被写体の主要部分である可能性が高いからである。これにより、「顔」に正確に合焦させることができる。なお、「顔」を認識する手法としては、周知のパターンマッチングによる手法を用いるようにしてもよい。
The scene
上述したマイクロコンピュータ101が実行する処理(デフォーカス量演算に用いるデータを決定する処理)の流れについて、図14に例示するフローチャートを参照して説明する。マイクロコンピュータ101は、たとえば、レリーズボタンSW2が半押し操作された場合に図14による処理を起動する。
A flow of processing (processing for determining data used for defocus amount calculation) executed by the
図14のステップS101において、マイクロコンピュータ101は、シーン認識センサ229に画像を取得させてステップS103へ進む。ステップS103において、マイクロコンピュータ101は、選択している1つの測距エリアを認識してステップS104へ進む。上述したように、1つの測距エリアは、各選択スイッチSW5、SW6、SW7、およびSW8からの操作信号に応じて選択する場合と、撮影画面における追尾対象の位置に応じて選択する場合とがある。
In step S101 of FIG. 14, the
ステップS104において、マイクロコンピュータ101は、選択している1つの測距エリアについて、撮像素子212が有する焦点検出用画素のうち、ブロックa〜ブロックcに相当する画素から撮像信号を読出してステップS105へ進む(測距データの取込み)。
In step S104, the
ステップS105において、マイクロコンピュータ101は、選択されている測距エリアと、シーン認識処理部102による解析情報(輝度、色)を用いて主要被写体を判定し、ステップS107へ進む。たとえば、選択されている測距エリアを構成するブロックと重なるシーン認識エリアで肌色が検出される場合は、当該肌色が検出された領域を主要被写体と判定する。なお、撮影画面における追尾対象の位置に応じて測距エリアを選択している場合は、ステップS105に相当するプロセスは公知の追尾処理において行われているのでS105をスキップする。
In step S105, the
ステップS107において、マイクロコンピュータ101は、ブロックaが主要被写体上にある(重なっている)か否かを判定する。マイクロコンピュータ101は、主要被写体上にある(たとえば、ブロックaと重なるシーン認識エリアにおいて肌色が検出される)場合にステップS107を肯定判定してステップS121へ進む。マイクロコンピュータ101は、主要被写体上にない(たとえば、ブロックaと重なるシーン認識エリアにおいて肌色が検出されない)場合には、ステップS107を肯定判定してステップS109へ進む。
In step S107, the
ステップS109において、マイクロコンピュータ101は、ブロックbが主要被写体上にある(重なっている)か否かを判定する。マイクロコンピュータ101は、主要被写体上にある(たとえば、ブロックbと重なるシーン認識エリアにおいて肌色が検出される)場合にステップS109を肯定判定してステップS123へ進む。マイクロコンピュータ101は、主要被写体上にない(たとえば、ブロックbと重なるシーン認識エリアにおいて肌色が検出されない)場合には、ステップS109を肯定判定してステップS111へ進む。
In step S109, the
ステップS111において、マイクロコンピュータ101は、ブロックcが主要被写体上にある(重なっている)か否かを判定する。マイクロコンピュータ101は、主要被写体上にある(たとえば、ブロックcと重なるシーン認識エリアにおいて肌色が検出される)場合にステップS111を肯定判定してステップS125へ進む。マイクロコンピュータ101は、主要被写体上にない(たとえば、ブロックcと重なるシーン認識エリアにおいて肌色が検出されない)場合には、ステップS111を肯定判定してステップS113へ進む。
In step S111, the
上記ステップS107を肯定判定した場合に進むステップS121において、マイクロコンピュータ101は、測距エリアのブロックaに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用のデータに決定してステップS109へ進む。
In step S121, which proceeds when an affirmative determination is made in step S107, the
上記ステップS109を肯定判定した場合に進むステップS123において、マイクロコンピュータ101は、測距エリアのブロックbに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用のデータに決定してステップS111へ進む。
In step S123, which proceeds when an affirmative determination is made in step S109, the
上記ステップS111を肯定判定した場合に進むステップS125において、マイクロコンピュータ101は、測距エリアのブロックcに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用のデータに決定してステップS113へ進む。
In step S125, which proceeds when an affirmative determination is made in step S111, the
ステップS113において、マイクロコンピュータ101は、ブロックa、ブロックb、ブロックcのいずれかのブロックに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用のデータに決定したか否かを判定する。マイクロコンピュータ101は、該当する測距データをデフォーカス量の演算用のデータに決定している場合はステップS113を肯定判定してステップS117へ進む。マイクロコンピュータ101は、該当する測距データをデフォーカス量の演算用のデータに決定していない場合には、ステップS113を否定判定してステップS115へ進む。
In step S113, the
ステップS117において、マイクロコンピュータ101は撮像素子AF回路108へ指示を送り、決定した測距データを用いてデフォーカス量を演算(測距演算)させて図14による処理を終了する。マイクロコンピュータ101が撮像素子AF回路108で演算されたフォーカス調節レンズ(210)の移動方向および移動量を示す情報をレンズ鏡筒202内CPUへ送信すると、該レンズ鏡筒202内CPUがフォーカス調節レンズ(210)を移動させて、一連のAF処理が終了する。
In step S117, the
上記ステップS113を否定判定した場合に進むステップS115において、マイクロコンピュータ101は、測距エリアのブロックa、ブロックb、およびブロックcの全てのブロックに相当する焦点検出用画素から取込まれた測距データをデフォーカス量の演算用データとして決定してステップS117へ進む。
In step S115, which proceeds when a negative determination is made in step S113, the
ミラーダウン状態で撮像素子位相差AFを行う場合、ミラー203を透過した光束を撮像素子212で捉える。これに対し、ミラーアップ状態で撮像素子位相差AFを行う場合は、撮像素子212にはミラー203を透過しない光束が入射する。このため、ミラーダウン時とミラーアップ時とでは撮像素子212までの光路長に差が生じる。
When the image sensor phase difference AF is performed in the mirror down state, the light beam transmitted through the
本実施形態では、上記光路差に起因する誤差を抑えるため、ミラー203の厚さと屈折率とを用いてあらかじめ算出した光路差に基づいてオフセット情報を用意しておき、撮像素子AF回路108がデフォーカス量を演算する際に上記オフセット情報を用いて補正を行う。
In this embodiment, in order to suppress the error due to the optical path difference, offset information is prepared based on the optical path difference calculated in advance using the thickness and the refractive index of the
以上説明した実施形態によれば、次の作用効果が得られる。
(1)カメラは、撮影画面内の複数の領域に対応付けてそれぞれ設けられた複数の測距エリア401〜409から、任意の測距エリアを選択するマイクロコンピュータ101と、複数の測距エリア401〜409の各々に配置されており、且つ該各測距エリア401〜409内の互いに異なる複数のブロックa、b、cに配置された複数の焦点検出用画素311を含む焦点検出用画素列を有し、そして瞳分割された一対の光束による像の位相差を、マイクロコンピュータ101で選択された測距エリア401〜409に対応する焦点検出用画素列を用いて検出し、該位相差に基づいて撮影光学系210の焦点調節状態を検出する撮像素子AF回路108および撮像素子212と、シーン認識センサ229で取得された画像情報に基づいて、撮影シーンを認識するシーン認識処理部102と、シーン認識処理部102による認識結果に基づいて、マイクロコンピュータ101に選択された測距エリア401〜409に対応する焦点検出用画素列の複数のブロックa、b、cの焦点検出用画素列の中から位相差検出に用いるブロックの焦点検出用画素311を選択し、該選択された焦点検出用画素311からの信号を用いて焦点調節状態を検出するように撮像素子AF回路108および撮像素子212を制御するマイクロコンピュータ101とを備える。
According to the embodiment described above, the following operational effects can be obtained.
(1) The camera includes a
上記構成によれば、測距エリア401〜409にそれぞれ複数のブロックa、b、cを含め、任意の選択は測距エリア単位で行い、その先の位相差演算に用いる焦点検出画素311をシーン認識処理部102による認識結果に基づいてブロック単位でさらに選ぶ。これにより、測距エリア選択は大雑把に行えばよいので簡単になり、位相差演算に用いる焦点検出画素311の選択はシーン認識に基づいて精度よく行えるから、カメラの合焦精度を高めることができる。
According to the above configuration, each of the ranging
(2)シーン認識処理部102は、マイクロコンピュータ101で選択された測距エリア内において主要被写体の特定位置を特定し、マイクロコンピュータ101は、複数のブロックa、b、cの焦点検出用画素列の中から特定位置に対応するブロックの焦点検出用画素を位相差検出用として選択するので、位相差演算に用いる焦点検出画素311を精度よく選択することができる。
(2) The scene
(3)シーン認識処理部102は、マイクロコンピュータ101で選択された測距エリアにおいて、所定色を有する特定位置を特定し、マイクロコンピュータ101は、複数のブロックa、b、cの焦点検出用画素列の中から特定位置に対応するブロックの焦点検出用画素を位相差検出用として選択するので、位相差演算に用いる焦点検出画素311を精度よく選択することができる。
(3) The scene
(4)マイクロコンピュータ101は、シーン認識処理部102によって特定位置が特定されなかった場合には、マイクロコンピュータ101で選択された測距エリアに対応する複数のブロックa、b、cの焦点検出用画素列を構成する焦点検出用画素を位相差検出用として選択するので、測距エリアを広く利用することができる。
(4) When the specific position is not specified by the scene
(5)焦点検出用画素列は、撮影用の撮像素子212内に、焦点検出用の画素列として部分的に含めているので、焦点検出用画素列を有する焦点検出用センサを撮影用撮像素子とは別に設ける場合に比べて、カメラをシンプルな構成にできる。
(5) Since the focus detection pixel array is partially included as the focus detection pixel array in the
(6)測距エリア401〜409のサイズは、シーン認識に用いる画像情報を取得するシーン認識センサ229の最小受光領域のサイズより大きく構成するので、位相差演算に用いる焦点検出画素311の選択をシーン認識に基づいて精度よく行える。
(6) Since the size of the ranging
(変形例1)
上述した説明では、撮像素子位相差AFを行う場合を例に説明したが、撮影用の撮像素子212とは別に位相差検出用の光束を受光する受光素子を設ける場合にも本発明を適用できる。
(Modification 1)
In the above description, the case where the image sensor phase difference AF is performed has been described as an example. However, the present invention can also be applied to a case where a light receiving element that receives a light beam for phase difference detection is provided in addition to the
(変形例2)
上記実施形態では、測距エリア401〜409を構成する複数のブロックa,b,cの1つが1つのシーン認識エリアとちょうど重なる例を説明した。この代わりに、シーン認識エリアの大きさをさらに細かく構成し、上記ブロックa,b,cの1つが複数のシーン認識エリアと重なるように構成しても良い。この場合のマイクロコンピュータ101は、あるブロックと重なる複数のシーン認識エリアの大部分が被写体の主要部分と重なっている場合(たとえば、複数のシーン認識エリアのうち7割以上で肌色が検出される)に、当該ブロックに相当する焦点検出用画素311から取込まれた測距データをデフォーカス量演算用のデータに決定する。
(Modification 2)
In the above embodiment, an example has been described in which one of the plurality of blocks a, b, and c constituting the ranging
(変形例3)
また、上記実施形態で例示した測距エリア401〜409よりも小さな測距エリアを設けてもよい。ただし、シーン認識エリアの大きさも測距エリアの大きさに応じて小さくすることにより、測距エリアを構成する複数のブロックa,b,cの1つが少なくとも1つのシーン認識エリアと重なるようにする点に留意する。
(Modification 3)
Moreover, you may provide a ranging area smaller than the ranging areas 401-409 illustrated by the said embodiment. However, the size of the scene recognition area is also reduced in accordance with the size of the distance measurement area so that one of a plurality of blocks a, b, and c constituting the distance measurement area overlaps at least one scene recognition area. Keep this in mind.
(変形例4)
ファインダー部に設けたシーン認識センサ229で被写体像を撮像し、該シーン認識センサ229からの画素出力信号に基づいて各シーン認識エリアについて輝度および色を検出するようにした。この他に、撮像素子212で被写体像を撮像し、該撮像素子212からの画素出力信号に基づいて各シーン認識エリアにおける輝度および色を検出するように構成してもよい。
(Modification 4)
A subject image is picked up by a
(変形例5)
静止した被写体や、撮影画面内を移動する被写体の動きが遅い場合にのみ本発明を適用する構成にしてもよい。被写体が静止しているか否かは、所定時間ごとに各シーン認識エリアで検出される輝度および色に変化があるか否かによって判定する。また、被写体の動きが所定の速度より遅いか否かは、所定時間ごとに各シーン認識エリアで輝度および色を検出する場合に、同じ色および輝度が検出された撮影画面上の距離(同じ色および輝度が検出されたシーン認識エリアの間隔)に基づいて判定する。
(Modification 5)
The present invention may be configured to be applied only when a stationary subject or a subject moving within the shooting screen moves slowly. Whether or not the subject is stationary is determined by whether or not there is a change in luminance and color detected in each scene recognition area every predetermined time. In addition, whether or not the movement of the subject is slower than a predetermined speed depends on whether the same color and the distance on the photographing screen where the luminance is detected (the same color) when the luminance and color are detected in each scene recognition area every predetermined time. And the interval of the scene recognition area where the luminance is detected).
被写体の移動速度が所定の速度より速い動体を検出対象にする場合のマイクロコンピュータ101は、測距エリアのブロックa、ブロックb、およびブロックcの全てに相当する焦点検出用画素311から取込まれた測距データをデフォーカス量の演算用データとして決定する。シーン認識処理速度に比べて速く被写体が移動する場合は、選択された測距エリア内のブロックa、ブロックb、およびブロックcから1つを選んだとしても、次の瞬間に他のブロックへ移動してしまう可能性が高い。このような場合は、複数ブロックa〜cを全て用いることによって測距エリアを広く利用するのが好適である。
The
(変形例6)
変形例5で説明した理由により、撮影モードがスポーツモード以外の他のモードの場合にのみ本発明を適用する構成にしてもよい。マイクロコンピュータ101は、撮影モードがスポーツモードの場合、測距エリアのブロックa、ブロックb、およびブロックcの全てのブロックに相当する焦点検出用画素311から取込まれた測距データをデフォーカス量の演算用データとして決定する。シーン認識処理速度に比べて撮影対象が速く移動する可能性が高いスポーツモードの場合は、選択された測距エリア内のブロックa、ブロックb、およびブロックcから1つを選んだとしても、次の瞬間に他のブロックへ移動してしまう可能性が高い。このような場合は、選択された測距エリア内の複数ブロックa〜cを全て用いることによって測距エリアを広く利用するのが好適である。
(Modification 6)
For the reason described in the fifth modification, the present invention may be applied only when the shooting mode is a mode other than the sport mode. When the shooting mode is the sport mode, the
(変形例7)
変形例6に加えて、シーン認識処理速度に比べて撮影対象が速く移動する可能性が高いスポーツモードの場合は、選択された測距エリア内のブロックa、ブロックb、およびブロックcだけでなく、さらに隣接する測距エリア内のブロックに相当する焦点検出用画素から取込まれた測距データもデフォーカス量の演算用データとして決定してもよい。隣接する測距エリア内のブロックも入れて測距演算を行うことで、適確な測距演算を行うことができる。
(Modification 7)
In addition to the modified example 6, in the case of a sports mode in which there is a high possibility that the shooting target moves faster than the scene recognition processing speed, not only the block a, the block b, and the block c in the selected ranging area Further, distance measurement data captured from focus detection pixels corresponding to blocks in the adjacent distance measurement area may be determined as defocus amount calculation data. An accurate distance measurement calculation can be performed by performing a distance measurement calculation including a block in an adjacent distance measurement area.
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。 The above description is merely an example, and is not limited to the configuration of the above embodiment.
101…マイクロコンピュータ
108…撮像素子AF回路
109…測光演算回路
201…カメラ本体
202…レンズ鏡筒
203…メインミラー
205…メカニカルシャッター
210…撮影光学系
212…撮像素子
229…シーン認識センサ
401〜409…測距エリア
DESCRIPTION OF
Claims (8)
前記複数の焦点検出領域の各々に配置されており、且つ該各焦点検出領域内の互いに異なる複数の位置に配置された複数の受光センサを含むセンサ列を有し、そして瞳分割された一対の光束による像の位相差を、前記選択手段で選択された焦点検出領域に対応する前記センサ列を用いて検出し、該位相差に基づいて撮影光学系の焦点調節状態を検出する焦点検出手段と、
撮像センサで取得された画像情報に基づいて、撮影シーンを認識するシーン認識手段と、
前記シーン認識手段による認識結果に基づいて、前記選択手段に選択された焦点検出領域に対応する前記複数の位置のセンサ列の中から前記位相差検出に用いる位置の受光センサを選択し、該選択された受光センサからの信号を用いて前記焦点調節状態を検出するように前記焦点検出手段を制御する制御手段と、
を備えることを特徴とするカメラ。 A selection means for selecting an arbitrary focus detection area from a plurality of focus detection areas respectively provided in association with a plurality of areas in the photographing screen;
A pair of sensor arrays including a plurality of light receiving sensors arranged in each of the plurality of focus detection areas and arranged at a plurality of different positions in each focus detection area, and divided into pupils A focus detection unit that detects a phase difference of an image due to a light beam by using the sensor array corresponding to the focus detection region selected by the selection unit, and detects a focus adjustment state of the photographing optical system based on the phase difference; ,
Scene recognition means for recognizing a photographic scene based on image information acquired by an imaging sensor;
Based on the recognition result by the scene recognition unit, the light receiving sensor at the position used for the phase difference detection is selected from the sensor rows at the plurality of positions corresponding to the focus detection region selected by the selection unit, and the selection is performed. Control means for controlling the focus detection means to detect the focus adjustment state using a signal from the received light sensor;
A camera comprising:
前記撮像センサは撮影用撮像素子であることを特徴とするカメラ。 The camera of claim 1,
The camera according to claim 1, wherein the image sensor is a photographing image sensor.
前記シーン認識手段は、前記選択手段で選択された焦点検出領域内において主要被写体の特定位置を特定し、
前記制御手段は、前記複数の位置のセンサ列の中から、前記特定位置に対応する位置の受光センサを前記位相差検出用として選択することを特徴とするカメラ。 The camera according to claim 1 or 2,
The scene recognizing unit identifies a specific position of the main subject within the focus detection area selected by the selecting unit;
The control means selects a light receiving sensor at a position corresponding to the specific position from among the sensor rows at the plurality of positions for detecting the phase difference.
前記シーン認識手段は、前記選択手段によって選択された焦点検出領域において、所定色を有する特定位置を特定し、
前記制御手段は、前記複数の位置のセンサ列の中から、前記特定位置に対応する位置の受光センサを前記位相差検出用として選択することを特徴とするカメラ。 The camera according to claim 1 or 2,
The scene recognizing unit identifies a specific position having a predetermined color in the focus detection area selected by the selecting unit,
The control means selects a light receiving sensor at a position corresponding to the specific position from among the sensor rows at the plurality of positions for detecting the phase difference.
前記制御手段は、前記シーン認識手段によって前記特定位置が特定されなかった場合には、前記選択手段で選択された焦点検出領域に対応する前記複数の位置のセンサ列を構成する全受光センサを前記位相差検出用として選択することを特徴とするカメラ。 The camera according to claim 3 or 4,
When the specific position is not specified by the scene recognizing unit, the control unit selects all the light receiving sensors that constitute the sensor rows at the plurality of positions corresponding to the focus detection area selected by the selecting unit. A camera that is selected for phase difference detection.
前記センサ列は、撮影用撮像素子内に、焦点検出用の画素列として部分的に含まれていることを特徴とするカメラ。 In the camera according to any one of claims 1 to 5,
The camera, wherein the sensor array is partially included as a focus detection pixel array in a photographing image sensor.
複数の前記センサ列は、撮影用撮像素子とは別に構成されることを特徴とするカメラ。 In the camera according to any one of claims 1 to 5,
The camera, wherein the plurality of sensor arrays are configured separately from the imaging element for photographing.
前記焦点検出領域のサイズは、前記シーン認識に用いる画像情報を取得する撮像センサの最小受光領域のサイズより大きいことを特徴とするカメラ。 In the camera according to any one of claims 1 to 7,
The size of the focus detection area is larger than the size of the minimum light receiving area of an image sensor that acquires image information used for the scene recognition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281903A JP2012128343A (en) | 2010-12-17 | 2010-12-17 | Camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010281903A JP2012128343A (en) | 2010-12-17 | 2010-12-17 | Camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012128343A true JP2012128343A (en) | 2012-07-05 |
Family
ID=46645391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010281903A Pending JP2012128343A (en) | 2010-12-17 | 2010-12-17 | Camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012128343A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015102840A (en) * | 2013-11-28 | 2015-06-04 | 株式会社ニコン | Focus detection device |
WO2017135276A1 (en) * | 2016-02-01 | 2017-08-10 | ソニー株式会社 | Controller, control method, and control program |
CN107850753A (en) * | 2015-08-31 | 2018-03-27 | 索尼公司 | Detection device, detection method, detection program and imaging device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001249265A (en) * | 2000-03-02 | 2001-09-14 | Olympus Optical Co Ltd | Range finder |
JP2001264621A (en) * | 2000-03-15 | 2001-09-26 | Olympus Optical Co Ltd | Range-finding device |
US20070104472A1 (en) * | 2005-11-08 | 2007-05-10 | Shuxue Quan | Skin color prioritized automatic focus control via sensor-dependent skin color detection |
JP2009244429A (en) * | 2008-03-28 | 2009-10-22 | Canon Inc | Imaging apparatus |
JP2010243899A (en) * | 2009-04-08 | 2010-10-28 | Canon Inc | Focus detecting device and method, and imaging device |
-
2010
- 2010-12-17 JP JP2010281903A patent/JP2012128343A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001249265A (en) * | 2000-03-02 | 2001-09-14 | Olympus Optical Co Ltd | Range finder |
JP2001264621A (en) * | 2000-03-15 | 2001-09-26 | Olympus Optical Co Ltd | Range-finding device |
US20070104472A1 (en) * | 2005-11-08 | 2007-05-10 | Shuxue Quan | Skin color prioritized automatic focus control via sensor-dependent skin color detection |
JP2009244429A (en) * | 2008-03-28 | 2009-10-22 | Canon Inc | Imaging apparatus |
JP2010243899A (en) * | 2009-04-08 | 2010-10-28 | Canon Inc | Focus detecting device and method, and imaging device |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015102840A (en) * | 2013-11-28 | 2015-06-04 | 株式会社ニコン | Focus detection device |
CN107850753A (en) * | 2015-08-31 | 2018-03-27 | 索尼公司 | Detection device, detection method, detection program and imaging device |
EP3346308A4 (en) * | 2015-08-31 | 2019-07-24 | Sony Corporation | Detection device, detection method, detection program, and imaging device |
US11275230B2 (en) | 2015-08-31 | 2022-03-15 | Sony Group Corporation | Detection apparatus, detection method, detection program, and imaging apparatus |
WO2017135276A1 (en) * | 2016-02-01 | 2017-08-10 | ソニー株式会社 | Controller, control method, and control program |
CN108603997A (en) * | 2016-02-01 | 2018-09-28 | 索尼公司 | control device, control method and control program |
JPWO2017135276A1 (en) * | 2016-02-01 | 2018-11-22 | ソニー株式会社 | Control device, control method, and control program |
US10686979B2 (en) | 2016-02-01 | 2020-06-16 | Sony Corporation | Control apparatus and control method |
JP2021105734A (en) * | 2016-02-01 | 2021-07-26 | ソニーグループ株式会社 | Control device, control method and control program |
CN108603997B (en) * | 2016-02-01 | 2021-08-13 | 索尼公司 | Control device, control method, and control program |
JP7036423B2 (en) | 2016-02-01 | 2022-03-15 | ソニーグループ株式会社 | Controls, control methods and control programs |
JP7131647B2 (en) | 2016-02-01 | 2022-09-06 | ソニーグループ株式会社 | Control device, control method and control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4766133B2 (en) | Imaging device | |
US8542941B2 (en) | Imaging device, image detecting method and focus adjusting method | |
JP5163257B2 (en) | Imaging device | |
JP2010197551A (en) | Imaging apparatus and image synthesis method | |
JP2009109839A (en) | Image tracking device and imaging device | |
US10348955B2 (en) | Imaging apparatus, control method, and storage medium for tracking an imaging target in a continuous shooting operation | |
JP5925186B2 (en) | Imaging apparatus and control method thereof | |
JP5056168B2 (en) | Focus adjustment device and imaging device | |
JP2009294416A (en) | Imaging apparatus and its control method | |
JP5056136B2 (en) | Image tracking device | |
JP2010088049A (en) | Imaging apparatus and image recording method | |
JP2012208507A (en) | Image tracking device | |
JP2012128343A (en) | Camera | |
JP6561437B2 (en) | Focus adjustment device and imaging device | |
JP2012083584A (en) | Imaging device | |
JP2009010672A (en) | Focus detector and image pickup device | |
JP2013122494A (en) | Focus detector and camera | |
JP2013122495A (en) | Focus detector and camera | |
JP2012189878A (en) | Imaging apparatus | |
JP5776191B2 (en) | Focus detection apparatus and imaging apparatus | |
JP5256847B2 (en) | Imaging device | |
JP2009063689A (en) | Focus detecting device and imaging apparatus | |
JP5359150B2 (en) | Imaging device | |
JP2014197141A (en) | Imaging apparatus | |
JP4865275B2 (en) | Focus detection apparatus and imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140902 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150106 |