JP7377063B2 - Imaging device, its control method, program, storage medium - Google Patents
Imaging device, its control method, program, storage medium Download PDFInfo
- Publication number
- JP7377063B2 JP7377063B2 JP2019194730A JP2019194730A JP7377063B2 JP 7377063 B2 JP7377063 B2 JP 7377063B2 JP 2019194730 A JP2019194730 A JP 2019194730A JP 2019194730 A JP2019194730 A JP 2019194730A JP 7377063 B2 JP7377063 B2 JP 7377063B2
- Authority
- JP
- Japan
- Prior art keywords
- focus detection
- focus
- subject
- imaging device
- detection area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 43
- 238000000034 method Methods 0.000 title claims description 40
- 238000003860 storage Methods 0.000 title claims description 3
- 238000001514 detection method Methods 0.000 claims description 100
- 230000003287 optical effect Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 description 30
- 210000001747 pupil Anatomy 0.000 description 17
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Description
本発明は、撮像装置における焦点検出技術に関する。 The present invention relates to focus detection technology in an imaging device.
カメラで遠方から近づいてくる被写体を撮影する場合、ユーザは、ファインダー上で被写体が実際に画像として撮影する大きさになるよりも前にオートフォーカス(以下、AF)を開始することが多い。この場合、顔等の被写体認識が可能であれば、認識した位置にAFでフォーカスを合わせることができるが、被写体認識が困難なシーンでは、検出したデフォーカス量に基づきAFを行う。しかし、遠方の被写体では、背景との深度差が小さく、主たる被写体ではなく背景やその他の被写体に焦点を合わせてしまう場合がある。そのため、AFを開始した位置の他にユーザが目的とする被写体が存在しないかを判別する乗り移り判別を、AFを実行させながら行う必要がある。 When photographing a subject approaching from a distance with a camera, a user often starts autofocus (hereinafter referred to as AF) before the subject reaches a size on the finder to actually be photographed as an image. In this case, if it is possible to recognize a subject such as a face, AF can be used to focus on the recognized position, but in scenes where it is difficult to recognize a subject, AF is performed based on the detected defocus amount. However, for a distant subject, the difference in depth from the background is small, and the background or other subjects may be in focus instead of the main subject. Therefore, it is necessary to perform transition determination to determine whether there is an object that the user is aiming for other than the position where AF is started, while performing AF.
特許文献1では、画面全体の像面移動量に基づき、被写体の動体判定を行い、画面中央をより動体と判定しやすく周辺を動体と判定しづらくさせることで、ユーザの意思と一致した被写体を選択できる確率を高くした乗り移り判別方法が開示されている。
In
しかしながら、特許文献1では、画面全体の像面移動量にもとづき、動体と判定されやすい程度を中央と周辺で切り替えているが、特許文献1では画面全体の像面変化量が小さい遠方被写体では像面移動量の変化が検出されにくいという問題がある。
However, in
本発明は上述した課題に鑑みてなされたものであり、その目的は、被写体が遠方から近づいてくる場合であっても、焦点を合わせる被写体を適切に選択することができる撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and its purpose is to provide an imaging device that can appropriately select a subject to focus on even when the subject approaches from a distance. It is.
本発明に係わる撮像装置は、被写体像を撮像する撮像手段と、前記撮像手段からの信号に基づいて被写体の検出を行う被写体検出手段と、画面内の複数の焦点検出領域で焦点検出を行うことが可能な焦点検出手段と、前記焦点検出手段の検出結果に基づいて撮影光学系の焦点を調節する焦点調節手段と、前記被写体検出手段により被写体を検出できない場合に、前記焦点調節手段の調節により焦点が合っている被写体が遠方の被写体であることを示す所定の条件を満たす場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定する設定手段と、を備えることを特徴とする。 An imaging device according to the present invention includes an imaging device that captures an image of a subject, a subject detection device that detects a subject based on a signal from the imaging device, and a focus detection device that performs focus detection in a plurality of focus detection areas within a screen. a focus detection means capable of adjusting the focus of the photographing optical system based on the detection result of the focus detection means; and a focus adjustment means capable of adjusting the focus of the photographing optical system based on the detection result of the focus detection means; When a predetermined condition indicating that a subject in focus is a distant subject, a focus detection area used for focus detection is set to a focus detection area near the center of the plurality of focus detection areas. A setting means is provided.
本発明によれば、被写体が遠方から近づいてくる場合であっても、焦点を合わせる被写体を適切に選択することが可能となる。 According to the present invention, even when the subject approaches from a distance, it is possible to appropriately select the subject to focus on.
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.
(第1の実施形態)
図1は、本発明の撮像装置の第1の実施形態であるデジタルカメラの機能構成を示すブロック図である。図2は、図1に示したデジタルカメラの側断面図である。
(First embodiment)
FIG. 1 is a block diagram showing the functional configuration of a digital camera, which is a first embodiment of the imaging apparatus of the present invention. FIG. 2 is a side sectional view of the digital camera shown in FIG.
本実施形態のデジタルカメラには、ある時刻における被写体の位置に焦点を合わせるオートフォーカス(AF)モード(ワンショットAFモード)と、周期的にレンズを駆動して被写体に焦点を合わせ続けるオートフォーカスモード(サーボAFモード)の2種類がある。第1の実施形態では、デジタルカメラがこれらのモードのうち、サーボAFモードに設定されている場合について説明する。 The digital camera of this embodiment has an autofocus (AF) mode (one-shot AF mode) that focuses on the position of the subject at a certain time, and an autofocus mode that periodically drives the lens to keep the subject in focus. There are two types: (servo AF mode). In the first embodiment, a case will be described in which the digital camera is set to the servo AF mode among these modes.
図1、図2において、デジタルカメラ150は、撮像素子103を有するカメラ本体100と、撮影光学系を有する撮影レンズ120とを組み合わせて使用するレンズ交換式のデジタルスチルカメラである。
1 and 2, a
カメラ本体100は、撮像素子103、表示器105、CPU110、撮像素子制御回路102、メモリ回路101、インターフェース回路106、画像処理回路107、電気接点108を備える。
The
撮像素子103は、CMOS(Complementary Metal OxideSemiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサ等により構成されており、カメラ本体100の撮影レンズ120の予定結像面に配置されている。撮像素子103の詳細については後述する。
The
表示器105は、LCD(Liquid Crystal Display)パネル等により構成され、撮影画像の表示や撮影情報等の表示を行う。また表示器105は、ライブビューモード時には、撮影予定の領域をリアルタイムに動画表示する。ここで、ライブビューモードとは、撮影レンズ120からの被写体像を撮像素子103により撮像して、プレビュー用の低画素動画像を表示器105にリアルタイムで表示するモードである。このライブビューモード時には、後述する撮像面における位相差AFを実行することができる。さらに、連写撮影中には各連写時の低画素静止画像を表示器105に表示する。
The
CPU110は、カメラ全体を統括的に制御する。またCPU110は、被写体検出部111、位相差検出部112、デフォーカス量換算部112、被写体再捕捉判別部114、主追跡枠選択部115、焦点調節部116を備え、撮影レンズ120の焦点状態の算出と駆動制御を行う。
The
被写体検出部111は、撮像素子103から出力された画像の特徴に基づき、特徴がある被写体を検出する。位相差検出部112は、撮像素子103から出力された一対の像信号の位相差を検出する。デフォーカス量換算部113は、位相差検出部112により検出された像ずれ量を、換算係数を用いてデフォーカス量へ換算する。被写体再捕捉判別部116の詳細は後述する。主追跡枠選択部115は、焦点調節部116で焦点を調節するための撮像面上の位置を決定する。焦点調節部116は、換算したデフォーカス量に基づいて焦点位置を移動させるようにレンズCPU122に指示を送る。
The
撮像素子制御回路102は、CPU110の指示に従い、撮像素子103を駆動制御する。メモリ回路101は、撮像素子103により撮像された画像を記憶する。インターフェース回路106は、画像処理回路107により画像処理された画像をカメラ外部に出力する。画像処理回路107は、撮像素子103により撮像された画像信号を画像処理する。電気接点108は、撮影レンズ120の電気接点124と接触して電力及び各種信号の通信に用いられる。
The image
撮影レンズ120は、カメラ本体100に対して着脱可能な交換レンズである。撮影レンズ120は撮影光学系、レンズCPU122、撮影レンズ駆動機構121、絞り駆動機構123、絞り125、電気接点124を備える。
The photographing
撮影光学系は、撮影する被写体の光学像を撮像素子103上に結像させる。撮影光学系は、複数のレンズ群からなり、撮像素子103の撮像面付近にある焦点位置をZ方向に沿って(光軸に沿って)移動させるように撮影レンズ駆動機構121により駆動される。
The photographing optical system forms an optical image of the subject to be photographed on the
レンズCPU122は、カメラ本体100のCPU110から送られてくる焦点調節情報を電気接点124を介して受信し、その焦点調節情報に基づいて撮影レンズ駆動機構121を駆動する。絞り駆動機構123は、絞り125を駆動する機構及びアクチュエータを有し、レンズCPU110の指示に従い絞り125を駆動する。
The
<撮像素子の構造>
続いて図3を参照して、本実施形態における撮像素子103の画素構造について説明する。図3は、撮像素子103の画素構造を示す図である。図3(A)は撮像素子103の画素配列の説明図、図3(B)は画素210GのZ-X平面による断面図を示している。
<Structure of image sensor>
Next, with reference to FIG. 3, the pixel structure of the
図3(A)は、撮像素子103(2次元CMOSセンサ)の画素配列を、4行×4列の画素範囲で示している。画素210のカラーフィルタの配列は、ベイヤー配列が採用されている。対角方向の2画素として、G(緑)の分光感度を有する画素210Gが配置されている。また、他の2画素として、R(赤)の分光感度を有する画素210R、および、B(青)の分光感度を有する画素210Bがそれぞれ配置されている。画素210R,210G,210Bは、それぞれ、瞳分割用の2つの副画素201a,201bを有する。また、副画素201aは、撮像光学系の第1瞳領域を通過した光束を受光する第1画素である。また、副画素201bは、撮像光学系の第2瞳領域を通過した光束を受光する第2画素である。各画素は、撮像用画素および焦点検出用画素として機能する。
FIG. 3A shows a pixel array of the image sensor 103 (two-dimensional CMOS sensor) in a pixel range of 4 rows by 4 columns. The color filter arrangement of the
図3(A)中のX、Y、Zで示される座標軸に関し、X-Y平面は図3(A)の紙面内に位置し、Z軸は紙面に対して垂直な軸である。副画素201a,201bは、X軸に平行な方向に沿って配置されている。
Regarding the coordinate axes indicated by X, Y, and Z in FIG. 3(A), the XY plane is located within the paper plane of FIG. 3(A), and the Z axis is an axis perpendicular to the paper plane.
図3(B)中のX、Y、Zで示される座標軸に関し、X-Z平面は図3(B)の紙面内に位置し、Y軸は紙面に対して垂直な軸である。検出部はp型層200およびn型層から構成されるフォトダイオードを有する。マイクロレンズ202は、受光面からZ軸方向に所定の距離だけ離れた位置に配置されている。マイクロレンズ202は、カラーフィルタ203上に形成されている。
Regarding the coordinate axes indicated by X, Y, and Z in FIG. 3(B), the XZ plane is located within the paper plane of FIG. 3(B), and the Y axis is an axis perpendicular to the paper plane. The detection section has a photodiode made up of a p-
本実施形態において、撮像素子103の全ての画素210R,210G,210Bに、瞳分割用の副画素201a,201bが設けられている。副画素201a,201bは、焦点検出用画素として用いられる。ただし、本実施形態はこれに限定されるものではなく、瞳分割可能な焦点検出用画素が全画素のうちの一部の画素にのみ設けられている構成であってもよい。
In this embodiment, all
<撮像素子による瞳分割機能の概念>
続いて図4を参照して、撮像素子103の瞳分割機能について説明する。図4は、撮像素子103の瞳分割機能の説明図であり、1つの画素部における瞳分割の様子を示している。
<Concept of pupil division function using image sensor>
Next, with reference to FIG. 4, the pupil division function of the
図4中の下方に示される画素部の座標軸(X,Y,Z)に関し、X-Z平面は図4の紙面内に位置し、Y軸は紙面に対して垂直な軸である。画素は、p型層200およびn型層301a,301b(副画素201a,201bに対応)を備えている。p型層200およびn型層301aは図3中の副画素201aを構成し、また、p型層200およびn型層301bは副画素201bを構成する。マイクロレンズ304は、Z軸上に配置されている。
Regarding the coordinate axes (X, Y, Z) of the pixel portion shown in the lower part of FIG. 4, the XZ plane is located within the plane of the paper of FIG. 4, and the Y axis is an axis perpendicular to the plane of the paper. The pixel includes a p-
また、図4の上方には、撮影レンズ120の射出瞳302、および、枠303(例えば、絞り枠やレンズ枠)がそれぞれ示されている。図4の上方に示される座標軸(X,Y,Z)に関し、X-Y平面は図4の紙面内に位置し、Z軸は紙面に対して垂直な軸である。
Further, in the upper part of FIG. 4, an
1つの画素には、p型層200に埋め込まれたn型層301a,301bが設けられていることにより、2つの副画素が形成されている。2つの副画素は、X方向に沿って規則的に配置されている。また、2つの副画素は、+X方向および-X方向にそれぞれ偏芯しているため、1つのマイクロレンズ202を用いて瞳分割を行うことが可能である。図4において、射出瞳302として、像信号Aの瞳302a、および、像信号Bの瞳302bが示されている。像信号Aは、-X方向に偏芯したn型層301aに対応する副画素201aで取得される第1の像信号である。また、像信号Bは、+X方向に偏芯したn型層301bに対応する副画素201bで取得される第2の像信号である。
One pixel is provided with n-
このように本実施形態において、像信号A(第1の信号)は、図3(A)に示されるように、X方向に規則的に配列された複数の副画素201aから得られた信号である。すなわち像信号Aは、結像光学系の異なる射出瞳領域を通過し、絞り値に応じて基線長が異なる対の光束から得られた像信号の一方である。また、像信号B(第2の信号)は、図3(A)に示されるように、X方向に規則的に配列された複数の副画素201bから得られた信号である。すなわち像信号Bは、結像光学系の異なる射出瞳領域を通過し、絞り値に応じて基線長が異なる対の光束から得た像信号の他方である。
In this embodiment, the image signal A (first signal) is a signal obtained from a plurality of
CPU110は、位相差検出部112によって像信号Aと像信号Bの相対的な像ずれ量を算出し、デフォーカス量換算部113によってデフォーカス量を算出する。なお本実施形態では、X方向の輝度分布を有する被写体に対応した構成について説明した。ただし、本実施形態は、同様の構成をY方向にも展開することにより、Y方向に輝度分布を有する被写体にも対応した構成を採用することも可能である。
The
続いて、図5のフローチャートを用いて、本実施形態の撮影時の全体制御方法について説明する。 Next, the overall control method during photographing according to this embodiment will be explained using the flowchart of FIG.
ステップS101では、CPU110は、撮影準備スイッチがオンされたことを検出する。本実施形態では、レリーズボタンを半押しすることにより、撮影準備スイッチ(SW1)がオンとなる。
In step S101, the
次のステップS102では、CPU110は、焦点検出処理を行う。焦点検出処理の詳細については図6を用いて後述する。
In the next step S102, the
ステップS103では、CPU110は、被写体検出部111を用いて被写体検出処理を行う。これは人物、動物、乗り物など撮影対象となりうる被写体を、撮像素子103から得られたデータに基づき検出する処理である。
In step S103, the
ステップS104では、CPU110は、再捕捉判別処理を行う。再捕捉判定処理の詳細については図7を用いて後述する。
In step S104, the
ステップS105では、CPU110は、主追跡枠選択処理を行う。主追跡枠選択処理の詳細については図8を用いて後述する。
In step S105, the
ステップS106では、CPU110は、ステップS105で選択した画面位置の像面に焦点を合わせるために必要なレンズ駆動量を算出し、レンズCPU122に伝達する。
In step S106, the
ステップS107では、CPU110は、撮影準備スイッチ(SW1)がオフされたか否かを判定し、オフ状態であればこのフローを終了し、オン状態であればステップS102へ戻る。
In step S107, the
次に、ステップS102の焦点検出処理の動作の一例を図6のフローチャートに基づき説明する。 Next, an example of the operation of the focus detection process in step S102 will be explained based on the flowchart of FIG.
ステップS201では、CPU110は、撮像素子103から出力される像信号A、像信号Bを取得する。
In step S201, the
ステップS202では、CPU110は、ステップS201で取得した像信号A、像信号Bの像ずれ量を算出する。
In step S202, the
ステップS203では、CPU110は、ステップS202で算出した像ずれ量をデフォーカス量に換算する。
In step S203, the
ステップS204では、CPU110は、焦点検出情報をメモリ回路101に記憶する。ステップS204では、被写体像面位置とその検出時刻を記憶する。
In step S204, the
次に、ステップS104の再捕捉判別部による再捕捉判別処理の動作の一例を図7のフローチャートに基づき説明する。 Next, an example of the operation of the re-capture determination process by the re-capture determination unit in step S104 will be described based on the flowchart of FIG. 7.
ステップS301では、CPU110は、被写体を一度捕捉しているか否かを判定する。捕捉しているか否かとは、一度オートフォーカスを実施し、特定の位置で所定深度まで焦点調節を行ったか否かで判定する。このとき一度も所定深度まで焦点調節を行っていない状態であるならば再捕捉判別処理は行わずにこのフローを終了する。一度所定深度まで焦点調節を行った状態ならば、S302へ進む。
In step S301, the
ステップS302では、CPU110は、遠方被写体か否かを判定する。遠方被写体の判定方法は撮影倍率で判定する。撮影倍率は式(1)により算出する。
In step S302, the
撮影倍率=被写体との距離/焦点距離 …式(1)
本実施形態では、撮影倍率が閾値Th1以上の場合に遠方被写体と判別する。本実施形態では閾値Th1を200としている。遠方被写体の場合はS303に進み、遠方被写体でない場合は本フローを終了する。
Shooting magnification = distance to subject/focal length...Formula (1)
In this embodiment, when the photographing magnification is equal to or higher than the threshold value Th1, the object is determined to be a distant object. In this embodiment, the threshold Th1 is set to 200. If the subject is a distant subject, the process advances to S303, and if the subject is not a distant subject, this flow ends.
ステップS303では、CPU110は、焦点距離が閾値Th2以上か否かを判別し、閾値Th2以上であればS304へ進み、そうでなければ本フローを終了する。本実施形態では閾値Th2を100mmとしている。
In step S303, the
ステップS304では、CPU110は、中央範囲において、至近側のデフォーカスを検出したか否かを判定する。本実施形態では中央範囲を3×3の焦点検出領域(焦点検出枠)に分割し、焦点検出領域のうち1つでも至近側のデフォーカスを検出したか否かで判定を行う。しかし、この分割方法は3×3以外の数で分割してもよい。また、至近側のデフォーカスを検出した焦点検出領域が1つでもあればという判定ではなく、領域内を平均化して至近方向を示しているか否かで判定してもよい。また本実施形態では一度の焦点検出部の結果を使用しているが、現在補足している位置の像面履歴とは別に、中央の像面履歴を保持し、中央位置の像面履歴が至近方向に移動しているなら再捕捉を行うという判定を行ってもよい。さらにカメラのジャイロセンサー履歴を保持し、カメラを大きく振っているときは再捕捉を行わないという判定を行ってもよい。S304の判定がYESの場合はS305に進み、NOの場合は本フローを終了する。
In step S304, the
ステップS305では、CPU110は、被写体が動体であるか否かを判定する。動体と判定する方法は、被写体の像面位置の履歴を保持し、像面位置が単調に一方向に変化しているならば動体と判定する。すでに捕捉している被写体が動いており、ユーザが撮影準備スイッチ(SW1)を押し続けているならば、ユーザはその被写体を撮影したいと考えているため、被写体の乗り移りは行わず本フローを終了する。主被写体が動体でない場合にはS306に進む。
In step S305, the
ステップS306では、CPU110は、中央範囲の被写体へ乗り移ることを決定する。この決定した処理を後述するステップS403の判定で使用する。
In step S306, the
次に、ステップS105の主追跡枠選択処理の動作の一例を図8のフローチャートに基づき説明する。 Next, an example of the operation of the main tracking frame selection process in step S105 will be described based on the flowchart of FIG.
ステップS401では、CPU110は、ステップS103の被写体検出処理で被写体を検出できたか否かを判定する。被写体検出ができていればS407に進み、被写体を検出できていなければS402へ進む。
In step S401, the
ステップS402では、CPU110は、被写体を捕捉しているか否かを判定する。これは、ステップS301と同じ判定処理である。被写体を補足していればS403へ進み、補足していなければS404に進む。
In step S402, the
ステップS403では、CPU110は、S306で中央範囲の被写体への乗り移りの決定が行われたか否かを判定する。決定が行われていた場合にはS406へ進み、そうでない場合はS405へ進む。
In step S403, the
ステップS404では、CPU110は、最も至近方向のデフォーカスを検出している枠を優先して焦点調節を行う枠を選択し、本フローを終了する。
In step S404, the
ステップS405では、CPU110は、前回の主追跡枠位置と像面位置が連続している枠を優先して焦点調節を行う枠を選択し、本フローを終了する。
In step S405, the
ステップS406では、CPU110は、中央範囲の枠を焦点調節する枠として選択し、本フローを終了する。
In step S406, the
ステップS407では、CPU110は、被写体を検出した位置の枠を焦点調節する枠として選択し、本フローを終了する。
In step S407, the
以上説明したように、本実施形態によれば、主被写体の検出ができない遠方の被写体に対してユーザの意思に一致する場所でAFを開始することができなかったとしても、その後再捕捉の判定を行うことにより、ユーザの意思に一致する被写体にAFを合わせ直すことができる。 As described above, according to the present embodiment, even if it is not possible to start AF at a location that matches the user's intention for a distant subject whose main subject cannot be detected, the determination of re-acquisition is subsequently made. By doing this, it is possible to refocus the AF on a subject that matches the user's intention.
(第2の実施形態)
第1の実施形態では、撮像装置における主追跡枠と中央領域での焦点検出結果が得られている場合での、主追跡枠の位置に関する制御について説明してきた。しかし、実際に連続撮影動作(以下、連写と記す)中に於いては、駒速を維持するため、現在の主追跡枠に対して、その周辺範囲でしか焦点検出結果が得られない場合がある。
(Second embodiment)
In the first embodiment, control regarding the position of the main tracking frame has been described in a case where focus detection results have been obtained for the main tracking frame and the central region of the imaging device. However, during actual continuous shooting operation (hereinafter referred to as continuous shooting), in order to maintain the frame speed, focus detection results may only be obtained in the peripheral range of the current main tracking frame. There is.
図9は連写中の焦点検出可能な領域のイメージを表した図である。図9における枠Aは主追跡枠で、現在、撮影画面全体Cの左側上部に位置している。この状態での連写中は、図9の枠Bの範囲しか焦点検出結果が得られない。 FIG. 9 is a diagram showing an image of a focus detectable area during continuous shooting. Frame A in FIG. 9 is the main tracking frame, which is currently located at the upper left side of the entire photographic screen C. During continuous shooting in this state, focus detection results can only be obtained within the range of frame B in FIG.
以下、第2の実施形態として、この様な状況において、主追跡枠Aが所望の被写体を捕捉していないと判断された場合の、主追跡枠の位置に関する制御について説明する。 Hereinafter, as a second embodiment, control regarding the position of the main tracking frame when it is determined that the main tracking frame A does not capture the desired subject in such a situation will be described.
図10(A)は、図9の撮影画面全体Cを、D,E,Fの3つの領域に分割した図である。図10における枠Dは中心領域で、文字通り撮影画面全体の中心部分であり、領域の大きさとしては今まで説明してきた主追跡枠と同じである。つまり、図10(A)は、主追跡枠を画面全体の中心に設定した状態であり、撮像装置の初期設定状態である。図10のEは中央領域で、撮影画面全体Cにおける「ほぼ中心付近」となる領域で、撮影時に主被写体が存在する確率が高い領域となる。 FIG. 10A is a diagram in which the entire photographic screen C in FIG. 9 is divided into three regions D, E, and F. Frame D in FIG. 10 is a central region, which is literally the center of the entire photographic screen, and the size of the region is the same as the main tracking frame described above. That is, FIG. 10A shows a state in which the main tracking frame is set at the center of the entire screen, which is the initial setting state of the imaging device. E in FIG. 10 is the central region, which is "approximately near the center" of the entire photographic screen C, and is a region where there is a high probability that the main subject will be present at the time of photographing.
ここで、図9における主追跡枠と連写中でも焦点検出可能な図9のBの関係を考えると、図10(A)の中央領域Eに主追跡枠が無いと、図10(A)の中心領域である枠Dの焦点検出結果は得られない。よって、主追跡枠が図9の様に中心からズレており、撮影画面全体Cの中央領域(図10(A)のE)に無い場合に、どの様な判断で主追跡枠の位置に関する制御を行うかを以下で説明する。 Here, considering the relationship between the main tracking frame in FIG. 9 and B in FIG. 9, where focus can be detected even during continuous shooting, if there is no main tracking frame in the central area E of FIG. 10(A), The focus detection result for frame D, which is the central area, cannot be obtained. Therefore, when the main tracking frame is offset from the center as shown in Fig. 9 and is not in the central area of the entire shooting screen C (E in Fig. 10(A)), how should the control regarding the position of the main tracking frame be performed? How to do this will be explained below.
図11は、連写中での主追跡枠の位置制御処理を示すフローチャートである。 FIG. 11 is a flowchart showing the main tracking frame position control process during continuous shooting.
まず、ステップS501では、CPU110は、連写モードであるか否かを判断する。連写モードである場合は、ステップS502に進む。ここでは連写中の制約条件下での制御を対象としているので、連写モードでない場合はそのままこのフローを終了する。
First, in step S501, the
一方、ステップS502では、CPU110は、既に連写中であるか否かを判断する。連写中である場合は、ステップS505に進み、まだ連写中ではなく、これから連写動作を行う場合は、ステップS503に進む。
On the other hand, in step S502, the
ステップS503とS504では、この後実行する「主追跡枠位置の中心移動制御」で使用する判定フラグ「HANTEI-Flag」を0に初期化し、判定タイマー「HANTEI-Timer」を初期化する。この段階では、両方の初期化のみで、タイマー動作は開始しない。 In steps S503 and S504, the determination flag "HANTEI-Flag" used in "main tracking frame position center movement control" to be executed thereafter is initialized to 0, and the determination timer "HANTEI-Timer" is initialized. At this stage, only both are initialized and the timer operation does not start.
ステップS505では、CPU110は、「主追跡枠位置の中心移動制御」を実行する。
In step S505, the
図12は、主追跡枠位置の中心移動制御を示すフローチャートである。 FIG. 12 is a flowchart showing center movement control of the main tracking frame position.
まず、ステップS601では、CPU110は、主追跡枠位置が図10(A)の中央領域Eの外部にあるか否かを判定する。外部にある場合はステップS602に進み、外部ではない場合はステップS611に進む。
First, in step S601, the
ステップS602では、CPU110は、現在の焦点距離fが「100mm 以上」(所定値以上)であるか、続くステップS603で、被写体の距離dが「200×f以上」(被写体距離が焦点距離の所定の倍数以上)であるかを判定する。この二段階判定により、現在の連写中の撮影状況から「十分遠い被写体を撮影しているか否か」の判断を行っている。
In step S602, the
ステップS601~S603の三段階の判定がいずれも該当する場合、続くステップS604では、CPU110は、「主追跡枠動体判定」を行う。内容は後述するが、主追跡枠で補足している被写体が非動体であるか否かを判断する。
If all three stages of determination in steps S601 to S603 are applicable, in the subsequent step S604, the
この結果を判定材料に、ステップS605で第四段階目の判定を実施し、全て該当する場合、続くステップS606で連写開始時に初期化した判定フラグ「HANTEI-Flag」を確認する。判定フラグ「HANTEI-Flag」が「0」の場合、即ち初期化直後なら、CPU110は、続くステップS607で判定フラグ「HANTEI-Flag」を「1」にし、同様に連写開始時に初期化した判定タイマー「HANTEI-Timer」で計時を開始する。
Using this result as a determination material, a fourth stage determination is performed in step S605, and if all the conditions are met, the determination flag "HANTEI-Flag" initialized at the start of continuous shooting is checked in the subsequent step S606. If the determination flag "HANTEI-Flag" is "0", that is, immediately after initialization, the
一方、ステップS606で判定フラグ「HANTEI-Flag」が「1」の場合、判定タイマー「HANTEI-Timer」が計時中となっているので、ステップS609で、判定タイマーが「閾値:1秒」を経過しているかを判定する。「1秒」経過していた場合(所定の時間続いていた場合)、全ての条件が整ったとして、主追跡枠位置を図10(A)の中心領域Dに移動する。「1秒」経過していていない場合は、そのまま計時を続行する。 On the other hand, if the determination flag "HANTEI-Flag" is "1" in step S606, the determination timer "HANTEI-Timer" is measuring, so in step S609, the determination timer exceeds "threshold: 1 second". Determine whether If "1 second" has elapsed (if the predetermined time has continued), it is assumed that all conditions have been met, and the main tracking frame position is moved to the center area D in FIG. 10(A). If "1 second" has not elapsed, timekeeping continues.
また、上記ステップS601~S605で実施した四段階の判定で、いずれかが非該当となった場合、主追跡枠位置を中心領域に移動する条件が揃っていない、あるいは揃わなくなったと判断する。そして、連写開始時同様に、ステップS611とS612で判定フラグ「HANTEI-Flag」と判定タイマー「HANTEI-Timer」を初期化する。 Furthermore, if any one of the four stages of determination performed in steps S601 to S605 is not applicable, it is determined that the conditions for moving the main tracking frame position to the center area are not met or are no longer met. Then, similarly to the start of continuous shooting, the determination flag "HANTEI-Flag" and the determination timer "HANTEI-Timer" are initialized in steps S611 and S612.
図13は、図12のステップS604で実施した「主追跡枠動体判定」を示すフローチャートである。 FIG. 13 is a flowchart showing the "main tracking frame moving object determination" performed in step S604 of FIG.
まずステップS701では、CPU110は、被写体の追尾結果から撮影画面内の主追跡枠位置での移動の有無を確認する。撮影画面内での移動が認められなかった場合、続くステップS702では、CPU110は、主追跡枠位置での焦点検出結果の継続安定性を確認する。この二段階の確認がいずれも該当した場合のみ、主追跡枠で捉えている被写体が非動体であると判断する。
First, in step S701, the
以上が、図10(A)で示した様に、撮影画面全体CをD,E,Fの中心、中央および周辺の3領域に分割した場合での、主追跡枠位置を中心領域に移動するか否かの動作の説明である。 The above describes how to move the main tracking frame position to the center area when the entire shooting screen C is divided into three areas, center, center, and periphery of D, E, and F, as shown in FIG. 10(A). This is an explanation of the operation of whether or not.
なお、図9で示した連写中に焦点検出可能な範囲Bは撮像素子の性能、連写速度等で変わり、そもそも「撮影画面の中央と周辺」という概念にも様々な考え方がある。よって、図10(B)に示した様に、中央領域として扱う範囲を、図10(B)のGの様に図10(A)のEで示した範囲より拡げることも可能である。 Note that the range B in which focus can be detected during continuous shooting shown in FIG. 9 varies depending on the performance of the image sensor, the continuous shooting speed, etc., and there are various ways of thinking about the concept of "center and periphery of the shooting screen". Therefore, as shown in FIG. 10(B), it is also possible to expand the range treated as the central region, as shown in G in FIG. 10(B), from the range shown in E in FIG. 10(A).
次に、図10(C)に示した様に、図10(A)で示した中心領域Dと中央領域Eに対し、周辺領域を二段階にした場合での、主追跡枠位置を中心領域に移動する制御について説明する。図10(C)に示した様に、二段階の周辺領域をGとFとしている。 Next, as shown in FIG. 10(C), the main tracking frame position is set to the center area when the peripheral area is divided into two stages with respect to the central area D and the central area E shown in FIG. 10(A). The control to move to is explained. As shown in FIG. 10(C), the peripheral regions of the two stages are designated as G and F.
図14は、上記二段階の周辺領域を備えた場合の連写中での主追跡枠位置制御を示すフローチャートである。以下では、図12と同じステップについては同じステップ番号を付し、図12と異なる部分についてのみ説明する。 FIG. 14 is a flowchart showing main tracking frame position control during continuous shooting when the above-mentioned two-stage peripheral area is provided. In the following, steps that are the same as those in FIG. 12 are given the same step numbers, and only portions that are different from FIG. 12 will be described.
図12のステップS601では、単に主追跡枠位置が「中央領域外か」の判定のみを行っていたが、図14では、それに加えてより内側の「周辺領域1内か」の判定をステップS802で実施している。ここで周辺領域1は、図10(C)における周辺領域Gのことである。すなわち、図10(C)に示した様な二段階の周辺領域GとFのどちらに主追跡枠位置があるかを判定している。その結果により、判定タイマー「HANTEI-Timer」の時間の閾値N(図12では「1秒」のみ)を、ステップS803とS804で、二段階の周辺領域の内側(G)と外側(F)で「1秒」と「0.5秒」に切り替える。従って、図12のステップS609に該当する図14のステップS812では、「閾値:N秒」が経過しているかを判定する。
In step S601 of FIG. 12, only a determination is made as to whether the main tracking frame position is "outside the central area," but in FIG. It is being carried out in Here, the
ここでの二段階の閾値による判定では、より周辺領域にある場合は、より早めに主追跡枠位置を中心領域に移動するようにしている。前述した様に「撮影画面の中央と周辺」という概念にも様々な考え方があるので、例えば、より細かく周辺領域を設定し、画面内の位置に応じて細かく時間を切り替えるようにしてもよい。 In the two-step threshold determination here, if the main tracking frame position is in the peripheral area, the main tracking frame position is moved to the central area earlier. As mentioned above, there are various ways of thinking about the concept of "the center and the periphery of the shooting screen," so for example, the surrounding area may be set more precisely and the time may be changed more precisely depending on the position within the screen.
続いて、図12のステップS602、S603で行っている「十分遠い被写体を撮影しているか」の判定の他の例について説明する。 Next, another example of the determination of "whether a sufficiently distant subject is being photographed" performed in steps S602 and S603 in FIG. 12 will be described.
図15は図12に対し「十分遠いが、より近い場合は早めに主追跡枠位置を中心領域に移動する」とした連写中での主追跡枠位置制御のフローチャートである。ここでの説明も図12と異なる部分についてのみ説明する。 FIG. 15 is a flowchart of main tracking frame position control during continuous shooting in which, in contrast to FIG. 12, "the main tracking frame position is moved to the center area as soon as possible if it is sufficiently far away but closer." In the explanation here, only the parts different from those in FIG. 12 will be explained.
前述した様に、図12のステップS602とS603で行っている「十分遠い被写体を撮影しているか」という判断に対し、図15ではステップS904で「焦点距離f×距離d」で表される撮影距離に対する判定を追加している。具体的には、図12で行っている二段階の判定が「焦点距離が100mm以上か」、「撮影距離が200f以上か」であるのに対し、「撮影距離が40m以上か」を追加している。この結果により、判定タイマー「HANTEI-Timer」の時間の閾値N(図12では「1秒」のみ)を、図15のステップS905とS906で、二段階の「1秒」と「0.5秒」に切り替える。従って、図12のステップS609に該当する図15のステップS912では、「閾値:N秒」が経過しているかを判定する。
As mentioned above, in contrast to the determination made in steps S602 and S603 in FIG. 12 as to whether the object is sufficiently far away, in step S904 in FIG. Added distance judgment. Specifically, in contrast to the two-stage determination shown in Figure 12, which is ``Is the
これにより、実質「撮影距離が200fと40mの二段階の判定」となり、「200f以上でも40m未満」の場合は、より早め(0.5秒)に、「40m以上」の場合は図12と同じ時間(1秒)で主追跡枠位置を中心領域に移動するようにしている。つまり「十分遠いが、より近い場合は早めに主追跡枠位置を中心領域に移動する」ように制御される。 This effectively results in a two-step judgment for shooting distances of 200f and 40m, and if the shooting distance is 200f or more but less than 40m, it will be faster (0.5 seconds), and if it is 40m or more, it will be judged as shown in Figure 12. The main tracking frame position is moved to the center area in the same time (1 second). In other words, the control is performed such that ``the main tracking frame position is quickly moved to the center area if it is far enough away but closer.''
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also provides a system or device with a program that implements one or more functions of the above-described embodiments via a network or a storage medium, and one or more processors in a computer of the system or device reads the program. This can also be achieved by executing a process. It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.
100:カメラ本体、101 メモリ回路、102:撮像素子制御回路、103:撮像素子、105:表示器、110 CPU、121:撮影レンズ駆動機構、122:レンズCPU、123:絞り駆動機構、125:絞り 100: Camera body, 101 Memory circuit, 102: Image sensor control circuit, 103: Image sensor, 105: Display, 110 CPU, 121: Photographic lens drive mechanism, 122: Lens CPU, 123: Aperture drive mechanism, 125: Aperture
Claims (16)
前記撮像手段からの信号に基づいて被写体の検出を行う被写体検出手段と、
画面内の複数の焦点検出領域で焦点検出を行うことが可能な焦点検出手段と、
前記焦点検出手段の検出結果に基づいて撮影光学系の焦点を調節する焦点調節手段と、
前記被写体検出手段により被写体を検出できない場合に、前記焦点調節手段の調節により焦点が合っている被写体が遠方の被写体であることを示す所定の条件を満たす場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定する設定手段と、
を備えることを特徴とする撮像装置。 an imaging means for imaging a subject image;
a subject detection means for detecting a subject based on a signal from the imaging means;
a focus detection means capable of performing focus detection in a plurality of focus detection areas within a screen;
a focus adjustment means for adjusting the focus of the photographing optical system based on the detection result of the focus detection means;
When the object cannot be detected by the object detection means and a predetermined condition indicating that the object that is in focus by adjustment of the focus adjustment means is a distant object, the focus detection area used for focus detection is , setting means for setting a focus detection area near the center of the plurality of focus detection areas;
An imaging device comprising:
前記被写体検出手段により被写体を検出できない場合に、前記焦点調節手段の調節により焦点が合っている被写体が遠方の被写体であることを示す所定の条件を満たす場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定する設定工程を有することを特徴とする撮像装置の制御方法。 an imaging device that captures an image of a subject; a subject detection device that detects a subject based on a signal from the imaging device; and a focus detection device that can perform focus detection in a plurality of focus detection areas within a screen; A method for controlling an imaging device, comprising: a focus adjustment means for adjusting a focus of a photographing optical system based on a detection result of the focus detection means,
When the object cannot be detected by the object detection means and a predetermined condition indicating that the object that is in focus by adjustment of the focus adjustment means is a distant object, the focus detection area used for focus detection is . A method of controlling an imaging device, comprising the step of setting a focus detection area close to the center of the plurality of focus detection areas.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019194730A JP7377063B2 (en) | 2019-10-25 | 2019-10-25 | Imaging device, its control method, program, storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019194730A JP7377063B2 (en) | 2019-10-25 | 2019-10-25 | Imaging device, its control method, program, storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021067889A JP2021067889A (en) | 2021-04-30 |
JP7377063B2 true JP7377063B2 (en) | 2023-11-09 |
Family
ID=75637323
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019194730A Active JP7377063B2 (en) | 2019-10-25 | 2019-10-25 | Imaging device, its control method, program, storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7377063B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001194578A (en) | 1999-11-02 | 2001-07-19 | Olympus Optical Co Ltd | Multipoint automatic focusing camera |
JP2002228920A (en) | 2001-01-30 | 2002-08-14 | Minolta Co Ltd | Main subject detector and automatic focusing camera |
JP2011141374A (en) | 2010-01-06 | 2011-07-21 | Renesas Electronics Corp | Autofocus control method |
WO2012077435A1 (en) | 2010-12-09 | 2012-06-14 | 富士フイルム株式会社 | Image capture device and primary photographic subject recognition method |
-
2019
- 2019-10-25 JP JP2019194730A patent/JP7377063B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001194578A (en) | 1999-11-02 | 2001-07-19 | Olympus Optical Co Ltd | Multipoint automatic focusing camera |
JP2002228920A (en) | 2001-01-30 | 2002-08-14 | Minolta Co Ltd | Main subject detector and automatic focusing camera |
JP2011141374A (en) | 2010-01-06 | 2011-07-21 | Renesas Electronics Corp | Autofocus control method |
WO2012077435A1 (en) | 2010-12-09 | 2012-06-14 | 富士フイルム株式会社 | Image capture device and primary photographic subject recognition method |
Also Published As
Publication number | Publication date |
---|---|
JP2021067889A (en) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1684503B1 (en) | Camera and autofocus control method therefor | |
JP4963569B2 (en) | Imaging system and lens unit | |
JP5961929B2 (en) | camera | |
JP3823921B2 (en) | Imaging device | |
JP2007310009A (en) | Digital camera and camera system | |
JP4764774B2 (en) | Camera with focus adjustment device | |
JP2002365519A (en) | Device for detecting state of focusing | |
JP2006091915A (en) | Imaging apparatus | |
JP2017227725A (en) | Focus detection device, control method and program, as well as imaging device | |
JP4500140B2 (en) | Camera equipped with a twin-lens imaging system | |
JP6561437B2 (en) | Focus adjustment device and imaging device | |
JP7377063B2 (en) | Imaging device, its control method, program, storage medium | |
JP5858683B2 (en) | Focus detection apparatus and imaging apparatus | |
JP2016142924A (en) | Imaging apparatus, method of controlling the same, program, and storage medium | |
JP2016051016A (en) | Imaging apparatus | |
JP6188536B2 (en) | IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6624789B2 (en) | Focus control device, control method thereof, control program, and imaging device | |
JP2014142497A (en) | Imaging apparatus and method for controlling the same | |
JP2016071275A (en) | Image-capturing device and focus control program | |
JP2014206601A (en) | Imaging apparatus and focus adjustment method | |
JP2011176457A (en) | Electronic camera | |
JP5982749B2 (en) | Focus adjustment device and imaging device | |
JP6493594B2 (en) | Imaging device | |
JP6642531B2 (en) | Imaging device | |
JP6467768B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231027 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7377063 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |