JP7377063B2 - Imaging device, its control method, program, storage medium - Google Patents

Imaging device, its control method, program, storage medium Download PDF

Info

Publication number
JP7377063B2
JP7377063B2 JP2019194730A JP2019194730A JP7377063B2 JP 7377063 B2 JP7377063 B2 JP 7377063B2 JP 2019194730 A JP2019194730 A JP 2019194730A JP 2019194730 A JP2019194730 A JP 2019194730A JP 7377063 B2 JP7377063 B2 JP 7377063B2
Authority
JP
Japan
Prior art keywords
focus detection
focus
subject
imaging device
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019194730A
Other languages
Japanese (ja)
Other versions
JP2021067889A (en
Inventor
高行 赤熊
輝岳 門原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019194730A priority Critical patent/JP7377063B2/en
Publication of JP2021067889A publication Critical patent/JP2021067889A/en
Application granted granted Critical
Publication of JP7377063B2 publication Critical patent/JP7377063B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、撮像装置における焦点検出技術に関する。 The present invention relates to focus detection technology in an imaging device.

カメラで遠方から近づいてくる被写体を撮影する場合、ユーザは、ファインダー上で被写体が実際に画像として撮影する大きさになるよりも前にオートフォーカス(以下、AF)を開始することが多い。この場合、顔等の被写体認識が可能であれば、認識した位置にAFでフォーカスを合わせることができるが、被写体認識が困難なシーンでは、検出したデフォーカス量に基づきAFを行う。しかし、遠方の被写体では、背景との深度差が小さく、主たる被写体ではなく背景やその他の被写体に焦点を合わせてしまう場合がある。そのため、AFを開始した位置の他にユーザが目的とする被写体が存在しないかを判別する乗り移り判別を、AFを実行させながら行う必要がある。 When photographing a subject approaching from a distance with a camera, a user often starts autofocus (hereinafter referred to as AF) before the subject reaches a size on the finder to actually be photographed as an image. In this case, if it is possible to recognize a subject such as a face, AF can be used to focus on the recognized position, but in scenes where it is difficult to recognize a subject, AF is performed based on the detected defocus amount. However, for a distant subject, the difference in depth from the background is small, and the background or other subjects may be in focus instead of the main subject. Therefore, it is necessary to perform transition determination to determine whether there is an object that the user is aiming for other than the position where AF is started, while performing AF.

特許文献1では、画面全体の像面移動量に基づき、被写体の動体判定を行い、画面中央をより動体と判定しやすく周辺を動体と判定しづらくさせることで、ユーザの意思と一致した被写体を選択できる確率を高くした乗り移り判別方法が開示されている。 In Patent Document 1, a moving object is determined based on the amount of image plane movement of the entire screen, and by making it easier to determine the center of the screen as a moving object and making it harder to determine the surroundings as a moving object, it is possible to select a subject that matches the user's intention. A transfer determination method that increases the probability of selection has been disclosed.

特開2001-194578号公報Japanese Patent Application Publication No. 2001-194578

しかしながら、特許文献1では、画面全体の像面移動量にもとづき、動体と判定されやすい程度を中央と周辺で切り替えているが、特許文献1では画面全体の像面変化量が小さい遠方被写体では像面移動量の変化が検出されにくいという問題がある。 However, in Patent Document 1, based on the amount of image plane movement of the entire screen, the extent to which it is likely to be determined as a moving object is switched between the center and the periphery, but in Patent Document 1, the degree to which it is likely to be determined as a moving object is switched between the center and the periphery. There is a problem in that changes in the amount of surface movement are difficult to detect.

本発明は上述した課題に鑑みてなされたものであり、その目的は、被写体が遠方から近づいてくる場合であっても、焦点を合わせる被写体を適切に選択することができる撮像装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and its purpose is to provide an imaging device that can appropriately select a subject to focus on even when the subject approaches from a distance. It is.

本発明に係わる撮像装置は、被写体像を撮像する撮像手段と、前記撮像手段からの信号に基づいて被写体の検出を行う被写体検出手段と、画面内の複数の焦点検出領域で焦点検出を行うことが可能な焦点検出手段と、前記焦点検出手段の検出結果に基づいて撮影光学系の焦点を調節する焦点調節手段と、前記被写体検出手段により被写体を検出できない場合に、前記焦点調節手段の調節により焦点が合っている被写体が遠方の被写体であることを示す所定の条件を満たす場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定する設定手段と、を備えることを特徴とする。 An imaging device according to the present invention includes an imaging device that captures an image of a subject, a subject detection device that detects a subject based on a signal from the imaging device, and a focus detection device that performs focus detection in a plurality of focus detection areas within a screen. a focus detection means capable of adjusting the focus of the photographing optical system based on the detection result of the focus detection means; and a focus adjustment means capable of adjusting the focus of the photographing optical system based on the detection result of the focus detection means; When a predetermined condition indicating that a subject in focus is a distant subject, a focus detection area used for focus detection is set to a focus detection area near the center of the plurality of focus detection areas. A setting means is provided.

本発明によれば、被写体が遠方から近づいてくる場合であっても、焦点を合わせる被写体を適切に選択することが可能となる。 According to the present invention, even when the subject approaches from a distance, it is possible to appropriately select the subject to focus on.

本発明の撮像装置の第1の実施形態であるデジタルカメラの機能構成を示すブロック図。FIG. 1 is a block diagram showing the functional configuration of a digital camera that is a first embodiment of an imaging device of the present invention. 第1の実施形態のデジタルカメラの側断面図。FIG. 1 is a side sectional view of a digital camera according to a first embodiment. 撮像素子の画素構造を示す図。FIG. 3 is a diagram showing a pixel structure of an image sensor. 撮像素子の瞳分割機能を説明する図。FIG. 3 is a diagram illustrating a pupil division function of an image sensor. 第1の実施形態におけるAF時の全体フローチャート。2 is an overall flowchart during AF in the first embodiment. 第1の実施形態における焦点検出処理のフローチャート。5 is a flowchart of focus detection processing in the first embodiment. 第1の実施形態における再捕捉判別処理のフローチャート。7 is a flowchart of recapture determination processing in the first embodiment. 第1の実施形態における主追跡枠選択処理のフローチャート。5 is a flowchart of main tracking frame selection processing in the first embodiment. 第2の実施形態における連写中に焦点検出可能な領域の説明図。FIG. 7 is an explanatory diagram of an area where focus can be detected during continuous shooting in the second embodiment. 第2の実施形態における撮影画面領域の分割の説明図。FIG. 7 is an explanatory diagram of division of the photographing screen area in the second embodiment. 第2の実施形態における連写での主追跡枠位置制御のフローチャート。7 is a flowchart of main tracking frame position control in continuous shooting in the second embodiment. 第2の実施形態における主追跡枠位置の中心移動制御のフローチャート。7 is a flowchart of center movement control of the main tracking frame position in the second embodiment. 第2の実施形態における主追跡枠位置での動体判定のフローチャート。7 is a flowchart of moving object determination at the main tracking frame position in the second embodiment. 第2の実施形態の変形例における主追跡枠位置の中心移動制御のフローチャート。7 is a flowchart of center movement control of the main tracking frame position in a modification of the second embodiment. 第2の実施形態の変形例における主追跡枠位置の中心移動制御のフローチャート。7 is a flowchart of center movement control of the main tracking frame position in a modification of the second embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

(第1の実施形態)
図1は、本発明の撮像装置の第1の実施形態であるデジタルカメラの機能構成を示すブロック図である。図2は、図1に示したデジタルカメラの側断面図である。
(First embodiment)
FIG. 1 is a block diagram showing the functional configuration of a digital camera, which is a first embodiment of the imaging apparatus of the present invention. FIG. 2 is a side sectional view of the digital camera shown in FIG.

本実施形態のデジタルカメラには、ある時刻における被写体の位置に焦点を合わせるオートフォーカス(AF)モード(ワンショットAFモード)と、周期的にレンズを駆動して被写体に焦点を合わせ続けるオートフォーカスモード(サーボAFモード)の2種類がある。第1の実施形態では、デジタルカメラがこれらのモードのうち、サーボAFモードに設定されている場合について説明する。 The digital camera of this embodiment has an autofocus (AF) mode (one-shot AF mode) that focuses on the position of the subject at a certain time, and an autofocus mode that periodically drives the lens to keep the subject in focus. There are two types: (servo AF mode). In the first embodiment, a case will be described in which the digital camera is set to the servo AF mode among these modes.

図1、図2において、デジタルカメラ150は、撮像素子103を有するカメラ本体100と、撮影光学系を有する撮影レンズ120とを組み合わせて使用するレンズ交換式のデジタルスチルカメラである。 1 and 2, a digital camera 150 is a digital still camera with interchangeable lenses that uses a combination of a camera body 100 having an image sensor 103 and a photographing lens 120 having a photographing optical system.

カメラ本体100は、撮像素子103、表示器105、CPU110、撮像素子制御回路102、メモリ回路101、インターフェース回路106、画像処理回路107、電気接点108を備える。 The camera body 100 includes an image sensor 103, a display 105, a CPU 110, an image sensor control circuit 102, a memory circuit 101, an interface circuit 106, an image processing circuit 107, and electrical contacts 108.

撮像素子103は、CMOS(Complementary Metal OxideSemiconductor)イメージセンサ、CCD(Charge Coupled Device)イメージセンサ等により構成されており、カメラ本体100の撮影レンズ120の予定結像面に配置されている。撮像素子103の詳細については後述する。 The image sensor 103 is composed of a CMOS (Complementary Metal Oxide Semiconductor) image sensor, a CCD (Charge Coupled Device) image sensor, etc., and is arranged on the intended imaging plane of the photographing lens 120 of the camera body 100. Details of the image sensor 103 will be described later.

表示器105は、LCD(Liquid Crystal Display)パネル等により構成され、撮影画像の表示や撮影情報等の表示を行う。また表示器105は、ライブビューモード時には、撮影予定の領域をリアルタイムに動画表示する。ここで、ライブビューモードとは、撮影レンズ120からの被写体像を撮像素子103により撮像して、プレビュー用の低画素動画像を表示器105にリアルタイムで表示するモードである。このライブビューモード時には、後述する撮像面における位相差AFを実行することができる。さらに、連写撮影中には各連写時の低画素静止画像を表示器105に表示する。 The display 105 is constituted by an LCD (Liquid Crystal Display) panel or the like, and displays photographed images, photographic information, and the like. Furthermore, in the live view mode, the display device 105 displays a moving image of the area to be photographed in real time. Here, the live view mode is a mode in which a subject image from the photographing lens 120 is captured by the image sensor 103 and a low-pixel moving image for preview is displayed on the display 105 in real time. In this live view mode, phase difference AF on the imaging plane, which will be described later, can be performed. Furthermore, during continuous shooting, low-pixel still images from each continuous shooting are displayed on the display 105.

CPU110は、カメラ全体を統括的に制御する。またCPU110は、被写体検出部111、位相差検出部112、デフォーカス量換算部112、被写体再捕捉判別部114、主追跡枠選択部115、焦点調節部116を備え、撮影レンズ120の焦点状態の算出と駆動制御を行う。 The CPU 110 centrally controls the entire camera. The CPU 110 also includes a subject detection section 111, a phase difference detection section 112, a defocus amount conversion section 112, a subject re-capture determination section 114, a main tracking frame selection section 115, and a focus adjustment section 116, and controls the focal state of the photographic lens 120. Performs calculation and drive control.

被写体検出部111は、撮像素子103から出力された画像の特徴に基づき、特徴がある被写体を検出する。位相差検出部112は、撮像素子103から出力された一対の像信号の位相差を検出する。デフォーカス量換算部113は、位相差検出部112により検出された像ずれ量を、換算係数を用いてデフォーカス量へ換算する。被写体再捕捉判別部116の詳細は後述する。主追跡枠選択部115は、焦点調節部116で焦点を調節するための撮像面上の位置を決定する。焦点調節部116は、換算したデフォーカス量に基づいて焦点位置を移動させるようにレンズCPU122に指示を送る。 The subject detection unit 111 detects a characteristic subject based on the characteristics of the image output from the image sensor 103. The phase difference detection unit 112 detects the phase difference between a pair of image signals output from the image sensor 103. The defocus amount conversion unit 113 converts the image shift amount detected by the phase difference detection unit 112 into a defocus amount using a conversion coefficient. Details of the subject re-capture determination unit 116 will be described later. The main tracking frame selection unit 115 determines the position on the imaging plane for adjusting the focus by the focus adjustment unit 116. The focus adjustment unit 116 sends an instruction to the lens CPU 122 to move the focal position based on the converted defocus amount.

撮像素子制御回路102は、CPU110の指示に従い、撮像素子103を駆動制御する。メモリ回路101は、撮像素子103により撮像された画像を記憶する。インターフェース回路106は、画像処理回路107により画像処理された画像をカメラ外部に出力する。画像処理回路107は、撮像素子103により撮像された画像信号を画像処理する。電気接点108は、撮影レンズ120の電気接点124と接触して電力及び各種信号の通信に用いられる。 The image sensor control circuit 102 drives and controls the image sensor 103 according to instructions from the CPU 110. The memory circuit 101 stores images captured by the image sensor 103. The interface circuit 106 outputs the image processed by the image processing circuit 107 to the outside of the camera. The image processing circuit 107 performs image processing on the image signal captured by the image sensor 103. The electrical contact 108 contacts the electrical contact 124 of the photographic lens 120 and is used for communication of electric power and various signals.

撮影レンズ120は、カメラ本体100に対して着脱可能な交換レンズである。撮影レンズ120は撮影光学系、レンズCPU122、撮影レンズ駆動機構121、絞り駆動機構123、絞り125、電気接点124を備える。 The photographing lens 120 is an interchangeable lens that can be attached to and detached from the camera body 100. The photographic lens 120 includes a photographic optical system, a lens CPU 122, a photographic lens drive mechanism 121, an aperture drive mechanism 123, an aperture 125, and an electrical contact 124.

撮影光学系は、撮影する被写体の光学像を撮像素子103上に結像させる。撮影光学系は、複数のレンズ群からなり、撮像素子103の撮像面付近にある焦点位置をZ方向に沿って(光軸に沿って)移動させるように撮影レンズ駆動機構121により駆動される。 The photographing optical system forms an optical image of the subject to be photographed on the image sensor 103. The photographing optical system includes a plurality of lens groups, and is driven by a photographing lens drive mechanism 121 to move a focal point near the imaging surface of the image sensor 103 along the Z direction (along the optical axis).

レンズCPU122は、カメラ本体100のCPU110から送られてくる焦点調節情報を電気接点124を介して受信し、その焦点調節情報に基づいて撮影レンズ駆動機構121を駆動する。絞り駆動機構123は、絞り125を駆動する機構及びアクチュエータを有し、レンズCPU110の指示に従い絞り125を駆動する。 The lens CPU 122 receives focus adjustment information sent from the CPU 110 of the camera body 100 via the electric contact 124, and drives the photographing lens drive mechanism 121 based on the focus adjustment information. The aperture drive mechanism 123 has a mechanism and an actuator for driving the aperture 125, and drives the aperture 125 according to instructions from the lens CPU 110.

<撮像素子の構造>
続いて図3を参照して、本実施形態における撮像素子103の画素構造について説明する。図3は、撮像素子103の画素構造を示す図である。図3(A)は撮像素子103の画素配列の説明図、図3(B)は画素210GのZ-X平面による断面図を示している。
<Structure of image sensor>
Next, with reference to FIG. 3, the pixel structure of the image sensor 103 in this embodiment will be described. FIG. 3 is a diagram showing a pixel structure of the image sensor 103. FIG. 3(A) is an explanatory diagram of the pixel arrangement of the image sensor 103, and FIG. 3(B) is a cross-sectional view of the pixel 210G along the ZX plane.

図3(A)は、撮像素子103(2次元CMOSセンサ)の画素配列を、4行×4列の画素範囲で示している。画素210のカラーフィルタの配列は、ベイヤー配列が採用されている。対角方向の2画素として、G(緑)の分光感度を有する画素210Gが配置されている。また、他の2画素として、R(赤)の分光感度を有する画素210R、および、B(青)の分光感度を有する画素210Bがそれぞれ配置されている。画素210R,210G,210Bは、それぞれ、瞳分割用の2つの副画素201a,201bを有する。また、副画素201aは、撮像光学系の第1瞳領域を通過した光束を受光する第1画素である。また、副画素201bは、撮像光学系の第2瞳領域を通過した光束を受光する第2画素である。各画素は、撮像用画素および焦点検出用画素として機能する。 FIG. 3A shows a pixel array of the image sensor 103 (two-dimensional CMOS sensor) in a pixel range of 4 rows by 4 columns. The color filter arrangement of the pixel 210 employs a Bayer arrangement. A pixel 210G having a spectral sensitivity of G (green) is arranged as two pixels in the diagonal direction. Further, as the other two pixels, a pixel 210R having a spectral sensitivity of R (red) and a pixel 210B having a spectral sensitivity of B (blue) are arranged. Pixels 210R, 210G, and 210B each have two subpixels 201a and 201b for pupil division. Further, the sub-pixel 201a is a first pixel that receives the light flux that has passed through the first pupil region of the imaging optical system. Further, the sub-pixel 201b is a second pixel that receives the light flux that has passed through the second pupil region of the imaging optical system. Each pixel functions as an imaging pixel and a focus detection pixel.

図3(A)中のX、Y、Zで示される座標軸に関し、X-Y平面は図3(A)の紙面内に位置し、Z軸は紙面に対して垂直な軸である。副画素201a,201bは、X軸に平行な方向に沿って配置されている。 Regarding the coordinate axes indicated by X, Y, and Z in FIG. 3(A), the XY plane is located within the paper plane of FIG. 3(A), and the Z axis is an axis perpendicular to the paper plane. Sub-pixels 201a and 201b are arranged along a direction parallel to the X-axis.

図3(B)中のX、Y、Zで示される座標軸に関し、X-Z平面は図3(B)の紙面内に位置し、Y軸は紙面に対して垂直な軸である。検出部はp型層200およびn型層から構成されるフォトダイオードを有する。マイクロレンズ202は、受光面からZ軸方向に所定の距離だけ離れた位置に配置されている。マイクロレンズ202は、カラーフィルタ203上に形成されている。 Regarding the coordinate axes indicated by X, Y, and Z in FIG. 3(B), the XZ plane is located within the paper plane of FIG. 3(B), and the Y axis is an axis perpendicular to the paper plane. The detection section has a photodiode made up of a p-type layer 200 and an n-type layer. The microlens 202 is placed a predetermined distance away from the light receiving surface in the Z-axis direction. Microlens 202 is formed on color filter 203.

本実施形態において、撮像素子103の全ての画素210R,210G,210Bに、瞳分割用の副画素201a,201bが設けられている。副画素201a,201bは、焦点検出用画素として用いられる。ただし、本実施形態はこれに限定されるものではなく、瞳分割可能な焦点検出用画素が全画素のうちの一部の画素にのみ設けられている構成であってもよい。 In this embodiment, all pixels 210R, 210G, and 210B of the image sensor 103 are provided with subpixels 201a and 201b for pupil division. The sub-pixels 201a and 201b are used as focus detection pixels. However, the present embodiment is not limited to this, and a configuration may be adopted in which focus detection pixels capable of pupil division are provided only in some of all pixels.

<撮像素子による瞳分割機能の概念>
続いて図4を参照して、撮像素子103の瞳分割機能について説明する。図4は、撮像素子103の瞳分割機能の説明図であり、1つの画素部における瞳分割の様子を示している。
<Concept of pupil division function using image sensor>
Next, with reference to FIG. 4, the pupil division function of the image sensor 103 will be explained. FIG. 4 is an explanatory diagram of the pupil division function of the image sensor 103, and shows the state of pupil division in one pixel portion.

図4中の下方に示される画素部の座標軸(X,Y,Z)に関し、X-Z平面は図4の紙面内に位置し、Y軸は紙面に対して垂直な軸である。画素は、p型層200およびn型層301a,301b(副画素201a,201bに対応)を備えている。p型層200およびn型層301aは図3中の副画素201aを構成し、また、p型層200およびn型層301bは副画素201bを構成する。マイクロレンズ304は、Z軸上に配置されている。 Regarding the coordinate axes (X, Y, Z) of the pixel portion shown in the lower part of FIG. 4, the XZ plane is located within the plane of the paper of FIG. 4, and the Y axis is an axis perpendicular to the plane of the paper. The pixel includes a p-type layer 200 and n-type layers 301a and 301b (corresponding to subpixels 201a and 201b). The p-type layer 200 and the n-type layer 301a constitute the sub-pixel 201a in FIG. 3, and the p-type layer 200 and the n-type layer 301b constitute the sub-pixel 201b. Microlens 304 is arranged on the Z-axis.

また、図4の上方には、撮影レンズ120の射出瞳302、および、枠303(例えば、絞り枠やレンズ枠)がそれぞれ示されている。図4の上方に示される座標軸(X,Y,Z)に関し、X-Y平面は図4の紙面内に位置し、Z軸は紙面に対して垂直な軸である。 Further, in the upper part of FIG. 4, an exit pupil 302 and a frame 303 (for example, an aperture frame or a lens frame) of the photographic lens 120 are shown. Regarding the coordinate axes (X, Y, Z) shown at the top of FIG. 4, the XY plane is located within the plane of the paper of FIG. 4, and the Z axis is an axis perpendicular to the plane of the paper.

1つの画素には、p型層200に埋め込まれたn型層301a,301bが設けられていることにより、2つの副画素が形成されている。2つの副画素は、X方向に沿って規則的に配置されている。また、2つの副画素は、+X方向および-X方向にそれぞれ偏芯しているため、1つのマイクロレンズ202を用いて瞳分割を行うことが可能である。図4において、射出瞳302として、像信号Aの瞳302a、および、像信号Bの瞳302bが示されている。像信号Aは、-X方向に偏芯したn型層301aに対応する副画素201aで取得される第1の像信号である。また、像信号Bは、+X方向に偏芯したn型層301bに対応する副画素201bで取得される第2の像信号である。 One pixel is provided with n-type layers 301a and 301b embedded in the p-type layer 200, thereby forming two sub-pixels. The two subpixels are regularly arranged along the X direction. Further, since the two sub-pixels are eccentric in the +X direction and the -X direction, it is possible to perform pupil division using one microlens 202. In FIG. 4, a pupil 302a of image signal A and a pupil 302b of image signal B are shown as exit pupils 302. The image signal A is the first image signal acquired by the subpixel 201a corresponding to the n-type layer 301a eccentric in the -X direction. Further, the image signal B is a second image signal acquired by the subpixel 201b corresponding to the n-type layer 301b eccentric in the +X direction.

このように本実施形態において、像信号A(第1の信号)は、図3(A)に示されるように、X方向に規則的に配列された複数の副画素201aから得られた信号である。すなわち像信号Aは、結像光学系の異なる射出瞳領域を通過し、絞り値に応じて基線長が異なる対の光束から得られた像信号の一方である。また、像信号B(第2の信号)は、図3(A)に示されるように、X方向に規則的に配列された複数の副画素201bから得られた信号である。すなわち像信号Bは、結像光学系の異なる射出瞳領域を通過し、絞り値に応じて基線長が異なる対の光束から得た像信号の他方である。 In this embodiment, the image signal A (first signal) is a signal obtained from a plurality of sub-pixels 201a regularly arranged in the X direction, as shown in FIG. 3(A). be. That is, the image signal A is one of the image signals obtained from a pair of light beams that pass through different exit pupil regions of the imaging optical system and have different baseline lengths depending on the aperture value. Further, the image signal B (second signal) is a signal obtained from a plurality of sub-pixels 201b regularly arranged in the X direction, as shown in FIG. 3(A). That is, the image signal B is the other image signal obtained from a pair of light beams that pass through different exit pupil regions of the imaging optical system and have different base line lengths depending on the aperture value.

CPU110は、位相差検出部112によって像信号Aと像信号Bの相対的な像ずれ量を算出し、デフォーカス量換算部113によってデフォーカス量を算出する。なお本実施形態では、X方向の輝度分布を有する被写体に対応した構成について説明した。ただし、本実施形態は、同様の構成をY方向にも展開することにより、Y方向に輝度分布を有する被写体にも対応した構成を採用することも可能である。 The CPU 110 uses the phase difference detection section 112 to calculate the relative image shift amount between the image signal A and the image signal B, and uses the defocus amount conversion section 113 to calculate the defocus amount. Note that in this embodiment, a configuration corresponding to a subject having a luminance distribution in the X direction has been described. However, in this embodiment, by extending the same configuration to the Y direction, it is also possible to adopt a configuration that can also accommodate a subject having a brightness distribution in the Y direction.

続いて、図5のフローチャートを用いて、本実施形態の撮影時の全体制御方法について説明する。 Next, the overall control method during photographing according to this embodiment will be explained using the flowchart of FIG.

ステップS101では、CPU110は、撮影準備スイッチがオンされたことを検出する。本実施形態では、レリーズボタンを半押しすることにより、撮影準備スイッチ(SW1)がオンとなる。 In step S101, the CPU 110 detects that the photography preparation switch is turned on. In this embodiment, the photographing preparation switch (SW1) is turned on by pressing the release button halfway.

次のステップS102では、CPU110は、焦点検出処理を行う。焦点検出処理の詳細については図6を用いて後述する。 In the next step S102, the CPU 110 performs focus detection processing. Details of the focus detection process will be described later using FIG. 6.

ステップS103では、CPU110は、被写体検出部111を用いて被写体検出処理を行う。これは人物、動物、乗り物など撮影対象となりうる被写体を、撮像素子103から得られたデータに基づき検出する処理である。 In step S103, the CPU 110 uses the subject detection unit 111 to perform subject detection processing. This is a process of detecting objects that can be photographed, such as people, animals, and vehicles, based on data obtained from the image sensor 103.

ステップS104では、CPU110は、再捕捉判別処理を行う。再捕捉判定処理の詳細については図7を用いて後述する。 In step S104, the CPU 110 performs reacquisition determination processing. Details of the reacquisition determination process will be described later using FIG. 7.

ステップS105では、CPU110は、主追跡枠選択処理を行う。主追跡枠選択処理の詳細については図8を用いて後述する。 In step S105, the CPU 110 performs main tracking frame selection processing. Details of the main tracking frame selection process will be described later using FIG. 8.

ステップS106では、CPU110は、ステップS105で選択した画面位置の像面に焦点を合わせるために必要なレンズ駆動量を算出し、レンズCPU122に伝達する。 In step S106, the CPU 110 calculates the lens drive amount necessary to focus on the image plane at the screen position selected in step S105, and transmits it to the lens CPU 122.

ステップS107では、CPU110は、撮影準備スイッチ(SW1)がオフされたか否かを判定し、オフ状態であればこのフローを終了し、オン状態であればステップS102へ戻る。 In step S107, the CPU 110 determines whether or not the photographing preparation switch (SW1) is turned off. If the switch is off, this flow ends, and if it is on, the process returns to step S102.

次に、ステップS102の焦点検出処理の動作の一例を図6のフローチャートに基づき説明する。 Next, an example of the operation of the focus detection process in step S102 will be explained based on the flowchart of FIG.

ステップS201では、CPU110は、撮像素子103から出力される像信号A、像信号Bを取得する。 In step S201, the CPU 110 obtains the image signal A and the image signal B output from the image sensor 103.

ステップS202では、CPU110は、ステップS201で取得した像信号A、像信号Bの像ずれ量を算出する。 In step S202, the CPU 110 calculates the amount of image shift of the image signal A and the image signal B acquired in step S201.

ステップS203では、CPU110は、ステップS202で算出した像ずれ量をデフォーカス量に換算する。 In step S203, the CPU 110 converts the image shift amount calculated in step S202 into a defocus amount.

ステップS204では、CPU110は、焦点検出情報をメモリ回路101に記憶する。ステップS204では、被写体像面位置とその検出時刻を記憶する。 In step S204, the CPU 110 stores the focus detection information in the memory circuit 101. In step S204, the subject image plane position and its detection time are stored.

次に、ステップS104の再捕捉判別部による再捕捉判別処理の動作の一例を図7のフローチャートに基づき説明する。 Next, an example of the operation of the re-capture determination process by the re-capture determination unit in step S104 will be described based on the flowchart of FIG. 7.

ステップS301では、CPU110は、被写体を一度捕捉しているか否かを判定する。捕捉しているか否かとは、一度オートフォーカスを実施し、特定の位置で所定深度まで焦点調節を行ったか否かで判定する。このとき一度も所定深度まで焦点調節を行っていない状態であるならば再捕捉判別処理は行わずにこのフローを終了する。一度所定深度まで焦点調節を行った状態ならば、S302へ進む。 In step S301, the CPU 110 determines whether the subject has been captured once. Whether or not the image is captured is determined by performing autofocus once and adjusting the focus to a predetermined depth at a specific position. At this time, if the focus has not been adjusted to the predetermined depth even once, this flow is ended without performing the re-capturing determination process. Once the focus has been adjusted to a predetermined depth, the process advances to S302.

ステップS302では、CPU110は、遠方被写体か否かを判定する。遠方被写体の判定方法は撮影倍率で判定する。撮影倍率は式(1)により算出する。 In step S302, the CPU 110 determines whether the subject is a distant subject. The method of determining a distant subject is based on the imaging magnification. The imaging magnification is calculated using equation (1).

撮影倍率=被写体との距離/焦点距離 …式(1)
本実施形態では、撮影倍率が閾値Th1以上の場合に遠方被写体と判別する。本実施形態では閾値Th1を200としている。遠方被写体の場合はS303に進み、遠方被写体でない場合は本フローを終了する。
Shooting magnification = distance to subject/focal length...Formula (1)
In this embodiment, when the photographing magnification is equal to or higher than the threshold value Th1, the object is determined to be a distant object. In this embodiment, the threshold Th1 is set to 200. If the subject is a distant subject, the process advances to S303, and if the subject is not a distant subject, this flow ends.

ステップS303では、CPU110は、焦点距離が閾値Th2以上か否かを判別し、閾値Th2以上であればS304へ進み、そうでなければ本フローを終了する。本実施形態では閾値Th2を100mmとしている。 In step S303, the CPU 110 determines whether the focal length is equal to or greater than the threshold Th2. If the focal length is equal to or greater than the threshold Th2, the process proceeds to S304; otherwise, the flow ends. In this embodiment, the threshold Th2 is set to 100 mm.

ステップS304では、CPU110は、中央範囲において、至近側のデフォーカスを検出したか否かを判定する。本実施形態では中央範囲を3×3の焦点検出領域(焦点検出枠)に分割し、焦点検出領域のうち1つでも至近側のデフォーカスを検出したか否かで判定を行う。しかし、この分割方法は3×3以外の数で分割してもよい。また、至近側のデフォーカスを検出した焦点検出領域が1つでもあればという判定ではなく、領域内を平均化して至近方向を示しているか否かで判定してもよい。また本実施形態では一度の焦点検出部の結果を使用しているが、現在補足している位置の像面履歴とは別に、中央の像面履歴を保持し、中央位置の像面履歴が至近方向に移動しているなら再捕捉を行うという判定を行ってもよい。さらにカメラのジャイロセンサー履歴を保持し、カメラを大きく振っているときは再捕捉を行わないという判定を行ってもよい。S304の判定がYESの場合はS305に進み、NOの場合は本フローを終了する。 In step S304, the CPU 110 determines whether defocus on the close side has been detected in the central range. In this embodiment, the central range is divided into 3×3 focus detection areas (focus detection frames), and the determination is made based on whether defocus on the close side is detected in even one of the focus detection areas. However, this division method may also be used to divide by numbers other than 3×3. Further, instead of determining whether there is at least one focus detection area in which defocus on the close side is detected, the determination may be made based on whether or not the area is averaged to indicate the close side. In addition, in this embodiment, the result of one focus detection unit is used, but the image surface history of the center is held separately from the image surface history of the currently captured position, and the image surface history of the center position is If the object is moving in that direction, it may be determined that re-acquisition is to be performed. Furthermore, the history of the camera's gyro sensor may be retained, and a determination may be made that re-capturing is not performed when the camera is shaken significantly. If the determination in S304 is YES, the process advances to S305, and if the determination is NO, this flow ends.

ステップS305では、CPU110は、被写体が動体であるか否かを判定する。動体と判定する方法は、被写体の像面位置の履歴を保持し、像面位置が単調に一方向に変化しているならば動体と判定する。すでに捕捉している被写体が動いており、ユーザが撮影準備スイッチ(SW1)を押し続けているならば、ユーザはその被写体を撮影したいと考えているため、被写体の乗り移りは行わず本フローを終了する。主被写体が動体でない場合にはS306に進む。 In step S305, the CPU 110 determines whether the subject is a moving object. A method for determining that an object is a moving object is to maintain a history of the image plane position of the object, and if the image plane position is monotonically changing in one direction, it is determined that the object is a moving object. If the already captured subject is moving and the user continues to press the shooting preparation switch (SW1), the user wants to take a picture of that subject, so this flow ends without changing the subject. do. If the main subject is not a moving object, the process advances to S306.

ステップS306では、CPU110は、中央範囲の被写体へ乗り移ることを決定する。この決定した処理を後述するステップS403の判定で使用する。 In step S306, the CPU 110 determines to transfer to the subject in the center range. This determined process is used in the determination in step S403, which will be described later.

次に、ステップS105の主追跡枠選択処理の動作の一例を図8のフローチャートに基づき説明する。 Next, an example of the operation of the main tracking frame selection process in step S105 will be described based on the flowchart of FIG.

ステップS401では、CPU110は、ステップS103の被写体検出処理で被写体を検出できたか否かを判定する。被写体検出ができていればS407に進み、被写体を検出できていなければS402へ進む。 In step S401, the CPU 110 determines whether or not the subject was detected in the subject detection process in step S103. If the subject has been detected, the process advances to S407; if the subject has not been detected, the process advances to S402.

ステップS402では、CPU110は、被写体を捕捉しているか否かを判定する。これは、ステップS301と同じ判定処理である。被写体を補足していればS403へ進み、補足していなければS404に進む。 In step S402, the CPU 110 determines whether a subject is captured. This is the same determination process as step S301. If the subject has been captured, the process advances to S403; if the subject has not been captured, the process advances to S404.

ステップS403では、CPU110は、S306で中央範囲の被写体への乗り移りの決定が行われたか否かを判定する。決定が行われていた場合にはS406へ進み、そうでない場合はS405へ進む。 In step S403, the CPU 110 determines whether or not it has been determined in step S306 to transfer to the subject in the center range. If the decision has been made, the process advances to S406; otherwise, the process advances to S405.

ステップS404では、CPU110は、最も至近方向のデフォーカスを検出している枠を優先して焦点調節を行う枠を選択し、本フローを終了する。 In step S404, the CPU 110 selects a frame for focus adjustment, giving priority to the frame in which defocus is detected in the closest direction, and ends this flow.

ステップS405では、CPU110は、前回の主追跡枠位置と像面位置が連続している枠を優先して焦点調節を行う枠を選択し、本フローを終了する。 In step S405, the CPU 110 selects a frame for focus adjustment, giving priority to a frame whose image plane position is continuous with the previous main tracking frame position, and ends this flow.

ステップS406では、CPU110は、中央範囲の枠を焦点調節する枠として選択し、本フローを終了する。 In step S406, the CPU 110 selects the frame in the center range as the frame for focus adjustment, and ends this flow.

ステップS407では、CPU110は、被写体を検出した位置の枠を焦点調節する枠として選択し、本フローを終了する。 In step S407, the CPU 110 selects the frame at the position where the subject is detected as the frame for focus adjustment, and ends this flow.

以上説明したように、本実施形態によれば、主被写体の検出ができない遠方の被写体に対してユーザの意思に一致する場所でAFを開始することができなかったとしても、その後再捕捉の判定を行うことにより、ユーザの意思に一致する被写体にAFを合わせ直すことができる。 As described above, according to the present embodiment, even if it is not possible to start AF at a location that matches the user's intention for a distant subject whose main subject cannot be detected, the determination of re-acquisition is subsequently made. By doing this, it is possible to refocus the AF on a subject that matches the user's intention.

(第2の実施形態)
第1の実施形態では、撮像装置における主追跡枠と中央領域での焦点検出結果が得られている場合での、主追跡枠の位置に関する制御について説明してきた。しかし、実際に連続撮影動作(以下、連写と記す)中に於いては、駒速を維持するため、現在の主追跡枠に対して、その周辺範囲でしか焦点検出結果が得られない場合がある。
(Second embodiment)
In the first embodiment, control regarding the position of the main tracking frame has been described in a case where focus detection results have been obtained for the main tracking frame and the central region of the imaging device. However, during actual continuous shooting operation (hereinafter referred to as continuous shooting), in order to maintain the frame speed, focus detection results may only be obtained in the peripheral range of the current main tracking frame. There is.

図9は連写中の焦点検出可能な領域のイメージを表した図である。図9における枠Aは主追跡枠で、現在、撮影画面全体Cの左側上部に位置している。この状態での連写中は、図9の枠Bの範囲しか焦点検出結果が得られない。 FIG. 9 is a diagram showing an image of a focus detectable area during continuous shooting. Frame A in FIG. 9 is the main tracking frame, which is currently located at the upper left side of the entire photographic screen C. During continuous shooting in this state, focus detection results can only be obtained within the range of frame B in FIG.

以下、第2の実施形態として、この様な状況において、主追跡枠Aが所望の被写体を捕捉していないと判断された場合の、主追跡枠の位置に関する制御について説明する。 Hereinafter, as a second embodiment, control regarding the position of the main tracking frame when it is determined that the main tracking frame A does not capture the desired subject in such a situation will be described.

図10(A)は、図9の撮影画面全体Cを、D,E,Fの3つの領域に分割した図である。図10における枠Dは中心領域で、文字通り撮影画面全体の中心部分であり、領域の大きさとしては今まで説明してきた主追跡枠と同じである。つまり、図10(A)は、主追跡枠を画面全体の中心に設定した状態であり、撮像装置の初期設定状態である。図10のEは中央領域で、撮影画面全体Cにおける「ほぼ中心付近」となる領域で、撮影時に主被写体が存在する確率が高い領域となる。 FIG. 10A is a diagram in which the entire photographic screen C in FIG. 9 is divided into three regions D, E, and F. Frame D in FIG. 10 is a central region, which is literally the center of the entire photographic screen, and the size of the region is the same as the main tracking frame described above. That is, FIG. 10A shows a state in which the main tracking frame is set at the center of the entire screen, which is the initial setting state of the imaging device. E in FIG. 10 is the central region, which is "approximately near the center" of the entire photographic screen C, and is a region where there is a high probability that the main subject will be present at the time of photographing.

ここで、図9における主追跡枠と連写中でも焦点検出可能な図9のBの関係を考えると、図10(A)の中央領域Eに主追跡枠が無いと、図10(A)の中心領域である枠Dの焦点検出結果は得られない。よって、主追跡枠が図9の様に中心からズレており、撮影画面全体Cの中央領域(図10(A)のE)に無い場合に、どの様な判断で主追跡枠の位置に関する制御を行うかを以下で説明する。 Here, considering the relationship between the main tracking frame in FIG. 9 and B in FIG. 9, where focus can be detected even during continuous shooting, if there is no main tracking frame in the central area E of FIG. 10(A), The focus detection result for frame D, which is the central area, cannot be obtained. Therefore, when the main tracking frame is offset from the center as shown in Fig. 9 and is not in the central area of the entire shooting screen C (E in Fig. 10(A)), how should the control regarding the position of the main tracking frame be performed? How to do this will be explained below.

図11は、連写中での主追跡枠の位置制御処理を示すフローチャートである。 FIG. 11 is a flowchart showing the main tracking frame position control process during continuous shooting.

まず、ステップS501では、CPU110は、連写モードであるか否かを判断する。連写モードである場合は、ステップS502に進む。ここでは連写中の制約条件下での制御を対象としているので、連写モードでない場合はそのままこのフローを終了する。 First, in step S501, the CPU 110 determines whether the mode is continuous shooting mode. If the mode is continuous shooting mode, the process advances to step S502. Since the target here is control under constraint conditions during continuous shooting, if the continuous shooting mode is not set, this flow is immediately ended.

一方、ステップS502では、CPU110は、既に連写中であるか否かを判断する。連写中である場合は、ステップS505に進み、まだ連写中ではなく、これから連写動作を行う場合は、ステップS503に進む。 On the other hand, in step S502, the CPU 110 determines whether continuous shooting is already in progress. If continuous shooting is in progress, the process advances to step S505, and if continuous shooting is not yet in progress and a continuous shooting operation is to be performed, the process advances to step S503.

ステップS503とS504では、この後実行する「主追跡枠位置の中心移動制御」で使用する判定フラグ「HANTEI-Flag」を0に初期化し、判定タイマー「HANTEI-Timer」を初期化する。この段階では、両方の初期化のみで、タイマー動作は開始しない。 In steps S503 and S504, the determination flag "HANTEI-Flag" used in "main tracking frame position center movement control" to be executed thereafter is initialized to 0, and the determination timer "HANTEI-Timer" is initialized. At this stage, only both are initialized and the timer operation does not start.

ステップS505では、CPU110は、「主追跡枠位置の中心移動制御」を実行する。 In step S505, the CPU 110 executes "main tracking frame position center movement control".

図12は、主追跡枠位置の中心移動制御を示すフローチャートである。 FIG. 12 is a flowchart showing center movement control of the main tracking frame position.

まず、ステップS601では、CPU110は、主追跡枠位置が図10(A)の中央領域Eの外部にあるか否かを判定する。外部にある場合はステップS602に進み、外部ではない場合はステップS611に進む。 First, in step S601, the CPU 110 determines whether the main tracking frame position is outside the central area E in FIG. 10(A). If it is outside, the process advances to step S602, and if it is not outside, the process advances to step S611.

ステップS602では、CPU110は、現在の焦点距離fが「100mm 以上」(所定値以上)であるか、続くステップS603で、被写体の距離dが「200×f以上」(被写体距離が焦点距離の所定の倍数以上)であるかを判定する。この二段階判定により、現在の連写中の撮影状況から「十分遠い被写体を撮影しているか否か」の判断を行っている。 In step S602, the CPU 110 determines whether the current focal length f is "100 mm or more" (a predetermined value or more), or in the subsequent step S603, the subject distance d is "200 x f or more" (the subject distance is a predetermined focal length). ). Through this two-step determination, it is determined whether or not a sufficiently distant subject is being photographed based on the current shooting situation during continuous shooting.

ステップS601~S603の三段階の判定がいずれも該当する場合、続くステップS604では、CPU110は、「主追跡枠動体判定」を行う。内容は後述するが、主追跡枠で補足している被写体が非動体であるか否かを判断する。 If all three stages of determination in steps S601 to S603 are applicable, in the subsequent step S604, the CPU 110 performs "main tracking frame moving object determination." Although the details will be described later, it is determined whether the subject captured by the main tracking frame is a non-moving object.

この結果を判定材料に、ステップS605で第四段階目の判定を実施し、全て該当する場合、続くステップS606で連写開始時に初期化した判定フラグ「HANTEI-Flag」を確認する。判定フラグ「HANTEI-Flag」が「0」の場合、即ち初期化直後なら、CPU110は、続くステップS607で判定フラグ「HANTEI-Flag」を「1」にし、同様に連写開始時に初期化した判定タイマー「HANTEI-Timer」で計時を開始する。 Using this result as a determination material, a fourth stage determination is performed in step S605, and if all the conditions are met, the determination flag "HANTEI-Flag" initialized at the start of continuous shooting is checked in the subsequent step S606. If the determination flag "HANTEI-Flag" is "0", that is, immediately after initialization, the CPU 110 sets the determination flag "HANTEI-Flag" to "1" in the subsequent step S607, and similarly sets the initialized determination at the start of continuous shooting. Start timing with the timer "HANTEI-Timer".

一方、ステップS606で判定フラグ「HANTEI-Flag」が「1」の場合、判定タイマー「HANTEI-Timer」が計時中となっているので、ステップS609で、判定タイマーが「閾値:1秒」を経過しているかを判定する。「1秒」経過していた場合(所定の時間続いていた場合)、全ての条件が整ったとして、主追跡枠位置を図10(A)の中心領域Dに移動する。「1秒」経過していていない場合は、そのまま計時を続行する。 On the other hand, if the determination flag "HANTEI-Flag" is "1" in step S606, the determination timer "HANTEI-Timer" is measuring, so in step S609, the determination timer exceeds "threshold: 1 second". Determine whether If "1 second" has elapsed (if the predetermined time has continued), it is assumed that all conditions have been met, and the main tracking frame position is moved to the center area D in FIG. 10(A). If "1 second" has not elapsed, timekeeping continues.

また、上記ステップS601~S605で実施した四段階の判定で、いずれかが非該当となった場合、主追跡枠位置を中心領域に移動する条件が揃っていない、あるいは揃わなくなったと判断する。そして、連写開始時同様に、ステップS611とS612で判定フラグ「HANTEI-Flag」と判定タイマー「HANTEI-Timer」を初期化する。 Furthermore, if any one of the four stages of determination performed in steps S601 to S605 is not applicable, it is determined that the conditions for moving the main tracking frame position to the center area are not met or are no longer met. Then, similarly to the start of continuous shooting, the determination flag "HANTEI-Flag" and the determination timer "HANTEI-Timer" are initialized in steps S611 and S612.

図13は、図12のステップS604で実施した「主追跡枠動体判定」を示すフローチャートである。 FIG. 13 is a flowchart showing the "main tracking frame moving object determination" performed in step S604 of FIG.

まずステップS701では、CPU110は、被写体の追尾結果から撮影画面内の主追跡枠位置での移動の有無を確認する。撮影画面内での移動が認められなかった場合、続くステップS702では、CPU110は、主追跡枠位置での焦点検出結果の継続安定性を確認する。この二段階の確認がいずれも該当した場合のみ、主追跡枠で捉えている被写体が非動体であると判断する。 First, in step S701, the CPU 110 checks from the tracking results of the subject whether there is movement at the main tracking frame position within the photographic screen. If movement within the photographic screen is not recognized, in the subsequent step S702, the CPU 110 checks the continued stability of the focus detection result at the main tracking frame position. Only when both of these two steps of confirmation are met, it is determined that the subject captured by the main tracking frame is a non-moving object.

以上が、図10(A)で示した様に、撮影画面全体CをD,E,Fの中心、中央および周辺の3領域に分割した場合での、主追跡枠位置を中心領域に移動するか否かの動作の説明である。 The above describes how to move the main tracking frame position to the center area when the entire shooting screen C is divided into three areas, center, center, and periphery of D, E, and F, as shown in FIG. 10(A). This is an explanation of the operation of whether or not.

なお、図9で示した連写中に焦点検出可能な範囲Bは撮像素子の性能、連写速度等で変わり、そもそも「撮影画面の中央と周辺」という概念にも様々な考え方がある。よって、図10(B)に示した様に、中央領域として扱う範囲を、図10(B)のGの様に図10(A)のEで示した範囲より拡げることも可能である。 Note that the range B in which focus can be detected during continuous shooting shown in FIG. 9 varies depending on the performance of the image sensor, the continuous shooting speed, etc., and there are various ways of thinking about the concept of "center and periphery of the shooting screen". Therefore, as shown in FIG. 10(B), it is also possible to expand the range treated as the central region, as shown in G in FIG. 10(B), from the range shown in E in FIG. 10(A).

次に、図10(C)に示した様に、図10(A)で示した中心領域Dと中央領域Eに対し、周辺領域を二段階にした場合での、主追跡枠位置を中心領域に移動する制御について説明する。図10(C)に示した様に、二段階の周辺領域をGとFとしている。 Next, as shown in FIG. 10(C), the main tracking frame position is set to the center area when the peripheral area is divided into two stages with respect to the central area D and the central area E shown in FIG. 10(A). The control to move to is explained. As shown in FIG. 10(C), the peripheral regions of the two stages are designated as G and F.

図14は、上記二段階の周辺領域を備えた場合の連写中での主追跡枠位置制御を示すフローチャートである。以下では、図12と同じステップについては同じステップ番号を付し、図12と異なる部分についてのみ説明する。 FIG. 14 is a flowchart showing main tracking frame position control during continuous shooting when the above-mentioned two-stage peripheral area is provided. In the following, steps that are the same as those in FIG. 12 are given the same step numbers, and only portions that are different from FIG. 12 will be described.

図12のステップS601では、単に主追跡枠位置が「中央領域外か」の判定のみを行っていたが、図14では、それに加えてより内側の「周辺領域1内か」の判定をステップS802で実施している。ここで周辺領域1は、図10(C)における周辺領域Gのことである。すなわち、図10(C)に示した様な二段階の周辺領域GとFのどちらに主追跡枠位置があるかを判定している。その結果により、判定タイマー「HANTEI-Timer」の時間の閾値N(図12では「1秒」のみ)を、ステップS803とS804で、二段階の周辺領域の内側(G)と外側(F)で「1秒」と「0.5秒」に切り替える。従って、図12のステップS609に該当する図14のステップS812では、「閾値:N秒」が経過しているかを判定する。 In step S601 of FIG. 12, only a determination is made as to whether the main tracking frame position is "outside the central area," but in FIG. It is being carried out in Here, the peripheral region 1 is the peripheral region G in FIG. 10(C). That is, it is determined in which of the two-stage peripheral regions G and F as shown in FIG. 10(C) the main tracking frame position is located. Based on the results, the time threshold N (only "1 second" in FIG. 12) of the judgment timer "HANTEI-Timer" is set at steps S803 and S804, inside (G) and outside (F) of the two-stage peripheral area. Switch between "1 second" and "0.5 second". Therefore, in step S812 of FIG. 14, which corresponds to step S609 of FIG. 12, it is determined whether "threshold value: N seconds" has elapsed.

ここでの二段階の閾値による判定では、より周辺領域にある場合は、より早めに主追跡枠位置を中心領域に移動するようにしている。前述した様に「撮影画面の中央と周辺」という概念にも様々な考え方があるので、例えば、より細かく周辺領域を設定し、画面内の位置に応じて細かく時間を切り替えるようにしてもよい。 In the two-step threshold determination here, if the main tracking frame position is in the peripheral area, the main tracking frame position is moved to the central area earlier. As mentioned above, there are various ways of thinking about the concept of "the center and the periphery of the shooting screen," so for example, the surrounding area may be set more precisely and the time may be changed more precisely depending on the position within the screen.

続いて、図12のステップS602、S603で行っている「十分遠い被写体を撮影しているか」の判定の他の例について説明する。 Next, another example of the determination of "whether a sufficiently distant subject is being photographed" performed in steps S602 and S603 in FIG. 12 will be described.

図15は図12に対し「十分遠いが、より近い場合は早めに主追跡枠位置を中心領域に移動する」とした連写中での主追跡枠位置制御のフローチャートである。ここでの説明も図12と異なる部分についてのみ説明する。 FIG. 15 is a flowchart of main tracking frame position control during continuous shooting in which, in contrast to FIG. 12, "the main tracking frame position is moved to the center area as soon as possible if it is sufficiently far away but closer." In the explanation here, only the parts different from those in FIG. 12 will be explained.

前述した様に、図12のステップS602とS603で行っている「十分遠い被写体を撮影しているか」という判断に対し、図15ではステップS904で「焦点距離f×距離d」で表される撮影距離に対する判定を追加している。具体的には、図12で行っている二段階の判定が「焦点距離が100mm以上か」、「撮影距離が200f以上か」であるのに対し、「撮影距離が40m以上か」を追加している。この結果により、判定タイマー「HANTEI-Timer」の時間の閾値N(図12では「1秒」のみ)を、図15のステップS905とS906で、二段階の「1秒」と「0.5秒」に切り替える。従って、図12のステップS609に該当する図15のステップS912では、「閾値:N秒」が経過しているかを判定する。 As mentioned above, in contrast to the determination made in steps S602 and S603 in FIG. 12 as to whether the object is sufficiently far away, in step S904 in FIG. Added distance judgment. Specifically, in contrast to the two-stage determination shown in Figure 12, which is ``Is the focal length 100 mm or more?'' and ``Is the shooting distance 200 f or more?'', ``Is the shooting distance 40m or more?'' is added. ing. Based on this result, the time threshold N (only "1 second" in FIG. 12) of the determination timer "HANTEI-Timer" is set in two stages, "1 second" and "0.5 seconds", in steps S905 and S906 of FIG. ”. Therefore, in step S912 of FIG. 15, which corresponds to step S609 of FIG. 12, it is determined whether "threshold value: N seconds" has elapsed.

これにより、実質「撮影距離が200fと40mの二段階の判定」となり、「200f以上でも40m未満」の場合は、より早め(0.5秒)に、「40m以上」の場合は図12と同じ時間(1秒)で主追跡枠位置を中心領域に移動するようにしている。つまり「十分遠いが、より近い場合は早めに主追跡枠位置を中心領域に移動する」ように制御される。 This effectively results in a two-step judgment for shooting distances of 200f and 40m, and if the shooting distance is 200f or more but less than 40m, it will be faster (0.5 seconds), and if it is 40m or more, it will be judged as shown in Figure 12. The main tracking frame position is moved to the center area in the same time (1 second). In other words, the control is performed such that ``the main tracking frame position is quickly moved to the center area if it is far enough away but closer.''

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also provides a system or device with a program that implements one or more functions of the above-described embodiments via a network or a storage medium, and one or more processors in a computer of the system or device reads the program. This can also be achieved by executing a process. It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

100:カメラ本体、101 メモリ回路、102:撮像素子制御回路、103:撮像素子、105:表示器、110 CPU、121:撮影レンズ駆動機構、122:レンズCPU、123:絞り駆動機構、125:絞り 100: Camera body, 101 Memory circuit, 102: Image sensor control circuit, 103: Image sensor, 105: Display, 110 CPU, 121: Photographic lens drive mechanism, 122: Lens CPU, 123: Aperture drive mechanism, 125: Aperture

Claims (16)

被写体像を撮像する撮像手段と、
前記撮像手段からの信号に基づいて被写体の検出を行う被写体検出手段と、
画面内の複数の焦点検出領域で焦点検出を行うことが可能な焦点検出手段と、
前記焦点検出手段の検出結果に基づいて撮影光学系の焦点を調節する焦点調節手段と、
前記被写体検出手段により被写体を検出できない場合に、前記焦点調節手段の調節により焦点が合っている被写体が遠方の被写体であることを示す所定の条件を満たす場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定する設定手段と、
を備えることを特徴とする撮像装置。
an imaging means for imaging a subject image;
a subject detection means for detecting a subject based on a signal from the imaging means;
a focus detection means capable of performing focus detection in a plurality of focus detection areas within a screen;
a focus adjustment means for adjusting the focus of the photographing optical system based on the detection result of the focus detection means;
When the object cannot be detected by the object detection means and a predetermined condition indicating that the object that is in focus by adjustment of the focus adjustment means is a distant object, the focus detection area used for focus detection is , setting means for setting a focus detection area near the center of the plurality of focus detection areas;
An imaging device comprising:
被写体が前記所定の条件を満たさない場合は、前記焦点検出手段は、前記焦点が合っている被写体に焦点を合わせ続けるように焦点検出を行うことを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, wherein when the subject does not satisfy the predetermined condition, the focus detection means performs focus detection so as to continue focusing on the in-focus subject. 前記所定の条件は、被写体の距離が前記撮影光学系の焦点距離の所定の倍数以上で、前記撮影光学系の焦点距離が所定値以上であるという条件であることを特徴とする請求項1または2に記載の撮像装置。 2. The predetermined condition is that the distance to the subject is a predetermined multiple or more of the focal length of the photographic optical system, and the focal length of the photographic optical system is a predetermined value or more. 2. The imaging device according to 2. 前記設定手段は、前記焦点検出手段により、画面内の中央に近い焦点検出領域において、前記焦点が合っている被写体よりも至近側のデフォーカスが検出された場合、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The setting means is configured to set a focus detection area to be used for focus detection when the focus detection means detects defocus on a side closer than the in-focus subject in a focus detection area near the center of the screen. 4. The imaging apparatus according to claim 1, wherein the focus detection area is set to a focus detection area close to the center of the plurality of focus detection areas. 前記焦点が合っている被写体が動体であるか否かを判定する判定手段をさらに備え、前記設定手段は、前記判定手段により前記焦点が合っている被写体が動体ではないと判定された場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 The setting means further includes determining means for determining whether or not the in-focus subject is a moving object, and the setting means is configured to: when the determining means determines that the in-focus subject is not a moving object; The imaging device according to any one of claims 1 to 4, wherein a focus detection area used for focus detection is set to a focus detection area near the center of the plurality of focus detection areas. 前記設定手段は、前記中央に近い焦点検出領域の像面位置の履歴を保持し、該像面位置の履歴が、被写体が至近方向に単調に移動していることを示している場合には、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 The setting means holds a history of the image plane position of the focus detection area near the center, and if the history of the image plane position indicates that the subject is moving monotonically in the close direction, The imaging device according to any one of claims 1 to 5, wherein a focus detection area used for focus detection is set to a focus detection area near the center of the plurality of focus detection areas. 前記設定手段は、前記撮像装置の動きが大きいことが検出された場合には、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定しないことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The setting means is configured not to set a focus detection area used for focus detection to a focus detection area close to the center of the plurality of focus detection areas when it is detected that a large movement of the imaging device is detected. The imaging device according to any one of claims 1 to 6. 前記撮像装置の動きを検出するジャイロセンサーをさらに備えることを特徴とする請求項7に記載の撮像装置。 The imaging device according to claim 7, further comprising a gyro sensor that detects movement of the imaging device. 前記判定手段により、前記焦点が合っている被写体が画面の中央の領域外にあり、前記判定手段により、被写体が動体ではないという判定が所定の時間続いた場合、前記設定手段は、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定することを特徴とする請求項5に記載の撮像装置。 If the determining means determines that the in-focus subject is outside the central area of the screen and the determining means continues to determine that the subject is not a moving object for a predetermined period of time, the setting means determines whether the subject is in focus or not. 6. The imaging device according to claim 5, wherein the focus detection area to be used is set to a focus detection area close to the center of the plurality of focus detection areas. 前記設定手段は、連写中の場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定することを特徴とする請求項9に記載の撮像装置。 10. The setting means sets the focus detection area used for focus detection to a focus detection area close to the center of the plurality of focus detection areas during continuous shooting. Imaging device. 前記設定手段は、中央に近い焦点検出領域において至近側のデフォーカス量を検出した場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定することを特徴とする請求項9に記載の撮像装置。 The setting means sets a focus detection area used for focus detection to a focus detection area close to the center of the plurality of focus detection areas when a close-up defocus amount is detected in a focus detection area near the center. The imaging device according to claim 9, characterized in that: 前記所定の時間は、前記焦点が合っている被写体を検出している焦点検出枠の画面内での位置に応じて設定されることを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。 12. The predetermined time period is set according to a position within the screen of a focus detection frame that detects the in-focus subject. imaging device. 前記所定の時間は、前記撮影光学系の焦点距離、及び被写体距離に応じて設定されることを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 9 to 11, wherein the predetermined time is set according to a focal length of the photographing optical system and a subject distance. 被写体像を撮像する撮像手段と、前記撮像手段からの信号に基づいて被写体の検出を行う被写体検出手段と、画面内の複数の焦点検出領域で焦点検出を行うことが可能な焦点検出手段と、前記焦点検出手段の検出結果に基づいて撮影光学系の焦点を調節する焦点調節手段と、を備える撮像装置を制御する方法であって、
前記被写体検出手段により被写体を検出できない場合に、前記焦点調節手段の調節により焦点が合っている被写体が遠方の被写体であることを示す所定の条件を満たす場合に、焦点検出に用いる焦点検出領域を、前記複数の焦点検出領域のうちの中央に近い焦点検出領域に設定する設定工程を有することを特徴とする撮像装置の制御方法。
an imaging device that captures an image of a subject; a subject detection device that detects a subject based on a signal from the imaging device; and a focus detection device that can perform focus detection in a plurality of focus detection areas within a screen; A method for controlling an imaging device, comprising: a focus adjustment means for adjusting a focus of a photographing optical system based on a detection result of the focus detection means,
When the object cannot be detected by the object detection means and a predetermined condition indicating that the object that is in focus by adjustment of the focus adjustment means is a distant object, the focus detection area used for focus detection is . A method of controlling an imaging device, comprising the step of setting a focus detection area close to the center of the plurality of focus detection areas.
請求項14に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 14. 請求項14に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to execute each step of the control method according to claim 14.
JP2019194730A 2019-10-25 2019-10-25 Imaging device, its control method, program, storage medium Active JP7377063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019194730A JP7377063B2 (en) 2019-10-25 2019-10-25 Imaging device, its control method, program, storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194730A JP7377063B2 (en) 2019-10-25 2019-10-25 Imaging device, its control method, program, storage medium

Publications (2)

Publication Number Publication Date
JP2021067889A JP2021067889A (en) 2021-04-30
JP7377063B2 true JP7377063B2 (en) 2023-11-09

Family

ID=75637323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194730A Active JP7377063B2 (en) 2019-10-25 2019-10-25 Imaging device, its control method, program, storage medium

Country Status (1)

Country Link
JP (1) JP7377063B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194578A (en) 1999-11-02 2001-07-19 Olympus Optical Co Ltd Multipoint automatic focusing camera
JP2002228920A (en) 2001-01-30 2002-08-14 Minolta Co Ltd Main subject detector and automatic focusing camera
JP2011141374A (en) 2010-01-06 2011-07-21 Renesas Electronics Corp Autofocus control method
WO2012077435A1 (en) 2010-12-09 2012-06-14 富士フイルム株式会社 Image capture device and primary photographic subject recognition method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194578A (en) 1999-11-02 2001-07-19 Olympus Optical Co Ltd Multipoint automatic focusing camera
JP2002228920A (en) 2001-01-30 2002-08-14 Minolta Co Ltd Main subject detector and automatic focusing camera
JP2011141374A (en) 2010-01-06 2011-07-21 Renesas Electronics Corp Autofocus control method
WO2012077435A1 (en) 2010-12-09 2012-06-14 富士フイルム株式会社 Image capture device and primary photographic subject recognition method

Also Published As

Publication number Publication date
JP2021067889A (en) 2021-04-30

Similar Documents

Publication Publication Date Title
EP1684503B1 (en) Camera and autofocus control method therefor
JP4963569B2 (en) Imaging system and lens unit
JP5961929B2 (en) camera
JP3823921B2 (en) Imaging device
JP2007310009A (en) Digital camera and camera system
JP4764774B2 (en) Camera with focus adjustment device
JP2002365519A (en) Device for detecting state of focusing
JP2006091915A (en) Imaging apparatus
JP2017227725A (en) Focus detection device, control method and program, as well as imaging device
JP4500140B2 (en) Camera equipped with a twin-lens imaging system
JP6561437B2 (en) Focus adjustment device and imaging device
JP7377063B2 (en) Imaging device, its control method, program, storage medium
JP5858683B2 (en) Focus detection apparatus and imaging apparatus
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2016051016A (en) Imaging apparatus
JP6188536B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6624789B2 (en) Focus control device, control method thereof, control program, and imaging device
JP2014142497A (en) Imaging apparatus and method for controlling the same
JP2016071275A (en) Image-capturing device and focus control program
JP2014206601A (en) Imaging apparatus and focus adjustment method
JP2011176457A (en) Electronic camera
JP5982749B2 (en) Focus adjustment device and imaging device
JP6493594B2 (en) Imaging device
JP6642531B2 (en) Imaging device
JP6467768B2 (en) Imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231027

R151 Written notification of patent or utility model registration

Ref document number: 7377063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151