JP2023077931A - Imaging apparatus, and control method, program and storage medium thereof - Google Patents

Imaging apparatus, and control method, program and storage medium thereof Download PDF

Info

Publication number
JP2023077931A
JP2023077931A JP2021191440A JP2021191440A JP2023077931A JP 2023077931 A JP2023077931 A JP 2023077931A JP 2021191440 A JP2021191440 A JP 2021191440A JP 2021191440 A JP2021191440 A JP 2021191440A JP 2023077931 A JP2023077931 A JP 2023077931A
Authority
JP
Japan
Prior art keywords
point
focus
reference point
depth
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021191440A
Other languages
Japanese (ja)
Inventor
広明 栗栖
Hiroaki Kurisu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021191440A priority Critical patent/JP2023077931A/en
Publication of JP2023077931A publication Critical patent/JP2023077931A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus that can focus on an object matching intention of a user in AF control in imaging a moving image.SOLUTION: An imaging apparatus comprises: a viewpoint determination section that determines a viewpoint in a subject field; a focus detection section that acquires a pair of focus detection signals from a subject image passing through different pupil areas of an imaging optical system, and detects a defocus amount of a subject on the basis of the pair of focus detection signals; and a control section that controls a position of a focus lens for the viewpoint to be a position of a proximate end within a subject field depth or its neighborhood on the basis of the defocus amount of the viewpoint acquired by the focus detection section.SELECTED DRAWING: Figure 10

Description

本発明は、撮像装置における焦点調節技術に関する。 The present invention relates to focus adjustment technology in an imaging device.

撮像装置におけるAF(オートフォーカス)制御は、一般的に、ピントを合わせる対象を選択し、その対象に対して検出したデフォーカス量に基づいてフォーカスレンズを駆動することにより行われる。 AF (autofocus) control in an imaging device is generally performed by selecting an object to be focused and driving a focus lens based on the defocus amount detected for the object.

ピントを合わせる対象の選択方法には、代表的な方法として、顔優先AFと至近優先AFがある。顔優先AFは、テンプレートマッチング等の手法を用いて検出された顔のデフォーカス量を用いてフォーカスレンズを駆動する手法である。一方、至近優先AFは、画面内に複数の焦点検出枠を設定し、最至近の被写体に対応する焦点検出枠のデフォーカス量を用いてフォーカスレンズを駆動する手法である。 Face priority AF and close distance priority AF are typical methods of selecting an object to be focused. Face priority AF is a method of driving a focus lens using a defocus amount of a face detected using a method such as template matching. On the other hand, the closest object priority AF is a method of setting a plurality of focus detection frames within a screen and driving the focus lens using the defocus amount of the focus detection frames corresponding to the closest subject.

ところで、近年、動画で自らを撮影しながら商品を紹介して動画配信を行うユーザーが増えている。この商品紹介では、図6(a)、6(b)、6(c)に示すように、シーンを以下の3つのシーンに大きく分けることができる。
(a)紹介者のみを撮影するシーン
(b)商品を前に掲げて商品を紹介するシーン
(c)商品を使用するシーン
上記それぞれのシーンに対して、ピントを合わせたい被写体は異なり、一般的には(a)では紹介者、(b)では紹介する商品、(c)では紹介者にピントを合わせることが求められていると考えられる。また、常に撮影絞りを絞って被写界深度を広げることで全ての被写体にピントを合わせ続けることも可能であるが、商品紹介動画では被写界深度を狭くして紹介する商品を強調することが必要な場合もある。
By the way, in recent years, there are an increasing number of users who take videos of themselves while introducing products and distributing videos. In this product introduction, scenes can be roughly divided into the following three scenes as shown in FIGS.
(a) A scene in which only the introducer is photographed (b) A scene in which the product is displayed in front of the product (c) A scene in which the product is used For each of the above scenes, the subject to be focused on differs, and is common. In (a), it is considered that the focus should be on the introducer, (b) on the product to be introduced, and (c) on the introducer. It is also possible to keep all subjects in focus by always narrowing down the shooting aperture and widening the depth of field. may be required.

特開2014-235224号公報JP 2014-235224 A

しかしながら、前述した従来のピントを合わせる対象の選択方法では、商品紹介動画の各シーンにおいて、ピントを合わせたい被写体にピントを合わせられない場合がある。顔優先AFでAF制御を実施する場合、上記の(b)の場合に商品にピントを合わせることができない。また至近優先AFでは、上記の(c)の場合に紹介者にピントを合わせることができない。 However, with the above-described conventional method of selecting a target to be focused on, there are cases where it is not possible to focus on a subject desired to be focused on in each scene of the product introduction video. When performing AF control with face-priority AF, the product cannot be brought into focus in the above case (b). Further, in the case of (c) above, in the close distance priority AF, the introducer cannot be brought into focus.

これらの問題に対して、特許文献1には、検出した複数の被写体が最大数被写界深度に入る位置に焦点を合わせる技術が開示されている。しかし、特許文献1に開示されている技術では、被写体を選ばず多くの被写体にピントを合わせることを目的としているため、主要となる被写体にピントが合うことを保証できない。 To address these problems, Japanese Patent Laid-Open No. 2002-200001 discloses a technique for focusing on a position where the maximum number of detected subjects is within the depth of field. However, the technique disclosed in Japanese Patent Laid-Open No. 2002-200010 aims at focusing on many subjects regardless of the subject, so it cannot guarantee that the main subject will be in focus.

本発明は上述した課題に鑑みてなされたものであり、その目的は、動画撮影におけるAF制御において、ユーザーの意図に合った対象にピントを合わせることができる撮像装置を提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and its object is to provide an imaging apparatus capable of focusing on an object that matches the user's intention in AF control in moving image shooting.

本発明に係わる撮像装置は、被写界における着目点を決定する着目点決定手段と、撮像光学系の異なる瞳領域を通過した被写体像から一対の焦点検出用信号を取得し、該一対の焦点検出用信号に基づいて、被写体のデフォーカス量を検出する焦点検出手段と、前記焦点検出手段によって得られた前記着目点のデフォーカス量に基づいて、前記着目点が被写界深度内の至近端あるいはその近傍の位置となるように、フォーカスレンズの位置を制御する制御手段と、を備えることを特徴とする。 An image pickup apparatus according to the present invention includes point-of-interest determination means for determining a point of interest in an object field, and a pair of focus detection signals obtained from an object image that has passed through different pupil regions of an imaging optical system. focus detection means for detecting the defocus amount of the object based on the detection signal; and a control means for controlling the position of the focus lens so that it is at or near the near end.

本発明によれば、動画撮影におけるAF制御において、ユーザーの意図に合った対象にピントを合わせることが可能となる。 According to the present invention, it is possible to focus on an object that matches the user's intention in AF control in moving image shooting.

本発明の第1の実施形態に係わる撮像装置の構成を示すブロック図。1 is a block diagram showing the configuration of an imaging device according to a first embodiment of the present invention; FIG. 撮像素子内の画素の配置を示す図。FIG. 4 is a diagram showing the arrangement of pixels in an image sensor; 撮影処理を示すフローチャート。4 is a flowchart showing imaging processing; 動画撮影処理を示すフローチャート。4 is a flowchart showing video shooting processing; 焦点検出処理を示すフローチャート。4 is a flowchart showing focus detection processing; 商品紹介動画のシーン分類を示す図。The figure which shows the scene classification of a product introduction video. 顔優先AFの処理を示すフローチャート。4 is a flowchart showing processing of face-priority AF. 商品紹介時に従来のAFを実施した場合の被写界深度を示す図。FIG. 10 is a diagram showing the depth of field when conventional AF is performed at the time of product introduction; 至近優先AFの処理を示すフローチャート。4 is a flowchart showing processing of close distance priority AF. 第1の実施形態における顔深度内AFの処理を示すフローチャート。4 is a flowchart showing intra-face-depth AF processing according to the first embodiment; 基準点決定処理を示すフローチャート。4 is a flowchart showing reference point determination processing; 基準点の決定処理時のエラーケースを示す図。FIG. 10 is a diagram showing an error case during reference point determination processing; 着目点決定処理を示すフローチャート。4 is a flowchart showing focus point determination processing. 第1の実施形態における商品紹介時に顔深度内AFを実施した場合の被写界深度を示す図。FIG. 7 is a diagram showing the depth of field when intra-face-depth AF is performed at the time of product introduction according to the first embodiment; 第2の実施形態における顔深度内AFの処理を示すフローチャート。9 is a flowchart showing intra-face-depth AF processing according to the second embodiment; 第2の実施形態における商品紹介時に顔深度内AFを実施した場合の被写界深度を示す図。FIG. 11 is a diagram showing the depth of field when intra-face-depth AF is performed at the time of product introduction in the second embodiment; 第3の実施形態における顔深度内AFの処理を示すフローチャート。11 is a flowchart showing intra-face-depth AF processing according to the third embodiment; 第3の実施形態における商品紹介時に顔深度内AFを実施した場合の被写界深度を示す図。FIG. 11 is a diagram showing the depth of field when intra-face-depth AF is performed at the time of product introduction according to the third embodiment;

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

(第1の実施形態)
図1は、本発明の第1の実施形態に係わる撮像装置100の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of an imaging device 100 according to the first embodiment of the invention.

本実施形態の撮像装置100は、レンズユニット101とカメラ本体102とを備えて構成されている。レンズユニット101の全体の動作を統括制御するレンズ制御部117と、レンズユニット101を含めた撮像装置100全体の動作を統括するカメラ制御部141とは、レンズマウントに設けられた端子を通じて相互に通信可能である。 An imaging apparatus 100 of this embodiment is configured to include a lens unit 101 and a camera body 102 . A lens control unit 117 that controls the overall operation of the lens unit 101 and a camera control unit 141 that controls the overall operation of the imaging apparatus 100 including the lens unit 101 communicate with each other through terminals provided on the lens mount. It is possible.

まず、レンズユニット101の構成について説明する。撮影レンズ(撮像光学系)111は、固定レンズ112、絞り113、フォーカスレンズ114を備えて構成される。絞り制御部115は、絞り113を駆動することにより、絞り113の開口径を調整して撮影時の光量調節を行う。フォーカス制御部116は、撮影レンズ111のピントのずれ量に基づいてフォーカスレンズ114を駆動する駆動量を決定する。フォーカスレンズ114を駆動することにより、焦点を調節する。フォーカス制御部116によるフォーカスレンズ114の移動制御により、AF制御が実現される。フォーカスレンズ114は、焦点調節用レンズであり、図1には単レンズで簡略的に示されているが、通常複数のレンズで構成される。絞り駆動部115、フォーカス制御部116は、レンズ制御部117によって制御される。 First, the configuration of the lens unit 101 will be described. A photographing lens (imaging optical system) 111 includes a fixed lens 112 , a diaphragm 113 , and a focus lens 114 . A diaphragm control unit 115 drives the diaphragm 113 to adjust the aperture diameter of the diaphragm 113 and adjust the amount of light during photographing. The focus control unit 116 determines the drive amount for driving the focus lens 114 based on the amount of focus shift of the photographing lens 111 . The focus is adjusted by driving the focus lens 114 . AF control is realized by movement control of the focus lens 114 by the focus control unit 116 . The focus lens 114 is a lens for focus adjustment, and although it is simply shown as a single lens in FIG. 1, it is usually composed of a plurality of lenses. A diaphragm drive unit 115 and a focus control unit 116 are controlled by a lens control unit 117 .

撮影レンズ111の光学部材を介して入射した光束は撮像素子121の受光面上に結像され、撮像素子121により電気信号に変換される。撮像素子121は、被写体像(光学像)を信号電荷に変換する多数の光電変換素子を有するCCDやCMOSセンサにより構成される。各光電変換素子に蓄積された信号電荷は、タイミングジェネレータ122が出力する駆動パルスにより、信号電荷に応じた電圧信号として撮像素子121から順次読み出される。 A light flux incident through the optical member of the photographing lens 111 forms an image on the light receiving surface of the imaging element 121 and is converted into an electric signal by the imaging element 121 . The imaging device 121 is composed of a CCD or CMOS sensor having a large number of photoelectric conversion elements for converting a subject image (optical image) into signal charges. The signal charge accumulated in each photoelectric conversion element is sequentially read out from the imaging device 121 as a voltage signal corresponding to the signal charge by a driving pulse output from the timing generator 122 .

CDS/AGC/ADコンバータ123は、撮像素子121から読み出された撮像信号及び焦点検出用信号に対し、リセットノイズを除去するための相関二重サンプリング、センサゲインの調節、信号のデジタル化を行う。CDS/AGC/ADコンバータ123は、撮像信号を撮像信号処理部124に、撮像面位相差方式の焦点検出用の信号を焦点検出用信号処理部125にそれぞれ出力する。なお、本実施形態では、撮像面位相差方式の焦点検出を用いたシステムについて説明するが、焦点検出の方式はこれに限定されず、位相差方式であれば、どの方式を用いてもよい。 The CDS/AGC/AD converter 123 performs correlated double sampling for removing reset noise, adjusts the sensor gain, and digitizes the signals on the imaging signal and the focus detection signal read out from the imaging element 121. . The CDS/AGC/AD converter 123 outputs the imaging signal to the imaging signal processing unit 124 and the signal for focus detection of the imaging plane phase difference method to the focus detection signal processing unit 125 . In this embodiment, a system using the imaging plane phase difference method for focus detection will be described, but the focus detection method is not limited to this, and any method may be used as long as it is a phase difference method.

焦点検出用信号処理部125は、撮像画面内で焦点検出を行う焦点検出領域の設定や配置を行う。そして、焦点検出用信号処理部125は、CDS/AGC/ADコンバータ123から出力された焦点検出用の2つの像信号に対して相関演算を行い、像ずれ量、信頼性情報(二像一致度、二像急峻度)を算出する。 The focus detection signal processing unit 125 sets and arranges a focus detection area for focus detection within the imaging screen. Then, the focus detection signal processing unit 125 performs a correlation operation on the two image signals for focus detection output from the CDS/AGC/AD converter 123, and calculates the amount of image shift and reliability information (degree of coincidence of two images). , two-image steepness).

撮像信号処理部124は、CDS/AGC/ADコンバータ123から出力された撮像信号を、バス131を介してSDRAM136に格納する。SDRAM136に格納された画像信号は、バス131を介して表示制御部132によって読み出され、表示部133に表示される。また、撮像信号の記録を行う動作モードでは、SDRAM136に格納された画像信号は記録媒体制御部134によって記録媒体135に記録される。 The imaging signal processing unit 124 stores the imaging signal output from the CDS/AGC/AD converter 123 in the SDRAM 136 via the bus 131 . The image signal stored in the SDRAM 136 is read by the display control section 132 via the bus 131 and displayed on the display section 133 . Also, in the operation mode for recording the imaging signal, the image signal stored in the SDRAM 136 is recorded in the recording medium 135 by the recording medium control section 134 .

ROM137には、カメラ制御部141が実行する制御プログラム及び制御に必要な各種データ等が格納されており、フラッシュROM138には、ユーザ設定情報等のカメラ本体102の動作に関する各種設定情報等が格納されている。 The ROM 137 stores control programs executed by the camera control unit 141 and various data necessary for control. ing.

スイッチSW1(139)は、AF(オートフォーカス)やAE(自動露出調節)等の撮影スタンバイ動作を行うためのスイッチであり、スイッチSW2(140)は、スイッチSW1(139)の操作後、撮影を行うためのスイッチである。 The switch SW1 (139) is a switch for performing shooting standby operations such as AF (autofocus) and AE (automatic exposure control). It is a switch to do.

カメラ制御部141では、焦点検出用信号処理部125から出力されるデフォーカス量とデフォーカス量の信頼性とに基づいて、レンズ駆動量を決定する。レンズ駆動量はレンズ制御部117に伝達され、フォーカス制御部116に伝達れることで、AFを実現している。また、操作者からの指示、あるいは、一時的にSDRAM136に蓄積された画像データの画素信号の大きさに基づき、撮像素子121の蓄積時間、CDS/AGC/ADコンバータ123のゲインの設定値、タイミングジェネレータ122の設定値を決定する。 The camera control unit 141 determines the lens drive amount based on the defocus amount output from the focus detection signal processing unit 125 and the reliability of the defocus amount. The lens driving amount is transmitted to the lens control unit 117 and transmitted to the focus control unit 116, thereby realizing AF. In addition, based on an instruction from the operator or the magnitude of the pixel signal of the image data temporarily stored in the SDRAM 136, the storage time of the image sensor 121, the gain setting value of the CDS/AGC/AD converter 123, and the timing are changed. Determine the settings for the generator 122 .

次に、撮像素子121の構成について、図2を参照しながら説明する。撮像素子121の画素アレイを図2に示す。 Next, the configuration of the imaging device 121 will be described with reference to FIG. A pixel array of the imaging device 121 is shown in FIG.

図2において、画素アレイ200は、単位画素201が行列状に配置されて構成されている。各単位画素201には、マイクロレンズ202が配置されている。フォトダイオード(以下、PD)203a,203bは光電変換素子であり、これら2つのPDによって単一マイクロレンズ202下に配置される単位画素201が構成される。この構成をとることによってPD203a,203bは瞳分割機能を有することになり、撮像光学系の異なる瞳領域を通過した、同一被写体の位相差を持った別々の像を取得することができる。この同一被写体の位相差を持った別々の2像をA像、B像と呼ぶことにし、PD203aはA像用光電変換部、PD203bはB像用光電変換部を構成するものとする。 In FIG. 2, a pixel array 200 is configured by arranging unit pixels 201 in a matrix. A microlens 202 is arranged in each unit pixel 201 . Photodiodes (PDs) 203 a and 203 b are photoelectric conversion elements, and these two PDs form a unit pixel 201 arranged under a single microlens 202 . By adopting this configuration, the PDs 203a and 203b have a pupil division function, and can acquire separate images of the same object having different phases, which have passed through different pupil regions of the imaging optical system. These two separate images of the same object having a phase difference are called an A image and a B image, and the PD 203a constitutes the A image photoelectric conversion unit, and the PD 203b constitutes the B image photoelectric conversion unit.

次に、カメラ本体102で行われる処理について説明する。カメラ制御部141は、ROM137に記憶されたコンピュータプログラムである撮像処理プログラムに従って以下の処理を行う。 Next, processing performed by the camera body 102 will be described. The camera control unit 141 performs the following processes according to an imaging processing program, which is a computer program stored in the ROM 137 .

図3は、カメラ本体102の撮影処理の手順を示すフローチャートである。Sはステップを意味する。 FIG. 3 is a flowchart showing the procedure of photographing processing of the camera body 102. As shown in FIG. S means step.

S301では、カメラ制御部141は、カメラ設定等の初期化処理を行い、S302へ処理を進める。 In S301, the camera control unit 141 performs initialization processing such as camera settings, and advances the processing to S302.

S302では、カメラ制御部141は、カメラ本体101の撮影モードが動画撮影モードか静止画撮影モードかを判定し、動画撮影モードである場合はS303へ、静止画撮影モードである場合はS304へ処理を進める。 In S302, the camera control unit 141 determines whether the shooting mode of the camera body 101 is the moving image shooting mode or the still image shooting mode. proceed.

S303では、カメラ制御部141は、動画撮影処理を行いS305へ処理を進める。S304では、カメラ制御部141は、静止画撮影処理を行いS305へ処理を進める。本実施形態では、静止画撮影処理についての詳細説明は省略する。S303の動画撮影処理については図4を参照して後述する。 In S303, the camera control unit 141 performs moving image shooting processing and advances the processing to S305. In S304, the camera control unit 141 performs still image shooting processing and advances the processing to S305. In this embodiment, a detailed description of the still image shooting process will be omitted. The moving image shooting process of S303 will be described later with reference to FIG.

S305では、カメラ制御部141は、撮影処理が停止されたか否かを判断し、停止されていない場合はS306へ処理を進め、停止された場合は撮影処理を終了する。撮影処理が停止されたときとは、カメラ本体102の電源が切断されたときや、カメラのユーザー設定処理、撮影画像・動画の確認のための再生処理等、撮影以外の動作が行われたときである。 In S305, the camera control unit 141 determines whether or not the shooting process has been stopped. If not stopped, the process proceeds to S306, and if stopped, the shooting process ends. When the shooting process is stopped means when the power of the camera body 102 is turned off, when an operation other than shooting is performed, such as camera user setting processing, playback processing for checking captured images/videos, etc. is.

S306では、カメラ制御部141は、撮影モードが変更されたか否かを判断する。変更された場合は、カメラ制御部141はS301に処理を戻し、初期化処理を行った上で変更された撮影モードでの撮像処理を行う。一方、撮影モードが変更されていない場合は、カメラ制御部141はS302に処理を戻し、現在の撮影モードでの処理を継続して行う。 In S306, the camera control unit 141 determines whether the shooting mode has been changed. If changed, the camera control unit 141 returns the process to S301, performs initialization processing, and then performs imaging processing in the changed shooting mode. On the other hand, if the shooting mode has not been changed, the camera control unit 141 returns the processing to S302 and continues the processing in the current shooting mode.

次に、図3のS303で行われる動画撮影処理について、図4のフローチャートを用いて説明する。 Next, the moving image shooting process performed in S303 of FIG. 3 will be described using the flowchart of FIG.

S401では、カメラ制御部141は、動画記録スイッチがオンされているか否かを判断し、オンされている場合はS402へ処理を進め、オンされていない場合はS405へ処理を進める。 In S401, the camera control unit 141 determines whether or not the moving image recording switch is turned on. If it is turned on, the process proceeds to S402, and if it is not turned on, the process proceeds to S405.

S402では、カメラ制御部141は、現在動画記録中か否かを判断し、動画記録中でない場合はS403で動画記録を開始してS405へ処理を進め、動画記録中である場合はS404で動画記録を停止してS405へ処理を進める。本実施形態においては動画記録スイッチを押下するごとに動画の記録開始と停止が行われるが、記録開始と停止とで異なるボタンを用いたり、切り替えスイッチ等を用いたりといった他の方式によって記録開始と停止を行っても構わない。 In S402, the camera control unit 141 determines whether or not moving image recording is currently being performed. Recording is stopped and the process proceeds to S405. In the present embodiment, moving image recording is started and stopped each time the moving image recording switch is pressed. It is okay to stop.

S405では、カメラ制御部141は、焦点検出処理を行い、S406へ処理を進める。焦点検出処理は、カメラ制御部141及び焦点検出用信号処理部125により行われる、撮像面位相差AFによるデフォーカス情報及び信頼性情報を取得する処理であり、詳細は図5のフローチャートを用いて後述する。 In S405, the camera control unit 141 performs focus detection processing, and advances the processing to S406. The focus detection process is performed by the camera control unit 141 and the focus detection signal processing unit 125 to acquire defocus information and reliability information by imaging plane phase difference AF. will be described later.

S406では、カメラ制御部141は、動画の記録モードがレビューモードか否かを判定し、レビューモードが設定されている場合はS408へ、レビューモードが設定されていない場合はS407へ処理を進める。ここで、レビューモードとは、動画配信等で商品を紹介する動画記録に特化したモードであり、本実施形態では、レビューモードの入切を切り替えることで後述する焦点検出処理手法を切り替えている。 In S406, the camera control unit 141 determines whether or not the moving image recording mode is the review mode. If the review mode is set, the process proceeds to S408. Here, the review mode is a mode specialized for video recording in which products are introduced through video distribution, etc. In this embodiment, by switching on/off the review mode, the focus detection processing method, which will be described later, is switched. .

S407では、カメラ制御部141は、S405の焦点検出処理の結果を受けて顔優先AFを実施する。顔優先AFの詳細は図7のフローチャートを参照して説明する。 In S407, the camera control unit 141 receives the result of the focus detection processing in S405 and performs face priority AF. The details of the face priority AF will be described with reference to the flowchart of FIG.

S408では、カメラ制御部141は、S405の焦点検出処理の結果を受けて、本実施形態の特徴的な処理である顔深度内AF処理を実施する。顔深度内AFは、レビューモード専用のAF処理であり、詳細は図10のフローチャートを参照して説明する。カメラ制御部141は、S407、S408の処理を終えると動画撮影処理を終了する。 In S408, the camera control unit 141 receives the result of the focus detection processing in S405 and performs intra-face-depth AF processing, which is a characteristic processing of the present embodiment. The intra-face-depth AF is AF processing exclusively for the review mode, and the details will be described with reference to the flowchart of FIG. 10 . The camera control unit 141 ends the moving image shooting process after completing the processes of S407 and S408.

次に、図4のS405の焦点検出処理について図5を用いて説明する。 Next, the focus detection processing of S405 in FIG. 4 will be described with reference to FIG.

まず、S501では、カメラ制御部141は、撮像素子121内の任意の範囲の焦点検出領域を複数設定してS502へ処理を進める。 First, in S501, the camera control unit 141 sets a plurality of focus detection areas within an arbitrary range within the image sensor 121, and advances the process to S502.

S502では、カメラ制御部141は、S501で設定した焦点検出領域に対して撮像素子121から焦点検出用の一対の像信号(A像、B像)を取得してS503へ処理を進める。 In S502, the camera control unit 141 acquires a pair of image signals (images A and B) for focus detection from the image sensor 121 for the focus detection area set in S501, and advances the process to S503.

S503では、カメラ制御部141は、S502で取得した一対の像信号に対して、垂直方向に行加算平均処理を行った後、S504へ処理を進める。S503での処理によって像信号へのノイズの影響を軽減することができる。 In S503, the camera control unit 141 performs row averaging processing in the vertical direction on the pair of image signals acquired in S502, and then advances the processing to S504. The processing in S503 can reduce the influence of noise on the image signal.

S504では、カメラ制御部141は、S503で垂直行加算平均した信号から所定の周波数帯域の信号成分を取り出すフィルタ処理を行った後、S505へ処理を進める。本実施形態では、信号の低域成分を抽出する低域フィルタと、高域成分を抽出する高域フィルタを用いるが、低域フィルタと高域フィルタの中間の周波数成分を抽出できる中域フィルタを加えるなど3種類以上のフィルタを用いてもよい。 In S504, the camera control unit 141 performs filter processing for extracting signal components in a predetermined frequency band from the vertical row averaged signal in S503, and then advances the processing to S505. In this embodiment, a low-pass filter that extracts low-pass components of a signal and a high-pass filter that extracts high-pass components are used. Three or more types of filters, such as addition, may be used.

S505では、カメラ制御部141は、S504でフィルタ処理した信号から相関量を算出してS506へ処理を進める。 In S505, the camera control unit 141 calculates the correlation amount from the signal filtered in S504, and advances the process to S506.

S506では、カメラ制御部141は、S505で算出した相関量から相関変化量を算出してS507へ処理を進める。 In S506, the camera control unit 141 calculates the correlation change amount from the correlation amount calculated in S505, and advances the process to S507.

S507では、カメラ制御部141は、S506で算出した相関変化量から像ずれ量を算出してS508へ処理を進める。 In S507, the camera control unit 141 calculates the image shift amount from the correlation change amount calculated in S506, and advances the process to S508.

S508では、カメラ制御部141は、像ずれ量に変換係数を乗算してデフォーカス量に変換し、S509へ処理を進める。この変換係数はズームレンズ位置、絞り値、撮像面の像高に応じてカメラで記憶している。 In S508, the camera control unit 141 multiplies the image shift amount by a conversion coefficient to convert it into a defocus amount, and advances the process to S509. This conversion coefficient is stored in the camera according to the zoom lens position, the aperture value, and the image height of the imaging plane.

S509では、カメラ制御部141は、S508で算出したデフォーカス量がどれだけ信頼できるのかを表す信頼性を判定して、S510に処理を進める。信頼性はS505やS506の処理の際に算出した評価値に基づいてデフォーカス量の標準偏差を推定し、その標準偏差に対して段階的な閾値を設定しておくことで判定する。ただし、信頼性判定の方法はこの方法に限定されず、他の手法を用いてもよい。 In S509, the camera control unit 141 determines the reliability indicating how reliable the defocus amount calculated in S508 is, and advances the process to S510. Reliability is determined by estimating the standard deviation of the defocus amount based on the evaluation values calculated in the processing of S505 and S506 and setting stepwise thresholds for the standard deviation. However, the reliability determination method is not limited to this method, and other methods may be used.

カメラ制御部141は、S509を終えるとS510に処理を進め、S501で設定した全ての焦点検出領域に対して処理を終えたか否かを判定する。カメラ制御部141は、全ての焦点検出領域に対して処理を終えていない場合は、S502に処理を戻し、次の焦点検出領域に対して処理を行う。カメラ制御部141は、S510で全ての焦点検出領域に対して処理を終えたと判定した場合は、焦点検出処理を終了する。 After completing S509, the camera control unit 141 advances the process to S510, and determines whether or not all the focus detection areas set in S501 have been processed. If the processing has not been completed for all focus detection areas, the camera control unit 141 returns the processing to S502 and performs the processing for the next focus detection area. If the camera control unit 141 determines in S510 that processing has been completed for all focus detection areas, it ends the focus detection processing.

次にS407、S408のAF処理について説明する。処理フローチャートを説明する前に、まずはレビューモードを使用するシーンについて図6を用いて説明する。 Next, the AF processing of S407 and S408 will be described. Before describing the processing flowchart, first, a scene in which the review mode is used will be described with reference to FIG.

背景技術でも説明した通り、図6(a)、6(b)、6(c)は、商品紹介をする動画における代表的なシーンを示しており、それぞれ下記を意味する。
(a)主となる人のみを撮影するシーン
(b)商品を前に掲げて商品を紹介するシーン
(c)商品を使用するシーン
本実施形態では、化粧品を紹介するシーンを例として説明する。符号601は商品を紹介する紹介者を示し、符号602は紹介する商品を示している。また、符号603は化粧品を示し、符号604は手鏡を示している。それぞれのシーンに対してピントを合わせたい対象は異なり、(a)では紹介者が話しているシーンなので、紹介者601にピントを合わせたいと考えられる。(b)では商品を強調したいので、商品602にピントを合わせたいと考えられる。(c)では化粧した時の変化の様子を強調したいので、紹介者601にピントを合わせたいと考えられる。
As described in Background Art, FIGS. 6(a), 6(b), and 6(c) show representative scenes in a product introduction video, and each means the following.
(a) A scene in which only the main person is photographed (b) A scene in which a product is displayed in front to introduce the product (c) A scene in which the product is used In this embodiment, a scene in which cosmetics are introduced will be described as an example. Reference numeral 601 indicates an introducer who introduces products, and reference numeral 602 indicates products to be introduced. Further, reference numeral 603 indicates cosmetics, and reference numeral 604 indicates a hand mirror. The object to be focused on differs for each scene. In (a), since the introducer is speaking, the introducer 601 is considered to be the focus. In (b), since the product is to be emphasized, the product 602 is considered to be in focus. In (c), it is desired to focus on the introducer 601 because it is desired to emphasize how the makeup changes.

次に、これらのシーンに対して、従来のAF処理(顔優先AF、至近優先AF)では、ピントを合わせたい対象にピントが合わせられない場合があることについて説明する。 Next, a description will be given of the fact that, with conventional AF processing (face-priority AF, closest-priority AF), there are cases where an object to be focused on is not brought into focus in these scenes.

まず、S407の顔優先AFの処理と、商品紹介動画において顔優先AFを用いたときの課題について、図7のフローチャートと図8を用いて説明する。なお、本実施形態では、S407の顔優先AFが実行されるのは、S406でレビューモードが選択されていない場合である。 First, the processing of face-priority AF in S407 and problems when face-priority AF is used in a product introduction video will be described with reference to the flowchart of FIG. 7 and FIG. Note that in the present embodiment, the face priority AF in S407 is executed when the review mode is not selected in S406.

S407において、顔優先AFが開始されると、カメラ制御部141は、S701に処理を進め、顔検出処理(被写体検出処理)を行う。顔検出処理では、撮像信号処理部124から出力される撮像信号に対してテンプレートマッチングの手法を適用し、撮像面上の顔の位置を検出する。 In S407, when face priority AF is started, the camera control unit 141 advances the process to S701 and performs face detection processing (subject detection processing). In the face detection process, a template matching method is applied to the imaging signal output from the imaging signal processing unit 124 to detect the position of the face on the imaging plane.

S702では、カメラ制御部141は、S701において顔が検出されたか否かを判定し、顔が検出された場合はS703に処理を進め、顔が検出されていない場合はS708に処理を進める。 In S702, the camera control unit 141 determines whether or not a face was detected in S701. If a face was detected, the process proceeds to S703, and if a face was not detected, the process proceeds to S708.

S703では、カメラ制御部141は、瞳検出処理を行う。瞳検出処理もS701と同様の手法で行われ、撮像面上の瞳の位置が検出される。なお、S701、S703の検出処理はテンプレートマッチングに限定されず、深層学習など別の手法で行ってもよい。 In S703, the camera control unit 141 performs pupil detection processing. Pupil detection processing is also performed by a method similar to that of S701, and the position of the pupil on the imaging plane is detected. Note that the detection processing of S701 and S703 is not limited to template matching, and may be performed by another method such as deep learning.

S704では、カメラ制御部141は、S703の瞳検出処理により瞳が検出されたか否かを判定し、瞳が検出された場合はS705に処理を進め、検出されなかった場合はS707に処理を進める。 In S704, the camera control unit 141 determines whether or not a pupil has been detected by the pupil detection processing in S703. .

S705では、カメラ制御部141は、S501で設定した焦点検出領域の中から、検出された瞳位置に近い領域のデフォーカス量が示すレンズ位置をフォーカスレンズ位置の目標位置に決定する。 In S705, the camera control unit 141 determines the lens position indicated by the defocus amount of the area close to the detected pupil position among the focus detection areas set in S501 as the target position of the focus lens position.

S706では、カメラ制御部141は、目標位置にフォーカスレンズを駆動して、顔優先AFの処理を終了する。 In S706, the camera control unit 141 drives the focus lens to the target position, and ends the face-priority AF processing.

一方、S707では、カメラ制御部141は、S501で設定した焦点検出領域の中で顔検出範囲内の領域のデフォーカス量が示すレンズ位置をフォーカスレンズの目標位置として設定する。そして、S706で目標位置にフォーカスレンズを駆動する。 On the other hand, in S707, the camera control unit 141 sets the lens position indicated by the defocus amount of the area within the face detection range in the focus detection area set in S501 as the target position of the focus lens. Then, in S706, the focus lens is driven to the target position.

S708では、カメラ制御部141は、S501で設定した複数の焦点検出領域の中で最至近の被写体に対応する領域のデフォーカス量が示すレンズ位置をフォーカスレンズの目標位置として設定する。そして、S706で目標位置にフォーカスレンズを駆動する。ここで、S708で最至近の被写体に対応する焦点検出領域を選ぶ際に、中央像高に近い領域を優先したり、中央に近い領域に限定したりしてもよい。また、顔や瞳が検出できていなくても、撮像信号処理部124から出力される撮像信号の色情報に基づいて、撮像面上に顕著な領域を判定できた場合は、その領域を優先してもよい。 In S708, the camera control unit 141 sets the lens position indicated by the defocus amount of the area corresponding to the closest subject among the plurality of focus detection areas set in S501 as the target position of the focus lens. Then, in S706, the focus lens is driven to the target position. Here, when selecting the focus detection area corresponding to the closest object in S708, the area near the center image height may be prioritized or the area near the center may be limited. Also, even if a face or eyes cannot be detected, if a conspicuous area on the imaging plane can be determined based on the color information of the imaging signal output from the imaging signal processing unit 124, that area is prioritized. may

次に、図7で説明した顔優先AFの処理手順で商品の動画撮影を行った場合にどのようにAF動作がなされるかについて、図8(a)を用いて説明する。 Next, FIG. 8A will be used to explain how the AF operation is performed when a moving image of a product is photographed in accordance with the face-prioritized AF processing procedure described with reference to FIG.

図8において、符号801は撮像装置を示し、紹介者601と商品602(603,604)を撮影している。太破線802は、紹介者601の顔(または瞳)のデフォーカス量によって算出されるフォーカスレンズ位置を示し、以降このフォーカスレンズ位置を基準点と定義する。太破線803は、商品602(603,604)のデフォーカス量によって算出されるフォーカスレンズ位置を示し、以降このフォーカスレンズ位置を着目点と定義する。一点鎖線804はAF処理後のフォーカスレンズ位置を示しており、S407の顔優先AFの処理フローでAF処理した結果、太破線802と同じ位置となる。符号805,806は、絞り113によって決まる被写界深度の至近端と無限端を示しており、805で示す位置と806で示す位置の間に存在する被写体は、被写界深度内にあるため、ピントが合っていると言える。 In FIG. 8, reference numeral 801 denotes an imaging device, which photographs an introducer 601 and products 602 (603, 604). A thick dashed line 802 indicates the focus lens position calculated by the defocus amount of the face (or pupil) of the introducer 601, and hereinafter this focus lens position is defined as a reference point. A thick dashed line 803 indicates the focus lens position calculated from the defocus amount of the product 602 (603, 604), and hereinafter this focus lens position is defined as the focus point. A dashed-dotted line 804 indicates the focus lens position after AF processing, which is the same position as the thick dashed line 802 as a result of AF processing in the processing flow of face priority AF in S407. Reference numerals 805 and 806 denote the closest end and infinite end of the depth of field determined by the aperture 113, and the subject existing between the positions indicated by 805 and 806 is within the depth of field. Therefore, it can be said that the image is in focus.

図8(a)の場合、基準点802は被写界深度内に存在するため、紹介者601の顔(瞳)にはピントが合っているが、着目点803は被写界深度外に位置するため、商品602はピントが合っていない。つまり顔優先AFでは、商品にピントを合わせたいという図6(b)の要件を満たすことができない。 In the case of FIG. 8A, since the reference point 802 exists within the depth of field, the face (pupils) of the introducer 601 is in focus, but the point of interest 803 is located outside the depth of field. Therefore, the product 602 is out of focus. In other words, the face-priority AF cannot satisfy the requirement shown in FIG. 6B to focus on the product.

次に、至近優先AFの処理と、商品紹介動画において至近優先AFを利用した場合の課題について、図9と図8(b)を用いて説明する。まず、図9のフローチャートを用いて、至近優先AFの処理について説明する。 Next, the processing of the closest object priority AF and the problem when the object introduction moving image uses the closest object priority AF will be described with reference to FIGS. 9 and 8B. First, the close distance priority AF process will be described with reference to the flowchart of FIG.

まず、S901では、カメラ制御部141は、S501で設定した複数の焦点検出領域の中で最至近の被写体に対応する領域のデフォーカス量が示すレンズ位置をフォーカスレンズの目標位置として設定する。 First, in S901, the camera control unit 141 sets the lens position indicated by the defocus amount of the area corresponding to the closest subject among the plurality of focus detection areas set in S501 as the target position of the focus lens.

S902では、カメラ制御部141は、目標位置に向けてフォーカスレンズを駆動させる。S901では、図7の顔優先AFの処理フローのS708と同様に、中央領域の情報や、色情報を用いて焦点検出領域の選択方法を変えてもよい。 In S902, the camera control unit 141 drives the focus lens toward the target position. In S901, similarly to S708 of the face-priority AF processing flow in FIG. 7, the center area information and color information may be used to change the focus detection area selection method.

次に、図8(b)を用いて、商品紹介動画において至近優先AF処理を利用した場合の課題について説明する。図8(b)では着目点803が最至近のデフォーカス量を出力する対象となるため、フォーカスレンズ位置804は着目点803と同じ位置になり、商品602にはピントが合う。しかしその結果、基準点802は被写界深度(符号805と806の間の範囲)外となり、紹介者601の顔(瞳)にはピントが合わない。つまり至近優先AFでは、紹介者にピントを合わせたいという図6(c)の要件を満たすことができない。なお、図6(a)については、基準点と着目点が一致するため、至近優先AFの処理でも紹介者601にピントを合わせることができる。 Next, with reference to FIG. 8(b), a problem when the close distance priority AF processing is used in the product introduction video will be described. In FIG. 8B, the target point 803 is the target for outputting the closest defocus amount, so the focus lens position 804 is at the same position as the target point 803, and the product 602 is in focus. However, as a result, the reference point 802 is out of the depth of field (range between reference numerals 805 and 806), and the face (eyes) of the introducer 601 is out of focus. That is, the close distance priority AF cannot satisfy the requirement shown in FIG. Note that, in FIG. 6A, since the reference point and the point of interest match, the introducer 601 can be brought into focus even in the processing of the close distance priority AF.

このように、従来のAF処理である顔優先AFと至近優先AFでは、商品紹介動画の各シーンに求められるピントの要件を満たすことができないことがわかる。これらの課題に対して、本実施形態では顔深度内AFを実施している。次に顔深度内AFの処理と、商品紹介動画におけるピント位置について、図10から図13を用いて説明する。 As described above, it can be seen that the face priority AF and the close distance priority AF, which are conventional AF processes, cannot satisfy the focus requirements required for each scene of the product introduction video. In order to solve these problems, the intra-face-depth AF is performed in the present embodiment. Next, the intra-face-depth AF processing and the focus position in the product introduction video will be described with reference to FIGS. 10 to 13. FIG.

図10において、顔深度内AFの処理が開始されると、カメラ制御部141は、S1001に処理を進め、基準点決定処理を行う。基準点は前述した通り、紹介者の顔(瞳)のデフォーカス量によって算出されるフォーカスレンズ位置を示し、基準点決定処理の詳細は、図11を用いて後述する。 In FIG. 10, when intra-face-depth AF processing is started, the camera control unit 141 advances the processing to S1001 to perform reference point determination processing. As described above, the reference point indicates the focus lens position calculated based on the defocus amount of the introducer's face (pupils), and the details of the reference point determination process will be described later with reference to FIG. 11 .

S1002では、カメラ制御部141は、着目点決定処理を行う。着目点は前述した通り、商品のデフォーカス量によって算出されるフォーカスレンズ位置を示し、着目点決定処理の詳細は、図13を用いて後述する。 In S1002, the camera control unit 141 performs focus point determination processing. As described above, the focus point indicates the focus lens position calculated from the defocus amount of the product, and the details of the focus point determination process will be described later with reference to FIG. 13 .

S1003では、カメラ制御部141は、S1001において基準点を決定できたか否かを判定し、基準点を決定できていればS1004に処理を進め、基準点を決定できていなければS1005に処理を進める。 In S1003, the camera control unit 141 determines whether or not the reference point could be determined in S1001. If the reference point could be determined, the process proceeds to S1004. .

S1004では、カメラ制御部141は、フォーカスレンズの目標位置を着目点が被写界深度の最至近(至近端あるいはその近傍)になるレンズ位置としている。ここで、S509で判定されたデフォーカス量の信頼性が低い場合、デフォーカス量の誤差が大きいことが想定される。そのため、着目点に対して所定量至近側の位置に被写界深度の最至近が来るようにフォーカスレンズを制御してもよい。このように処理することで、デフォーカス量の誤差があっても、商品を被写界深度内に収めることが可能となる。また、着目点にピントが合うように基準点から至近方向にレンズを動かし続けた場合、基準点が被写界深度に入っている場合はフォーカスレンズを移動し続け、基準点が被写界深度に入らなくなった場合はフォーカスレンズの移動を停止させる。あるいは、着目点にピントが合うように基準点から至近方向にレンズを動かし続けた場合、基準点が被写界深度に入っている場合はフォーカスレンズを移動し続け、基準点が被写界深度に入らなくなった場合は、基準点と着目点が被写界深度に収まるように絞り113を制御してもよい。 In S1004, the camera control unit 141 sets the target position of the focus lens to the lens position where the point of interest is closest to the depth of field (closest end or its vicinity). Here, when the reliability of the defocus amount determined in S509 is low, it is assumed that the error in the defocus amount is large. Therefore, the focus lens may be controlled so that the closest depth of field comes to a position on the close side by a predetermined amount with respect to the point of interest. By performing such processing, it is possible to keep the product within the depth of field even if there is an error in the defocus amount. Also, if the lens continues to move from the reference point in the close-up direction so that the point of interest is in focus, if the reference point is within the depth of field, the focus lens continues to move and the reference point is the depth of field. If it does not enter, the movement of the focus lens is stopped. Alternatively, if the lens continues to move from the reference point in the close-up direction so that the point of interest is in focus, if the reference point is within the depth of field, the focus lens continues to move and the reference point is the depth of field. If it is no longer within , the diaphragm 113 may be controlled so that the reference point and the point of interest are within the depth of field.

S1005では、カメラ制御部141は、フォーカスレンズの目標位置を着目点として処理する。 In S1005, the camera control unit 141 processes the target position of the focus lens as the point of interest.

S1004でフォーカスレンズの目標位置が決定した後、S1006では、カメラ制御部141は、フォーカスレンズの目標位置が基準点より無限側の場合はフォーカスレンズの目標位置を基準点に変更する。この処理の意図は、商品紹介動画において紹介者より前に商品を持ってくることが一般的であるためである。 After the target position of the focus lens is determined in S1004, in S1006, the camera control unit 141 changes the target position of the focus lens to the reference point if the target position of the focus lens is on the infinity side of the reference point. The purpose of this process is that it is common to bring the product before the introducer in the product introduction video.

S1007では、カメラ制御部141は、S1005とS1006で決定した目標位置に向けてフォーカスレンズを駆動させて処理を終了する。 In S1007, the camera control unit 141 drives the focus lens toward the target position determined in S1005 and S1006, and ends the process.

次に、図11のフローチャートを用いて、基準点決定処理について説明する。 Next, reference point determination processing will be described using the flowchart of FIG. 11 .

基準点決定処理が開始されると、カメラ制御部141は、S1101に処理を進め、顔検出処理を実施する。顔検出処理の手法は前述したS701と同様の処理である。 When the reference point determination process is started, the camera control unit 141 advances the process to S1101 and performs face detection processing. The method of face detection processing is the same processing as in S701 described above.

S1102では、カメラ制御部141は、前回基準点として選択された顔(最後に検出された顔)と同じ顔がS1101において検出されたか否かを判定し、検出された場合はS1103へ処理を進め、検出されなかった場合はS1110に処理を進める。同じ顔かどうかの判断は、画像のマッチング手法等を用いて実現するが、この方法に限定されず顔の一致を確認できる方法ならどのような方法でもよい。同じ顔か判断することにより、図12(a)のように紹介者601の他に第三者1201や1202がいても、紹介者は切り替わらずに同じ基準点を維持できる。 In S1102, the camera control unit 141 determines whether or not the same face as the face previously selected as the reference point (last detected face) was detected in S1101, and if detected, advances the process to S1103. , if not detected, the process proceeds to S1110. Whether or not the faces are the same can be determined using an image matching method or the like, but the method is not limited to this method, and any method that can confirm matching of faces may be used. By determining whether the faces are the same, even if there are third parties 1201 and 1202 in addition to the introducer 601 as shown in FIG. 12A, the introducer can maintain the same reference point without switching.

S1103では、カメラ制御部141は、前回基準点として選択した顔と同じ人物の顔を主顔とする。S1104では、カメラ制御部141は、主顔に対して瞳検出処理を実施する。 In S1103, the camera control unit 141 sets the same person's face as the face previously selected as the reference point as the main face. In S1104, the camera control unit 141 performs pupil detection processing on the main face.

S1105では、カメラ制御部141は、S1104において主顔の瞳が検出できたか否かを判定し、瞳が検出できた場合はS1106に処理を進め、瞳が検出できていない場合はS1107に処理を進める。 In S1105, the camera control unit 141 determines whether or not the pupil of the main face could be detected in S1104. If the pupil could be detected, the process proceeds to S1106. proceed.

S1106では、カメラ制御部141は、基準点をS1104で検出した瞳位置の焦点検出領域のデフォーカス量によって決まるフォーカスレンズ位置とする。S1107では、カメラ制御部141は、基準点を顔検出範囲内のデフォーカス量によって決まるフォーカスレンズ位置とする。 In S1106, the camera control unit 141 sets the reference point to the focus lens position determined by the defocus amount of the focus detection area at the pupil position detected in S1104. In S1107, the camera control unit 141 sets the focus lens position determined by the defocus amount within the face detection range as the reference point.

S1108では、カメラ制御部141は、基準点を保存する。S1109では、カメラ制御部141は、基準点として選択した主顔を保存し処理を終了する。 In S1108, the camera control unit 141 saves the reference point. In S1109, the camera control unit 141 saves the main face selected as the reference point and ends the process.

S1102で前回基準点とした顔と同じ顔が検出されなかった場合、S1110では、カメラ制御部141は、現在から過去所定時間以内にS1109において主顔が保存されたか否かを判定する。カメラ制御部141は、主顔が保存されている場合はS1111に処理を進め、前回保存した基準点を基準点として決定する。そしてS1112においてその基準点を保存(所定時間維持)する。S1102とS1110とS1111の処理を実施することで、図12(b)のように、紹介する商品1203で顔が隠れたり、商品1203に顔写真がついていたりしても、主顔は切り替わらず同じ基準点を維持することが可能である。 If the same face as the previous reference point was not detected in S1102, in S1110 the camera control unit 141 determines whether or not the main face was saved in S1109 within a predetermined past time from the present. If the main face is saved, the camera control unit 141 advances the process to S1111 and determines the previously saved reference point as the reference point. Then, in S1112, the reference point is saved (maintained for a predetermined period of time). By performing the processing of S1102, S1110, and S1111, as shown in FIG. A reference point can be maintained.

一方、S1110で主顔が保存されていない場合は、カメラ制御部141は、S1113に処理を進め、S1101において所定時間経過した後に一人以上の顔が検出されたか否かを判定する。カメラ制御部141は、一人以上の顔が検出されている場合はS1114に処理を進め、最も中央像高に近い顔を主顔として更新する。これは所定時間以上、主顔だった人物が検出されなかったため、主顔を切り替える処理である。その後は、カメラ制御部141は、S1104に処理を進め、前述した処理と同様の処理を実施する。 On the other hand, if the main face is not saved in S1110, the camera control unit 141 advances the process to S1113, and in S1101 determines whether or not one or more faces have been detected after a predetermined time has elapsed. If one or more faces have been detected, the camera control unit 141 advances the process to S1114 and updates the face closest to the center image height as the main face. This is a process of switching the main face because the person who was the main face was not detected for a predetermined time or longer. After that, the camera control unit 141 advances the processing to S1104 and performs the same processing as the above-described processing.

S1113において顔が一人も検出されなかった場合は、カメラ制御部141は、S1115に処理を進め、基準点を決定できないまま基準点決定処理を終了する。 If no face is detected in S1113, the camera control unit 141 advances the processing to S1115, and ends the reference point determination processing without determining the reference point.

続いて、S1002の着目点決定処理について図13のフローチャートを用いて説明する。 Next, the focus point determination processing of S1002 will be described using the flowchart of FIG.

着目点決定処理が開始されると、カメラ制御部141は、S1301に処理を進め、ユーザーによる着目点の指定があるか否かを判定する。ユーザーが着目点を指定する方法としては、タッチパネルのLV(ライブビュー)画面上をタッチして対象を指定したり、ダイヤルなどでLV画面上の座標を指定したりする方法が挙げられる。しかし、本実施形態では、これらの手法に限定されず、着目点を指定できるどのような手法を用いてもよい。 When the focus point determination process is started, the camera control unit 141 advances the process to S1301 and determines whether or not the user has specified a focus point. As a method for the user to specify the point of interest, there is a method of specifying an object by touching the LV (live view) screen of a touch panel, or specifying coordinates on the LV screen with a dial or the like. However, the present embodiment is not limited to these methods, and any method that can specify the point of interest may be used.

S1301でユーザー指定があった場合、カメラ制御部141は、S1302に処理を進め、ユーザー指定が無かった場合、S1303に処理を進める。 If there is user designation in S1301, the camera control unit 141 advances the processing to S1302, and if there is no user designation, advances the processing to S1303.

S1302では、カメラ制御部141は、着目点をユーザー指定座標のデフォーカス量が示すレンズ位置として処理を終了する。S1303では、カメラ制御部141は、着目点を最至近の被写体のデフォーカス量が示すレンズ位置として処理を終了する。 In S1302, the camera control unit 141 sets the point of interest to the lens position indicated by the defocus amount of the user-designated coordinates, and ends the process. In S1303, the camera control unit 141 ends the process by setting the point of interest to the lens position indicated by the defocus amount of the closest subject.

図14では、それぞれ(a)商品が無いシーン、(b)商品が紹介者に近いシーン、(c)商品が紹介者から遠いシーンを示している。まず、図14(a)では商品が無いため、基準点802と着目点803は同じ位置となる。S1006によりフォーカスレンズ位置は基準点802より無限側に駆動されないため、図14(a)のフォーカスレンズ位置は804で示す位置となる。 FIG. 14 shows (a) a scene in which there is no product, (b) a scene in which the product is close to the introducer, and (c) a scene in which the product is far from the introducer. First, since there is no product in FIG. 14A, the reference point 802 and the point of interest 803 are at the same position. Since the focus lens position is not driven to the infinity side from the reference point 802 by S1006, the focus lens position in FIG.

図14(b)では、商品602が存在するため、着目点は803で示す位置となる。この場合、S1004の処理により、着目点803が被写界深度の最至近位置805の位置と重なるようにフォーカスレンズが制御されるため、フォーカスレンズ位置は804の位置となる。この制御により、図14(b)では基準点802と着目点803の両方が被写界深度内(805と806で示す位置の間の範囲)に位置するため、図6(c)の要件を満たすことができる。 In FIG. 14B, since the product 602 exists, the point of interest is the position indicated by 803 . In this case, the processing in S1004 controls the focus lens so that the point of interest 803 overlaps the closest position 805 in the depth of field. With this control, both the reference point 802 and the target point 803 are positioned within the depth of field (the range between the positions indicated by 805 and 806) in FIG. can meet.

図14(c)でも、図14(b)と同様に、着目点803が被写界深度の最至近位置805の位置と重なるようにフォーカスレンズが制御されるため、フォーカスレンズ位置は804で示す位置となる。これにより図6(b)において、商品と紹介者が離れている場合でもピント位置の要件を満たすことができる。また、図14(c)では基準点802が被写界深度外になるため、ピントが合わなくなるが、至近優先AFでピントを合わせる場合に比べてフォーカスレンズ位置が基準点に近くなるため、紹介者の顔(瞳)のボケ量は最小限に抑えることができる。 In FIG. 14C, similarly to FIG. 14B, the focus lens is controlled so that the point of interest 803 overlaps the closest position 805 in the depth of field, so the focus lens position is indicated by 804. position. As a result, in FIG. 6B, even when the product and the introducer are far apart, the requirements for the focus position can be satisfied. Also, in FIG. 14C, the reference point 802 is out of the depth of field, so it is out of focus. The blur amount of the person's face (pupils) can be minimized.

以上説明したように、本実施形態の顔深度内AF処理を行うことにより、商品紹介動画における図6に示すような各シーンにおいて、紹介者がピントを合わせたい対象にピントを合わせることが可能となる。 As described above, by performing intra-face-depth AF processing according to the present embodiment, it is possible to focus on an object that the introducer wants to focus on in each scene of the product introduction video shown in FIG. Become.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。まず、本実施形態と第1の実施形態との差分について説明する。第1の実施形態と第2の実施形態の差は顔深度内AFの処理内容にある。
(Second embodiment)
A second embodiment of the present invention will be described below. First, differences between the present embodiment and the first embodiment will be described. The difference between the first embodiment and the second embodiment lies in the processing contents of intra-face-depth AF.

第1の実施形態では商品にピントを合わせることを優先していたが、第2の実施形態では商品を手前に掲げた場合には、顔(瞳)にピントを合わせることを優先して、常に基準点が被写界深度に入るようにしている。以下、第2の実施形態の詳細について説明する。 In the first embodiment, priority is given to focusing on the product, but in the second embodiment, when the product is held in front, priority is given to focusing on the face (eyes), always Make sure the reference point is within the depth of field. Details of the second embodiment will be described below.

本実施形態における撮像装置の構成は、第1の実施形態で説明した図1の構成と同様であるため説明を省略する。また、図10を除く図2から図13までの説明も第1の実施形態と同様であるため説明を省略する。 The configuration of the imaging apparatus in this embodiment is the same as the configuration in FIG. 1 described in the first embodiment, so description thereof will be omitted. 2 to 13 except for FIG. 10 are the same as those of the first embodiment, so the description is omitted.

第2の実施形態の顔深度内AFの処理について図15のフローチャートと、図16を用いて説明する。S1001~S1007については、第1の実施形態の図10のフローチャートと同様であるため説明を省略する。 The intra-face-depth AF processing of the second embodiment will be described with reference to the flowchart of FIG. 15 and FIG. Since S1001 to S1007 are the same as those in the flowchart of FIG. 10 of the first embodiment, description thereof will be omitted.

S1003において基準点を決定できた後、カメラ制御部141は、S1501に処理を進め、基準点と着目点の両点が被写界深度内に入るかを判定する。カメラ制御部141は、両点が被写界深度内に入ると判定した場合はS1004に処理を進め、両点が被写界深度内に入らないと判定した場合はS1502に処理を進める。 After the reference point is determined in S1003, the camera control unit 141 advances the processing to S1501 and determines whether both the reference point and the point of interest are within the depth of field. If the camera control unit 141 determines that both points are within the depth of field, the process proceeds to S1004, and if it is determined that both points are not within the depth of field, the process proceeds to S1502.

S1502では、カメラ制御部141は、フォーカスレンズの目標位置を基準点が被写界深度の最無限になるフォーカスレンズ位置に設定する。このとき、S509で判定したデフォーカス量の信頼性が低い場合、デフォーカス量の誤差を加味して基準点よりも所定量無限側に被写界深度の最無限が来るようにフォーカスレンズを制御してもよい。このように処理することで、デフォーカス量に誤差があっても、紹介者の顔(瞳)を被写界深度に収めることが可能となる。 In S<b>1502 , the camera control unit 141 sets the target position of the focus lens to the focus lens position where the reference point is the most infinite depth of field. At this time, if the reliability of the defocus amount determined in S509 is low, the focus lens is controlled so that the maximum infinity of the depth of field comes to the infinity side of the reference point by a predetermined amount, taking into consideration the error in the defocus amount. You may By performing such processing, even if there is an error in the defocus amount, it is possible to fit the introducer's face (pupils) within the depth of field.

S1503では、LV(ライブビュー)画面上に警告を表示し、紹介者に商品にピントが合っていないことを通知する。このとき、絞り113を絞って被写界深度を広げたり、商品を紹介者側に引いて被写界深度に収まる位置に移動したりするように紹介者に提案してもよい。 In S1503, a warning is displayed on the LV (live view) screen to notify the introducer that the product is out of focus. At this time, the introducer may be suggested to narrow down the diaphragm 113 to widen the depth of field, or to pull the product toward the introducer and move it to a position within the depth of field.

次に、図16を用いて第2の実施形態のAF動作について説明する。図16(a)のように商品602が紹介者の前に掲げられた場合、基準点802が被写界深度に収まるように最無限806と一致するレンズ位置を限界としてフォーカスレンズ位置を804の位置に制御する。このように制御することで、紹介者の顔(瞳)に常にピントを合わせ続けることが可能となる。一方、被写界深度の至近端は、符号805で示す位置となるため、商品602にはピントが合わない。 Next, the AF operation of the second embodiment will be described using FIG. When a product 602 is placed in front of an introducer as shown in FIG. 16A, the focus lens position is set to 804 with the lens position matching the infinity 806 as the limit so that the reference point 802 fits within the depth of field. position control. By controlling in this way, it is possible to always keep the face (eyes) of the introducer in focus. On the other hand, since the closest end of the depth of field is the position indicated by reference numeral 805, the product 602 is out of focus.

この場合、本実施形態では、図16(b)の1601に示すように、商品にピントが合っていないことを通知する警告表示を出すことにより、紹介者に対して商品にピントを合わせるための動作を促すことが可能となる。 In this case, in this embodiment, as shown in 1601 in FIG. 16B, by displaying a warning display notifying that the product is out of focus, the introducer is instructed to focus on the product. It is possible to encourage action.

(第3の実施形態)
以下、本発明の第3の実施形態について説明する。まず、本実施形態と第1の実施形態との差分について説明する。第1の実施形態と第3の実施形態の差は顔深度内AFの処理内容にある。
(Third embodiment)
A third embodiment of the present invention will be described below. First, differences between the present embodiment and the first embodiment will be described. The difference between the first embodiment and the third embodiment lies in the processing contents of intra-face-depth AF.

第1の実施形態では、商品にピントを合わせることを優先していたが、第3の実施形態では商品を紹介者の前に掲げた場合には、絞り113を制御することで、基準点と着目点の両点が被写界深度に入るように制御している。以下、第3の実施形態の詳細について説明する。 In the first embodiment, priority is given to focusing on the product, but in the third embodiment, when the product is placed in front of the introducer, by controlling the diaphragm 113, the reference point and the Control is performed so that both points of interest are within the depth of field. Details of the third embodiment will be described below.

本実施形態における撮像装置の構成は、第1の実施形態で説明した図1の構成と同様であるため説明を省略する。また、図10を除く図2から図13までの説明も第1の実施形態と同様であるため説明を省略する。 The configuration of the imaging apparatus in this embodiment is the same as the configuration in FIG. 1 described in the first embodiment, so description thereof will be omitted. 2 to 13 except for FIG. 10 are the same as those of the first embodiment, so the description is omitted.

第3の実施形態の顔深度内AFの処理について図17のフローチャートと、図18を用いて説明する。S1001からS1007については、第1の実施形態の図10のフローチャートと同様であるため説明を省略する。 The intra-face-depth AF processing of the third embodiment will be described with reference to the flowchart of FIG. 17 and FIG. Since S1001 to S1007 are the same as those in the flowchart of FIG. 10 of the first embodiment, description thereof will be omitted.

S1003において基準点を決定できた後、カメラ制御部141は、S1501に処理を進め、基準点と着目点の両点がユーザーが設定した絞り値による被写界深度内に入るか否かを判定する。カメラ制御部141は、両点が被写界深度内に入ると判定した場合はS1701に処理を進め、被写界深度内に入っていないと判定した場合はS1702に処理を進める。S1701とS1702では絞り113の絞り値を別の手法で設定する。 After the reference point is determined in S1003, the camera control unit 141 advances the processing to S1501 and determines whether or not both the reference point and the point of interest are within the depth of field determined by the aperture value set by the user. do. If the camera control unit 141 determines that both points are within the depth of field, the process advances to S1701, and if it is determined that the points are not within the depth of field, the process advances to S1702. In S1701 and S1702, the aperture value of the aperture 113 is set by another method.

S1701では、カメラ制御部141は、絞り113をユーザーが設定した絞り値に設定しS1004に処理を進める。一方、S1702では、カメラ制御部141は、基準点と着目点の両点が被写界深度に入るように絞り113を設定して、S1004に処理を進める。S1702の処理を実施することで、紹介者の顔(瞳)と商品の両方にピントを合わせることが可能となる。 In S1701, the camera control unit 141 sets the aperture 113 to the aperture value set by the user, and advances the processing to S1004. On the other hand, in S1702, the camera control unit 141 sets the aperture 113 so that both the reference point and the point of interest are within the depth of field, and advances the process to S1004. By performing the process of S1702, it is possible to bring both the introducer's face (pupils) and the product into focus.

次に図18を用いて、図17で示した処理の内容について説明する。図18(a)は紹介者と商品が近いシーンで、図18(b)は紹介者と商品が遠いシーンである。 Next, the contents of the processing shown in FIG. 17 will be described with reference to FIG. FIG. 18(a) is a scene in which the introducer is close to the product, and FIG. 18(b) is a scene in which the introducer is far from the product.

図18(a)では、基準点802と着目点803がユーザーの設定した絞り値による被写界深度(805と806で示す位置の間の範囲)に収まるため、第1の実施形態と同様に着目点と被写界深度の最至近805が重なるフォーカスレンズ位置804にフォーカスレンズを駆動している。図18(b)では、基準点802と着目点803がユーザーの設定した絞り値による被写界深度内に入らない。そのため、絞り113を絞り、被写界深度(805と806で示す位置の間の範囲)を広げることで、基準点802と着目点803が被写界深度に入るように制御する。 In FIG. 18A, the reference point 802 and the point of interest 803 fall within the depth of field (the range between the positions indicated by 805 and 806) according to the aperture value set by the user. The focus lens is driven to a focus lens position 804 where the point of interest and the closest point 805 of the depth of field overlap. In FIG. 18B, the reference point 802 and the point of interest 803 do not fall within the depth of field of the aperture value set by the user. Therefore, by narrowing down the diaphragm 113 and widening the depth of field (the range between the positions indicated by 805 and 806), control is performed so that the reference point 802 and the target point 803 are within the depth of field.

このように制御することで、商品を大きく前に掲げた際も、絞り値113を最低限開きながら紹介者の顔(瞳)と商品の両方にピントを合わせることが可能となる。 By controlling in this way, even when the product is placed in front, it is possible to focus on both the introducer's face (eyes) and the product while opening the aperture value 113 to the minimum.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
In addition, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads the program. It can also be realized by executing processing. It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

101:レンズユニット、102:カメラ本体、111:撮影レンズ、112:固定レンズ、113:絞り、114:フォーカスレンズ、115:絞り制御部、116:フォーカス制御部、117:レンズ制御部、121:撮像素子、141:カメラ制御部 101: lens unit, 102: camera body, 111: photographing lens, 112: fixed lens, 113: aperture, 114: focus lens, 115: aperture control unit, 116: focus control unit, 117: lens control unit, 121: imaging element 141: camera control unit

Claims (16)

被写界における着目点を決定する着目点決定手段と、
撮像光学系の異なる瞳領域を通過した被写体像から一対の焦点検出用信号を取得し、該一対の焦点検出用信号に基づいて、被写体のデフォーカス量を検出する焦点検出手段と、
前記焦点検出手段によって得られた前記着目点のデフォーカス量に基づいて、前記着目点が被写界深度内の至近端あるいはその近傍の位置となるように、フォーカスレンズの位置を制御する制御手段と、
を備えることを特徴とする撮像装置。
Point-of-interest determination means for determining a point of interest in the field;
focus detection means for acquiring a pair of focus detection signals from a subject image that has passed through different pupil regions of an imaging optical system and detecting a defocus amount of the subject based on the pair of focus detection signals;
Control for controlling the position of the focus lens based on the defocus amount of the point of interest obtained by the focus detection means so that the point of interest is positioned at or near the closest end within the depth of field. means and
An imaging device comprising:
前記着目点決定手段は、ユーザーの指定により前記着目点を決定することを特徴とする請求項1に記載の撮像装置。 2. The imaging apparatus according to claim 1, wherein said focus point determination means determines said focus point according to a user's designation. 前記着目点決定手段は、前記焦点検出手段による焦点検出により最も至近のデフォーカス量を示した被写体の位置を着目点として決定することを特徴とする請求項1または2に記載の撮像装置。 3. The image pickup apparatus according to claim 1, wherein the point-of-interest determination means determines the position of the object that indicates the closest defocus amount as a result of focus detection by the focus detection means, as the point-of-interest. 前記デフォーカス量の信頼性を判定する判定手段をさらに備え、前記制御手段は、前記デフォーカス量の信頼性が所定より低い場合は、前記着目点から所定量至近側にずらした位置が前記被写界深度内の至近端に位置するように、前記フォーカスレンズの位置を制御することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The control means further includes determination means for determining the reliability of the defocus amount, and the control means determines that, when the reliability of the defocus amount is lower than a predetermined amount, the position shifted from the point of interest to the close side by a predetermined amount is the subject. 4. The imaging apparatus according to any one of claims 1 to 3, wherein the position of the focus lens is controlled so as to be positioned at the closest end within the depth of field. 被写体を撮像する撮像手段と、該撮像手段から出力された画像データに基づいて、被写体を検出する被写体検出手段と、前記焦点検出手段によって得られた前記被写体のデフォーカス量に基づいて基準点を決定する基準点決定手段とをさらに備え、前記制御手段は、前記被写界深度内の無限端が前記基準点の位置となるように、前記フォーカスレンズの位置を制御することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 imaging means for imaging a subject; subject detection means for detecting the subject based on the image data output from the imaging means; and a reference point based on the defocus amount of the subject obtained by the focus detection means. and reference point determination means for determining the depth of field, wherein the control means controls the position of the focus lens so that the position of the reference point is the infinite end within the depth of field. Item 5. The imaging device according to any one of Items 1 to 4. 前記被写体検出手段によって前回と同じ被写体が検出された場合、前記基準点決定手段は、前回と同じ被写体の位置を前記基準点として決定することを特徴とする請求項5に記載の撮像装置。 6. The image pickup apparatus according to claim 5, wherein, when the subject detection means detects the same subject as the previous time, the reference point determining means determines the position of the same subject as the previous time as the reference point. 前記基準点決定手段は、最後に検出された被写体に基づいて決定した基準点を所定時間維持することを特徴とする請求項5または6に記載の撮像装置。 7. The imaging apparatus according to claim 5, wherein said reference point determining means maintains the reference point determined based on the last detected subject for a predetermined time. 前記基準点決定手段は、所定時間が経過しても前記被写体検出手段によって被写体が検出されない場合、前記基準点が無いと判定することを特徴とする請求項5乃至7のいずれか1項に記載の撮像装置。 8. The method according to any one of claims 5 to 7, wherein said reference point determining means determines that said reference point does not exist when said object detecting means does not detect a subject within a predetermined time period. imaging device. 前記基準点決定手段により基準点が無いと判定された場合、前記制御手段は、前記着目点の位置にピントが合うように、前記フォーカスレンズの位置を制御することを特徴とする請求項8に記載の撮像装置。 9. The method according to claim 8, wherein when the reference point determination means determines that there is no reference point, the control means controls the position of the focus lens so that the position of the point of interest is focused. The imaging device described. 前記被写体検出手段により、所定時間が経過した後に複数の被写体が検出された場合、前記基準点決定手段は、撮像面の中央に近い被写体の位置を優先して基準点とすることを特徴とする請求項5乃至9のいずれか1項に記載の撮像装置。 When a plurality of subjects are detected by the subject detection means after a predetermined period of time has elapsed, the reference point determination means preferentially sets the position of the subject near the center of the imaging surface as the reference point. The imaging device according to any one of claims 5 to 9. 前記制御手段は、前記着目点にピントが合うように前記基準点から至近方向に前記フォーカスレンズを動かし続けた場合、前記基準点が被写界深度に入っている場合は前記フォーカスレンズを動かし続け、前記基準点が被写界深度に入らなくなった場合は前記フォーカスレンズを停止させることを特徴とする請求項5乃至10のいずれか1項に記載の撮像装置。 The control means continues to move the focus lens when the focus lens is kept moving from the reference point in a close-up direction so as to bring the focus point into focus, and when the reference point is within the depth of field. 11. The imaging apparatus according to any one of claims 5 to 10, wherein said focus lens is stopped when said reference point is no longer within the depth of field. 前記制御手段は、前記着目点にピントが合うように前記基準点から至近方向に前記フォーカスレンズを動かし続けた場合、前記基準点が被写界深度に入っている場合はフォーカスレンズを動かし続け、前記基準点が被写界深度に入らなくなった場合は、前記基準点と前記着目点が被写界深度に収まるように絞りを制御することを特徴とする請求項5乃至10のいずれか1項に記載の撮像装置。 The control means continues to move the focus lens when the focus lens is kept moving from the reference point in a close-up direction so that the point of interest is focused, and when the reference point is within the depth of field, 11. The aperture is controlled so that the reference point and the point of interest are within the depth of field when the reference point is no longer within the depth of field. The imaging device according to . 前記基準点が被写界深度に入り、前記着目点が被写界深度に入らない場合に、警告を表示する表示手段をさらに備えることを特徴とする請求項5乃至12のいずれか1項に記載の撮像装置。 13. The apparatus according to any one of claims 5 to 12, further comprising display means for displaying a warning when the reference point enters the depth of field and the target point does not enter the depth of field. The imaging device described. 被写界における着目点を決定する着目点決定工程と、
撮像光学系の異なる瞳領域を通過した被写体像から一対の焦点検出用信号を取得し、該一対の焦点検出用信号に基づいて、被写体のデフォーカス量を検出する焦点検出工程と、
前記焦点検出工程において得られた前記着目点のデフォーカス量に基づいて、前記着目点が被写界深度内の至近端あるいはその近傍の位置となるように、フォーカスレンズの位置を制御する制御工程と、
を有することを特徴とする撮像装置の制御方法。
A point-of-interest determination step of determining a point of interest in the field;
a focus detection step of acquiring a pair of focus detection signals from a subject image that has passed through different pupil regions of an imaging optical system, and detecting a defocus amount of the subject based on the pair of focus detection signals;
Control for controlling the position of the focus lens so that the point of interest is at or near the closest end within the depth of field, based on the defocus amount of the point of interest obtained in the focus detection step. process and
A control method for an imaging device, comprising:
請求項14に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 14. 請求項14に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 15. A computer-readable storage medium storing a program for causing a computer to execute each step of the control method according to claim 14.
JP2021191440A 2021-11-25 2021-11-25 Imaging apparatus, and control method, program and storage medium thereof Pending JP2023077931A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021191440A JP2023077931A (en) 2021-11-25 2021-11-25 Imaging apparatus, and control method, program and storage medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021191440A JP2023077931A (en) 2021-11-25 2021-11-25 Imaging apparatus, and control method, program and storage medium thereof

Publications (1)

Publication Number Publication Date
JP2023077931A true JP2023077931A (en) 2023-06-06

Family

ID=86622833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021191440A Pending JP2023077931A (en) 2021-11-25 2021-11-25 Imaging apparatus, and control method, program and storage medium thereof

Country Status (1)

Country Link
JP (1) JP2023077931A (en)

Similar Documents

Publication Publication Date Title
JP6825073B2 (en) Imaging equipment, control methods, and programs
EP2590421B1 (en) Single-lens stereoscopic image capture device
CN108737696B (en) Image pickup apparatus, control method, and non-transitory storage medium
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP2009094724A (en) Imaging apparatus
JP4799366B2 (en) Imaging apparatus and image reproduction apparatus
JP2008139683A (en) Imaging apparatus and autofocus control method
JP2013008004A (en) Imaging apparatus
JP2019121860A (en) Image processing apparatus and control method therefor
JP2011217103A (en) Compound eye photographing method and apparatus
US20080018774A1 (en) Image capture device
EP2590024A1 (en) Imaging apparatus and imaging method
JP3091628B2 (en) Stereoscopic video camera
JP2020003760A (en) Imaging apparatus and control method of the same
JP2013160991A (en) Imaging apparatus
JP2007225897A (en) Focusing position determination device and method
JP5780752B2 (en) Automatic focus adjustment device and automatic focus adjustment method
JP5328528B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP5607458B2 (en) Imaging apparatus and control method thereof
JP2023077931A (en) Imaging apparatus, and control method, program and storage medium thereof
US20130076867A1 (en) Imaging apparatus
JP7353868B2 (en) Lens control device and its control method
JP2006157604A (en) Camera apparatus and automatic photographing control program