JP2023077931A - Imaging apparatus, and control method, program and storage medium thereof - Google Patents
Imaging apparatus, and control method, program and storage medium thereof Download PDFInfo
- Publication number
- JP2023077931A JP2023077931A JP2021191440A JP2021191440A JP2023077931A JP 2023077931 A JP2023077931 A JP 2023077931A JP 2021191440 A JP2021191440 A JP 2021191440A JP 2021191440 A JP2021191440 A JP 2021191440A JP 2023077931 A JP2023077931 A JP 2023077931A
- Authority
- JP
- Japan
- Prior art keywords
- point
- focus
- reference point
- depth
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置における焦点調節技術に関する。 The present invention relates to focus adjustment technology in an imaging device.
撮像装置におけるAF(オートフォーカス)制御は、一般的に、ピントを合わせる対象を選択し、その対象に対して検出したデフォーカス量に基づいてフォーカスレンズを駆動することにより行われる。 AF (autofocus) control in an imaging device is generally performed by selecting an object to be focused and driving a focus lens based on the defocus amount detected for the object.
ピントを合わせる対象の選択方法には、代表的な方法として、顔優先AFと至近優先AFがある。顔優先AFは、テンプレートマッチング等の手法を用いて検出された顔のデフォーカス量を用いてフォーカスレンズを駆動する手法である。一方、至近優先AFは、画面内に複数の焦点検出枠を設定し、最至近の被写体に対応する焦点検出枠のデフォーカス量を用いてフォーカスレンズを駆動する手法である。 Face priority AF and close distance priority AF are typical methods of selecting an object to be focused. Face priority AF is a method of driving a focus lens using a defocus amount of a face detected using a method such as template matching. On the other hand, the closest object priority AF is a method of setting a plurality of focus detection frames within a screen and driving the focus lens using the defocus amount of the focus detection frames corresponding to the closest subject.
ところで、近年、動画で自らを撮影しながら商品を紹介して動画配信を行うユーザーが増えている。この商品紹介では、図6(a)、6(b)、6(c)に示すように、シーンを以下の3つのシーンに大きく分けることができる。
(a)紹介者のみを撮影するシーン
(b)商品を前に掲げて商品を紹介するシーン
(c)商品を使用するシーン
上記それぞれのシーンに対して、ピントを合わせたい被写体は異なり、一般的には(a)では紹介者、(b)では紹介する商品、(c)では紹介者にピントを合わせることが求められていると考えられる。また、常に撮影絞りを絞って被写界深度を広げることで全ての被写体にピントを合わせ続けることも可能であるが、商品紹介動画では被写界深度を狭くして紹介する商品を強調することが必要な場合もある。
By the way, in recent years, there are an increasing number of users who take videos of themselves while introducing products and distributing videos. In this product introduction, scenes can be roughly divided into the following three scenes as shown in FIGS.
(a) A scene in which only the introducer is photographed (b) A scene in which the product is displayed in front of the product (c) A scene in which the product is used For each of the above scenes, the subject to be focused on differs, and is common. In (a), it is considered that the focus should be on the introducer, (b) on the product to be introduced, and (c) on the introducer. It is also possible to keep all subjects in focus by always narrowing down the shooting aperture and widening the depth of field. may be required.
しかしながら、前述した従来のピントを合わせる対象の選択方法では、商品紹介動画の各シーンにおいて、ピントを合わせたい被写体にピントを合わせられない場合がある。顔優先AFでAF制御を実施する場合、上記の(b)の場合に商品にピントを合わせることができない。また至近優先AFでは、上記の(c)の場合に紹介者にピントを合わせることができない。 However, with the above-described conventional method of selecting a target to be focused on, there are cases where it is not possible to focus on a subject desired to be focused on in each scene of the product introduction video. When performing AF control with face-priority AF, the product cannot be brought into focus in the above case (b). Further, in the case of (c) above, in the close distance priority AF, the introducer cannot be brought into focus.
これらの問題に対して、特許文献1には、検出した複数の被写体が最大数被写界深度に入る位置に焦点を合わせる技術が開示されている。しかし、特許文献1に開示されている技術では、被写体を選ばず多くの被写体にピントを合わせることを目的としているため、主要となる被写体にピントが合うことを保証できない。 To address these problems, Japanese Patent Laid-Open No. 2002-200001 discloses a technique for focusing on a position where the maximum number of detected subjects is within the depth of field. However, the technique disclosed in Japanese Patent Laid-Open No. 2002-200010 aims at focusing on many subjects regardless of the subject, so it cannot guarantee that the main subject will be in focus.
本発明は上述した課題に鑑みてなされたものであり、その目的は、動画撮影におけるAF制御において、ユーザーの意図に合った対象にピントを合わせることができる撮像装置を提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and its object is to provide an imaging apparatus capable of focusing on an object that matches the user's intention in AF control in moving image shooting.
本発明に係わる撮像装置は、被写界における着目点を決定する着目点決定手段と、撮像光学系の異なる瞳領域を通過した被写体像から一対の焦点検出用信号を取得し、該一対の焦点検出用信号に基づいて、被写体のデフォーカス量を検出する焦点検出手段と、前記焦点検出手段によって得られた前記着目点のデフォーカス量に基づいて、前記着目点が被写界深度内の至近端あるいはその近傍の位置となるように、フォーカスレンズの位置を制御する制御手段と、を備えることを特徴とする。 An image pickup apparatus according to the present invention includes point-of-interest determination means for determining a point of interest in an object field, and a pair of focus detection signals obtained from an object image that has passed through different pupil regions of an imaging optical system. focus detection means for detecting the defocus amount of the object based on the detection signal; and a control means for controlling the position of the focus lens so that it is at or near the near end.
本発明によれば、動画撮影におけるAF制御において、ユーザーの意図に合った対象にピントを合わせることが可能となる。 According to the present invention, it is possible to focus on an object that matches the user's intention in AF control in moving image shooting.
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる撮像装置100の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of an
本実施形態の撮像装置100は、レンズユニット101とカメラ本体102とを備えて構成されている。レンズユニット101の全体の動作を統括制御するレンズ制御部117と、レンズユニット101を含めた撮像装置100全体の動作を統括するカメラ制御部141とは、レンズマウントに設けられた端子を通じて相互に通信可能である。
An
まず、レンズユニット101の構成について説明する。撮影レンズ(撮像光学系)111は、固定レンズ112、絞り113、フォーカスレンズ114を備えて構成される。絞り制御部115は、絞り113を駆動することにより、絞り113の開口径を調整して撮影時の光量調節を行う。フォーカス制御部116は、撮影レンズ111のピントのずれ量に基づいてフォーカスレンズ114を駆動する駆動量を決定する。フォーカスレンズ114を駆動することにより、焦点を調節する。フォーカス制御部116によるフォーカスレンズ114の移動制御により、AF制御が実現される。フォーカスレンズ114は、焦点調節用レンズであり、図1には単レンズで簡略的に示されているが、通常複数のレンズで構成される。絞り駆動部115、フォーカス制御部116は、レンズ制御部117によって制御される。
First, the configuration of the
撮影レンズ111の光学部材を介して入射した光束は撮像素子121の受光面上に結像され、撮像素子121により電気信号に変換される。撮像素子121は、被写体像(光学像)を信号電荷に変換する多数の光電変換素子を有するCCDやCMOSセンサにより構成される。各光電変換素子に蓄積された信号電荷は、タイミングジェネレータ122が出力する駆動パルスにより、信号電荷に応じた電圧信号として撮像素子121から順次読み出される。
A light flux incident through the optical member of the photographing
CDS/AGC/ADコンバータ123は、撮像素子121から読み出された撮像信号及び焦点検出用信号に対し、リセットノイズを除去するための相関二重サンプリング、センサゲインの調節、信号のデジタル化を行う。CDS/AGC/ADコンバータ123は、撮像信号を撮像信号処理部124に、撮像面位相差方式の焦点検出用の信号を焦点検出用信号処理部125にそれぞれ出力する。なお、本実施形態では、撮像面位相差方式の焦点検出を用いたシステムについて説明するが、焦点検出の方式はこれに限定されず、位相差方式であれば、どの方式を用いてもよい。
The CDS/AGC/
焦点検出用信号処理部125は、撮像画面内で焦点検出を行う焦点検出領域の設定や配置を行う。そして、焦点検出用信号処理部125は、CDS/AGC/ADコンバータ123から出力された焦点検出用の2つの像信号に対して相関演算を行い、像ずれ量、信頼性情報(二像一致度、二像急峻度)を算出する。
The focus detection
撮像信号処理部124は、CDS/AGC/ADコンバータ123から出力された撮像信号を、バス131を介してSDRAM136に格納する。SDRAM136に格納された画像信号は、バス131を介して表示制御部132によって読み出され、表示部133に表示される。また、撮像信号の記録を行う動作モードでは、SDRAM136に格納された画像信号は記録媒体制御部134によって記録媒体135に記録される。
The imaging
ROM137には、カメラ制御部141が実行する制御プログラム及び制御に必要な各種データ等が格納されており、フラッシュROM138には、ユーザ設定情報等のカメラ本体102の動作に関する各種設定情報等が格納されている。
The
スイッチSW1(139)は、AF(オートフォーカス)やAE(自動露出調節)等の撮影スタンバイ動作を行うためのスイッチであり、スイッチSW2(140)は、スイッチSW1(139)の操作後、撮影を行うためのスイッチである。 The switch SW1 (139) is a switch for performing shooting standby operations such as AF (autofocus) and AE (automatic exposure control). It is a switch to do.
カメラ制御部141では、焦点検出用信号処理部125から出力されるデフォーカス量とデフォーカス量の信頼性とに基づいて、レンズ駆動量を決定する。レンズ駆動量はレンズ制御部117に伝達され、フォーカス制御部116に伝達れることで、AFを実現している。また、操作者からの指示、あるいは、一時的にSDRAM136に蓄積された画像データの画素信号の大きさに基づき、撮像素子121の蓄積時間、CDS/AGC/ADコンバータ123のゲインの設定値、タイミングジェネレータ122の設定値を決定する。
The
次に、撮像素子121の構成について、図2を参照しながら説明する。撮像素子121の画素アレイを図2に示す。
Next, the configuration of the
図2において、画素アレイ200は、単位画素201が行列状に配置されて構成されている。各単位画素201には、マイクロレンズ202が配置されている。フォトダイオード(以下、PD)203a,203bは光電変換素子であり、これら2つのPDによって単一マイクロレンズ202下に配置される単位画素201が構成される。この構成をとることによってPD203a,203bは瞳分割機能を有することになり、撮像光学系の異なる瞳領域を通過した、同一被写体の位相差を持った別々の像を取得することができる。この同一被写体の位相差を持った別々の2像をA像、B像と呼ぶことにし、PD203aはA像用光電変換部、PD203bはB像用光電変換部を構成するものとする。
In FIG. 2, a
次に、カメラ本体102で行われる処理について説明する。カメラ制御部141は、ROM137に記憶されたコンピュータプログラムである撮像処理プログラムに従って以下の処理を行う。
Next, processing performed by the
図3は、カメラ本体102の撮影処理の手順を示すフローチャートである。Sはステップを意味する。
FIG. 3 is a flowchart showing the procedure of photographing processing of the
S301では、カメラ制御部141は、カメラ設定等の初期化処理を行い、S302へ処理を進める。
In S301, the
S302では、カメラ制御部141は、カメラ本体101の撮影モードが動画撮影モードか静止画撮影モードかを判定し、動画撮影モードである場合はS303へ、静止画撮影モードである場合はS304へ処理を進める。
In S302, the
S303では、カメラ制御部141は、動画撮影処理を行いS305へ処理を進める。S304では、カメラ制御部141は、静止画撮影処理を行いS305へ処理を進める。本実施形態では、静止画撮影処理についての詳細説明は省略する。S303の動画撮影処理については図4を参照して後述する。
In S303, the
S305では、カメラ制御部141は、撮影処理が停止されたか否かを判断し、停止されていない場合はS306へ処理を進め、停止された場合は撮影処理を終了する。撮影処理が停止されたときとは、カメラ本体102の電源が切断されたときや、カメラのユーザー設定処理、撮影画像・動画の確認のための再生処理等、撮影以外の動作が行われたときである。
In S305, the
S306では、カメラ制御部141は、撮影モードが変更されたか否かを判断する。変更された場合は、カメラ制御部141はS301に処理を戻し、初期化処理を行った上で変更された撮影モードでの撮像処理を行う。一方、撮影モードが変更されていない場合は、カメラ制御部141はS302に処理を戻し、現在の撮影モードでの処理を継続して行う。
In S306, the
次に、図3のS303で行われる動画撮影処理について、図4のフローチャートを用いて説明する。 Next, the moving image shooting process performed in S303 of FIG. 3 will be described using the flowchart of FIG.
S401では、カメラ制御部141は、動画記録スイッチがオンされているか否かを判断し、オンされている場合はS402へ処理を進め、オンされていない場合はS405へ処理を進める。
In S401, the
S402では、カメラ制御部141は、現在動画記録中か否かを判断し、動画記録中でない場合はS403で動画記録を開始してS405へ処理を進め、動画記録中である場合はS404で動画記録を停止してS405へ処理を進める。本実施形態においては動画記録スイッチを押下するごとに動画の記録開始と停止が行われるが、記録開始と停止とで異なるボタンを用いたり、切り替えスイッチ等を用いたりといった他の方式によって記録開始と停止を行っても構わない。
In S402, the
S405では、カメラ制御部141は、焦点検出処理を行い、S406へ処理を進める。焦点検出処理は、カメラ制御部141及び焦点検出用信号処理部125により行われる、撮像面位相差AFによるデフォーカス情報及び信頼性情報を取得する処理であり、詳細は図5のフローチャートを用いて後述する。
In S405, the
S406では、カメラ制御部141は、動画の記録モードがレビューモードか否かを判定し、レビューモードが設定されている場合はS408へ、レビューモードが設定されていない場合はS407へ処理を進める。ここで、レビューモードとは、動画配信等で商品を紹介する動画記録に特化したモードであり、本実施形態では、レビューモードの入切を切り替えることで後述する焦点検出処理手法を切り替えている。
In S406, the
S407では、カメラ制御部141は、S405の焦点検出処理の結果を受けて顔優先AFを実施する。顔優先AFの詳細は図7のフローチャートを参照して説明する。
In S407, the
S408では、カメラ制御部141は、S405の焦点検出処理の結果を受けて、本実施形態の特徴的な処理である顔深度内AF処理を実施する。顔深度内AFは、レビューモード専用のAF処理であり、詳細は図10のフローチャートを参照して説明する。カメラ制御部141は、S407、S408の処理を終えると動画撮影処理を終了する。
In S408, the
次に、図4のS405の焦点検出処理について図5を用いて説明する。 Next, the focus detection processing of S405 in FIG. 4 will be described with reference to FIG.
まず、S501では、カメラ制御部141は、撮像素子121内の任意の範囲の焦点検出領域を複数設定してS502へ処理を進める。
First, in S501, the
S502では、カメラ制御部141は、S501で設定した焦点検出領域に対して撮像素子121から焦点検出用の一対の像信号(A像、B像)を取得してS503へ処理を進める。
In S502, the
S503では、カメラ制御部141は、S502で取得した一対の像信号に対して、垂直方向に行加算平均処理を行った後、S504へ処理を進める。S503での処理によって像信号へのノイズの影響を軽減することができる。
In S503, the
S504では、カメラ制御部141は、S503で垂直行加算平均した信号から所定の周波数帯域の信号成分を取り出すフィルタ処理を行った後、S505へ処理を進める。本実施形態では、信号の低域成分を抽出する低域フィルタと、高域成分を抽出する高域フィルタを用いるが、低域フィルタと高域フィルタの中間の周波数成分を抽出できる中域フィルタを加えるなど3種類以上のフィルタを用いてもよい。
In S504, the
S505では、カメラ制御部141は、S504でフィルタ処理した信号から相関量を算出してS506へ処理を進める。
In S505, the
S506では、カメラ制御部141は、S505で算出した相関量から相関変化量を算出してS507へ処理を進める。
In S506, the
S507では、カメラ制御部141は、S506で算出した相関変化量から像ずれ量を算出してS508へ処理を進める。
In S507, the
S508では、カメラ制御部141は、像ずれ量に変換係数を乗算してデフォーカス量に変換し、S509へ処理を進める。この変換係数はズームレンズ位置、絞り値、撮像面の像高に応じてカメラで記憶している。
In S508, the
S509では、カメラ制御部141は、S508で算出したデフォーカス量がどれだけ信頼できるのかを表す信頼性を判定して、S510に処理を進める。信頼性はS505やS506の処理の際に算出した評価値に基づいてデフォーカス量の標準偏差を推定し、その標準偏差に対して段階的な閾値を設定しておくことで判定する。ただし、信頼性判定の方法はこの方法に限定されず、他の手法を用いてもよい。
In S509, the
カメラ制御部141は、S509を終えるとS510に処理を進め、S501で設定した全ての焦点検出領域に対して処理を終えたか否かを判定する。カメラ制御部141は、全ての焦点検出領域に対して処理を終えていない場合は、S502に処理を戻し、次の焦点検出領域に対して処理を行う。カメラ制御部141は、S510で全ての焦点検出領域に対して処理を終えたと判定した場合は、焦点検出処理を終了する。
After completing S509, the
次にS407、S408のAF処理について説明する。処理フローチャートを説明する前に、まずはレビューモードを使用するシーンについて図6を用いて説明する。 Next, the AF processing of S407 and S408 will be described. Before describing the processing flowchart, first, a scene in which the review mode is used will be described with reference to FIG.
背景技術でも説明した通り、図6(a)、6(b)、6(c)は、商品紹介をする動画における代表的なシーンを示しており、それぞれ下記を意味する。
(a)主となる人のみを撮影するシーン
(b)商品を前に掲げて商品を紹介するシーン
(c)商品を使用するシーン
本実施形態では、化粧品を紹介するシーンを例として説明する。符号601は商品を紹介する紹介者を示し、符号602は紹介する商品を示している。また、符号603は化粧品を示し、符号604は手鏡を示している。それぞれのシーンに対してピントを合わせたい対象は異なり、(a)では紹介者が話しているシーンなので、紹介者601にピントを合わせたいと考えられる。(b)では商品を強調したいので、商品602にピントを合わせたいと考えられる。(c)では化粧した時の変化の様子を強調したいので、紹介者601にピントを合わせたいと考えられる。
As described in Background Art, FIGS. 6(a), 6(b), and 6(c) show representative scenes in a product introduction video, and each means the following.
(a) A scene in which only the main person is photographed (b) A scene in which a product is displayed in front to introduce the product (c) A scene in which the product is used In this embodiment, a scene in which cosmetics are introduced will be described as an example.
次に、これらのシーンに対して、従来のAF処理(顔優先AF、至近優先AF)では、ピントを合わせたい対象にピントが合わせられない場合があることについて説明する。 Next, a description will be given of the fact that, with conventional AF processing (face-priority AF, closest-priority AF), there are cases where an object to be focused on is not brought into focus in these scenes.
まず、S407の顔優先AFの処理と、商品紹介動画において顔優先AFを用いたときの課題について、図7のフローチャートと図8を用いて説明する。なお、本実施形態では、S407の顔優先AFが実行されるのは、S406でレビューモードが選択されていない場合である。 First, the processing of face-priority AF in S407 and problems when face-priority AF is used in a product introduction video will be described with reference to the flowchart of FIG. 7 and FIG. Note that in the present embodiment, the face priority AF in S407 is executed when the review mode is not selected in S406.
S407において、顔優先AFが開始されると、カメラ制御部141は、S701に処理を進め、顔検出処理(被写体検出処理)を行う。顔検出処理では、撮像信号処理部124から出力される撮像信号に対してテンプレートマッチングの手法を適用し、撮像面上の顔の位置を検出する。
In S407, when face priority AF is started, the
S702では、カメラ制御部141は、S701において顔が検出されたか否かを判定し、顔が検出された場合はS703に処理を進め、顔が検出されていない場合はS708に処理を進める。
In S702, the
S703では、カメラ制御部141は、瞳検出処理を行う。瞳検出処理もS701と同様の手法で行われ、撮像面上の瞳の位置が検出される。なお、S701、S703の検出処理はテンプレートマッチングに限定されず、深層学習など別の手法で行ってもよい。
In S703, the
S704では、カメラ制御部141は、S703の瞳検出処理により瞳が検出されたか否かを判定し、瞳が検出された場合はS705に処理を進め、検出されなかった場合はS707に処理を進める。
In S704, the
S705では、カメラ制御部141は、S501で設定した焦点検出領域の中から、検出された瞳位置に近い領域のデフォーカス量が示すレンズ位置をフォーカスレンズ位置の目標位置に決定する。
In S705, the
S706では、カメラ制御部141は、目標位置にフォーカスレンズを駆動して、顔優先AFの処理を終了する。
In S706, the
一方、S707では、カメラ制御部141は、S501で設定した焦点検出領域の中で顔検出範囲内の領域のデフォーカス量が示すレンズ位置をフォーカスレンズの目標位置として設定する。そして、S706で目標位置にフォーカスレンズを駆動する。
On the other hand, in S707, the
S708では、カメラ制御部141は、S501で設定した複数の焦点検出領域の中で最至近の被写体に対応する領域のデフォーカス量が示すレンズ位置をフォーカスレンズの目標位置として設定する。そして、S706で目標位置にフォーカスレンズを駆動する。ここで、S708で最至近の被写体に対応する焦点検出領域を選ぶ際に、中央像高に近い領域を優先したり、中央に近い領域に限定したりしてもよい。また、顔や瞳が検出できていなくても、撮像信号処理部124から出力される撮像信号の色情報に基づいて、撮像面上に顕著な領域を判定できた場合は、その領域を優先してもよい。
In S708, the
次に、図7で説明した顔優先AFの処理手順で商品の動画撮影を行った場合にどのようにAF動作がなされるかについて、図8(a)を用いて説明する。 Next, FIG. 8A will be used to explain how the AF operation is performed when a moving image of a product is photographed in accordance with the face-prioritized AF processing procedure described with reference to FIG.
図8において、符号801は撮像装置を示し、紹介者601と商品602(603,604)を撮影している。太破線802は、紹介者601の顔(または瞳)のデフォーカス量によって算出されるフォーカスレンズ位置を示し、以降このフォーカスレンズ位置を基準点と定義する。太破線803は、商品602(603,604)のデフォーカス量によって算出されるフォーカスレンズ位置を示し、以降このフォーカスレンズ位置を着目点と定義する。一点鎖線804はAF処理後のフォーカスレンズ位置を示しており、S407の顔優先AFの処理フローでAF処理した結果、太破線802と同じ位置となる。符号805,806は、絞り113によって決まる被写界深度の至近端と無限端を示しており、805で示す位置と806で示す位置の間に存在する被写体は、被写界深度内にあるため、ピントが合っていると言える。
In FIG. 8,
図8(a)の場合、基準点802は被写界深度内に存在するため、紹介者601の顔(瞳)にはピントが合っているが、着目点803は被写界深度外に位置するため、商品602はピントが合っていない。つまり顔優先AFでは、商品にピントを合わせたいという図6(b)の要件を満たすことができない。
In the case of FIG. 8A, since the
次に、至近優先AFの処理と、商品紹介動画において至近優先AFを利用した場合の課題について、図9と図8(b)を用いて説明する。まず、図9のフローチャートを用いて、至近優先AFの処理について説明する。 Next, the processing of the closest object priority AF and the problem when the object introduction moving image uses the closest object priority AF will be described with reference to FIGS. 9 and 8B. First, the close distance priority AF process will be described with reference to the flowchart of FIG.
まず、S901では、カメラ制御部141は、S501で設定した複数の焦点検出領域の中で最至近の被写体に対応する領域のデフォーカス量が示すレンズ位置をフォーカスレンズの目標位置として設定する。
First, in S901, the
S902では、カメラ制御部141は、目標位置に向けてフォーカスレンズを駆動させる。S901では、図7の顔優先AFの処理フローのS708と同様に、中央領域の情報や、色情報を用いて焦点検出領域の選択方法を変えてもよい。
In S902, the
次に、図8(b)を用いて、商品紹介動画において至近優先AF処理を利用した場合の課題について説明する。図8(b)では着目点803が最至近のデフォーカス量を出力する対象となるため、フォーカスレンズ位置804は着目点803と同じ位置になり、商品602にはピントが合う。しかしその結果、基準点802は被写界深度(符号805と806の間の範囲)外となり、紹介者601の顔(瞳)にはピントが合わない。つまり至近優先AFでは、紹介者にピントを合わせたいという図6(c)の要件を満たすことができない。なお、図6(a)については、基準点と着目点が一致するため、至近優先AFの処理でも紹介者601にピントを合わせることができる。
Next, with reference to FIG. 8(b), a problem when the close distance priority AF processing is used in the product introduction video will be described. In FIG. 8B, the
このように、従来のAF処理である顔優先AFと至近優先AFでは、商品紹介動画の各シーンに求められるピントの要件を満たすことができないことがわかる。これらの課題に対して、本実施形態では顔深度内AFを実施している。次に顔深度内AFの処理と、商品紹介動画におけるピント位置について、図10から図13を用いて説明する。 As described above, it can be seen that the face priority AF and the close distance priority AF, which are conventional AF processes, cannot satisfy the focus requirements required for each scene of the product introduction video. In order to solve these problems, the intra-face-depth AF is performed in the present embodiment. Next, the intra-face-depth AF processing and the focus position in the product introduction video will be described with reference to FIGS. 10 to 13. FIG.
図10において、顔深度内AFの処理が開始されると、カメラ制御部141は、S1001に処理を進め、基準点決定処理を行う。基準点は前述した通り、紹介者の顔(瞳)のデフォーカス量によって算出されるフォーカスレンズ位置を示し、基準点決定処理の詳細は、図11を用いて後述する。
In FIG. 10, when intra-face-depth AF processing is started, the
S1002では、カメラ制御部141は、着目点決定処理を行う。着目点は前述した通り、商品のデフォーカス量によって算出されるフォーカスレンズ位置を示し、着目点決定処理の詳細は、図13を用いて後述する。
In S1002, the
S1003では、カメラ制御部141は、S1001において基準点を決定できたか否かを判定し、基準点を決定できていればS1004に処理を進め、基準点を決定できていなければS1005に処理を進める。
In S1003, the
S1004では、カメラ制御部141は、フォーカスレンズの目標位置を着目点が被写界深度の最至近(至近端あるいはその近傍)になるレンズ位置としている。ここで、S509で判定されたデフォーカス量の信頼性が低い場合、デフォーカス量の誤差が大きいことが想定される。そのため、着目点に対して所定量至近側の位置に被写界深度の最至近が来るようにフォーカスレンズを制御してもよい。このように処理することで、デフォーカス量の誤差があっても、商品を被写界深度内に収めることが可能となる。また、着目点にピントが合うように基準点から至近方向にレンズを動かし続けた場合、基準点が被写界深度に入っている場合はフォーカスレンズを移動し続け、基準点が被写界深度に入らなくなった場合はフォーカスレンズの移動を停止させる。あるいは、着目点にピントが合うように基準点から至近方向にレンズを動かし続けた場合、基準点が被写界深度に入っている場合はフォーカスレンズを移動し続け、基準点が被写界深度に入らなくなった場合は、基準点と着目点が被写界深度に収まるように絞り113を制御してもよい。
In S1004, the
S1005では、カメラ制御部141は、フォーカスレンズの目標位置を着目点として処理する。
In S1005, the
S1004でフォーカスレンズの目標位置が決定した後、S1006では、カメラ制御部141は、フォーカスレンズの目標位置が基準点より無限側の場合はフォーカスレンズの目標位置を基準点に変更する。この処理の意図は、商品紹介動画において紹介者より前に商品を持ってくることが一般的であるためである。
After the target position of the focus lens is determined in S1004, in S1006, the
S1007では、カメラ制御部141は、S1005とS1006で決定した目標位置に向けてフォーカスレンズを駆動させて処理を終了する。
In S1007, the
次に、図11のフローチャートを用いて、基準点決定処理について説明する。 Next, reference point determination processing will be described using the flowchart of FIG. 11 .
基準点決定処理が開始されると、カメラ制御部141は、S1101に処理を進め、顔検出処理を実施する。顔検出処理の手法は前述したS701と同様の処理である。
When the reference point determination process is started, the
S1102では、カメラ制御部141は、前回基準点として選択された顔(最後に検出された顔)と同じ顔がS1101において検出されたか否かを判定し、検出された場合はS1103へ処理を進め、検出されなかった場合はS1110に処理を進める。同じ顔かどうかの判断は、画像のマッチング手法等を用いて実現するが、この方法に限定されず顔の一致を確認できる方法ならどのような方法でもよい。同じ顔か判断することにより、図12(a)のように紹介者601の他に第三者1201や1202がいても、紹介者は切り替わらずに同じ基準点を維持できる。
In S1102, the
S1103では、カメラ制御部141は、前回基準点として選択した顔と同じ人物の顔を主顔とする。S1104では、カメラ制御部141は、主顔に対して瞳検出処理を実施する。
In S1103, the
S1105では、カメラ制御部141は、S1104において主顔の瞳が検出できたか否かを判定し、瞳が検出できた場合はS1106に処理を進め、瞳が検出できていない場合はS1107に処理を進める。
In S1105, the
S1106では、カメラ制御部141は、基準点をS1104で検出した瞳位置の焦点検出領域のデフォーカス量によって決まるフォーカスレンズ位置とする。S1107では、カメラ制御部141は、基準点を顔検出範囲内のデフォーカス量によって決まるフォーカスレンズ位置とする。
In S1106, the
S1108では、カメラ制御部141は、基準点を保存する。S1109では、カメラ制御部141は、基準点として選択した主顔を保存し処理を終了する。
In S1108, the
S1102で前回基準点とした顔と同じ顔が検出されなかった場合、S1110では、カメラ制御部141は、現在から過去所定時間以内にS1109において主顔が保存されたか否かを判定する。カメラ制御部141は、主顔が保存されている場合はS1111に処理を進め、前回保存した基準点を基準点として決定する。そしてS1112においてその基準点を保存(所定時間維持)する。S1102とS1110とS1111の処理を実施することで、図12(b)のように、紹介する商品1203で顔が隠れたり、商品1203に顔写真がついていたりしても、主顔は切り替わらず同じ基準点を維持することが可能である。
If the same face as the previous reference point was not detected in S1102, in S1110 the
一方、S1110で主顔が保存されていない場合は、カメラ制御部141は、S1113に処理を進め、S1101において所定時間経過した後に一人以上の顔が検出されたか否かを判定する。カメラ制御部141は、一人以上の顔が検出されている場合はS1114に処理を進め、最も中央像高に近い顔を主顔として更新する。これは所定時間以上、主顔だった人物が検出されなかったため、主顔を切り替える処理である。その後は、カメラ制御部141は、S1104に処理を進め、前述した処理と同様の処理を実施する。
On the other hand, if the main face is not saved in S1110, the
S1113において顔が一人も検出されなかった場合は、カメラ制御部141は、S1115に処理を進め、基準点を決定できないまま基準点決定処理を終了する。
If no face is detected in S1113, the
続いて、S1002の着目点決定処理について図13のフローチャートを用いて説明する。 Next, the focus point determination processing of S1002 will be described using the flowchart of FIG.
着目点決定処理が開始されると、カメラ制御部141は、S1301に処理を進め、ユーザーによる着目点の指定があるか否かを判定する。ユーザーが着目点を指定する方法としては、タッチパネルのLV(ライブビュー)画面上をタッチして対象を指定したり、ダイヤルなどでLV画面上の座標を指定したりする方法が挙げられる。しかし、本実施形態では、これらの手法に限定されず、着目点を指定できるどのような手法を用いてもよい。
When the focus point determination process is started, the
S1301でユーザー指定があった場合、カメラ制御部141は、S1302に処理を進め、ユーザー指定が無かった場合、S1303に処理を進める。
If there is user designation in S1301, the
S1302では、カメラ制御部141は、着目点をユーザー指定座標のデフォーカス量が示すレンズ位置として処理を終了する。S1303では、カメラ制御部141は、着目点を最至近の被写体のデフォーカス量が示すレンズ位置として処理を終了する。
In S1302, the
図14では、それぞれ(a)商品が無いシーン、(b)商品が紹介者に近いシーン、(c)商品が紹介者から遠いシーンを示している。まず、図14(a)では商品が無いため、基準点802と着目点803は同じ位置となる。S1006によりフォーカスレンズ位置は基準点802より無限側に駆動されないため、図14(a)のフォーカスレンズ位置は804で示す位置となる。
FIG. 14 shows (a) a scene in which there is no product, (b) a scene in which the product is close to the introducer, and (c) a scene in which the product is far from the introducer. First, since there is no product in FIG. 14A, the
図14(b)では、商品602が存在するため、着目点は803で示す位置となる。この場合、S1004の処理により、着目点803が被写界深度の最至近位置805の位置と重なるようにフォーカスレンズが制御されるため、フォーカスレンズ位置は804の位置となる。この制御により、図14(b)では基準点802と着目点803の両方が被写界深度内(805と806で示す位置の間の範囲)に位置するため、図6(c)の要件を満たすことができる。
In FIG. 14B, since the
図14(c)でも、図14(b)と同様に、着目点803が被写界深度の最至近位置805の位置と重なるようにフォーカスレンズが制御されるため、フォーカスレンズ位置は804で示す位置となる。これにより図6(b)において、商品と紹介者が離れている場合でもピント位置の要件を満たすことができる。また、図14(c)では基準点802が被写界深度外になるため、ピントが合わなくなるが、至近優先AFでピントを合わせる場合に比べてフォーカスレンズ位置が基準点に近くなるため、紹介者の顔(瞳)のボケ量は最小限に抑えることができる。
In FIG. 14C, similarly to FIG. 14B, the focus lens is controlled so that the point of
以上説明したように、本実施形態の顔深度内AF処理を行うことにより、商品紹介動画における図6に示すような各シーンにおいて、紹介者がピントを合わせたい対象にピントを合わせることが可能となる。 As described above, by performing intra-face-depth AF processing according to the present embodiment, it is possible to focus on an object that the introducer wants to focus on in each scene of the product introduction video shown in FIG. Become.
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。まず、本実施形態と第1の実施形態との差分について説明する。第1の実施形態と第2の実施形態の差は顔深度内AFの処理内容にある。
(Second embodiment)
A second embodiment of the present invention will be described below. First, differences between the present embodiment and the first embodiment will be described. The difference between the first embodiment and the second embodiment lies in the processing contents of intra-face-depth AF.
第1の実施形態では商品にピントを合わせることを優先していたが、第2の実施形態では商品を手前に掲げた場合には、顔(瞳)にピントを合わせることを優先して、常に基準点が被写界深度に入るようにしている。以下、第2の実施形態の詳細について説明する。 In the first embodiment, priority is given to focusing on the product, but in the second embodiment, when the product is held in front, priority is given to focusing on the face (eyes), always Make sure the reference point is within the depth of field. Details of the second embodiment will be described below.
本実施形態における撮像装置の構成は、第1の実施形態で説明した図1の構成と同様であるため説明を省略する。また、図10を除く図2から図13までの説明も第1の実施形態と同様であるため説明を省略する。 The configuration of the imaging apparatus in this embodiment is the same as the configuration in FIG. 1 described in the first embodiment, so description thereof will be omitted. 2 to 13 except for FIG. 10 are the same as those of the first embodiment, so the description is omitted.
第2の実施形態の顔深度内AFの処理について図15のフローチャートと、図16を用いて説明する。S1001~S1007については、第1の実施形態の図10のフローチャートと同様であるため説明を省略する。 The intra-face-depth AF processing of the second embodiment will be described with reference to the flowchart of FIG. 15 and FIG. Since S1001 to S1007 are the same as those in the flowchart of FIG. 10 of the first embodiment, description thereof will be omitted.
S1003において基準点を決定できた後、カメラ制御部141は、S1501に処理を進め、基準点と着目点の両点が被写界深度内に入るかを判定する。カメラ制御部141は、両点が被写界深度内に入ると判定した場合はS1004に処理を進め、両点が被写界深度内に入らないと判定した場合はS1502に処理を進める。
After the reference point is determined in S1003, the
S1502では、カメラ制御部141は、フォーカスレンズの目標位置を基準点が被写界深度の最無限になるフォーカスレンズ位置に設定する。このとき、S509で判定したデフォーカス量の信頼性が低い場合、デフォーカス量の誤差を加味して基準点よりも所定量無限側に被写界深度の最無限が来るようにフォーカスレンズを制御してもよい。このように処理することで、デフォーカス量に誤差があっても、紹介者の顔(瞳)を被写界深度に収めることが可能となる。
In S<b>1502 , the
S1503では、LV(ライブビュー)画面上に警告を表示し、紹介者に商品にピントが合っていないことを通知する。このとき、絞り113を絞って被写界深度を広げたり、商品を紹介者側に引いて被写界深度に収まる位置に移動したりするように紹介者に提案してもよい。
In S1503, a warning is displayed on the LV (live view) screen to notify the introducer that the product is out of focus. At this time, the introducer may be suggested to narrow down the
次に、図16を用いて第2の実施形態のAF動作について説明する。図16(a)のように商品602が紹介者の前に掲げられた場合、基準点802が被写界深度に収まるように最無限806と一致するレンズ位置を限界としてフォーカスレンズ位置を804の位置に制御する。このように制御することで、紹介者の顔(瞳)に常にピントを合わせ続けることが可能となる。一方、被写界深度の至近端は、符号805で示す位置となるため、商品602にはピントが合わない。
Next, the AF operation of the second embodiment will be described using FIG. When a
この場合、本実施形態では、図16(b)の1601に示すように、商品にピントが合っていないことを通知する警告表示を出すことにより、紹介者に対して商品にピントを合わせるための動作を促すことが可能となる。 In this case, in this embodiment, as shown in 1601 in FIG. 16B, by displaying a warning display notifying that the product is out of focus, the introducer is instructed to focus on the product. It is possible to encourage action.
(第3の実施形態)
以下、本発明の第3の実施形態について説明する。まず、本実施形態と第1の実施形態との差分について説明する。第1の実施形態と第3の実施形態の差は顔深度内AFの処理内容にある。
(Third embodiment)
A third embodiment of the present invention will be described below. First, differences between the present embodiment and the first embodiment will be described. The difference between the first embodiment and the third embodiment lies in the processing contents of intra-face-depth AF.
第1の実施形態では、商品にピントを合わせることを優先していたが、第3の実施形態では商品を紹介者の前に掲げた場合には、絞り113を制御することで、基準点と着目点の両点が被写界深度に入るように制御している。以下、第3の実施形態の詳細について説明する。
In the first embodiment, priority is given to focusing on the product, but in the third embodiment, when the product is placed in front of the introducer, by controlling the
本実施形態における撮像装置の構成は、第1の実施形態で説明した図1の構成と同様であるため説明を省略する。また、図10を除く図2から図13までの説明も第1の実施形態と同様であるため説明を省略する。 The configuration of the imaging apparatus in this embodiment is the same as the configuration in FIG. 1 described in the first embodiment, so description thereof will be omitted. 2 to 13 except for FIG. 10 are the same as those of the first embodiment, so the description is omitted.
第3の実施形態の顔深度内AFの処理について図17のフローチャートと、図18を用いて説明する。S1001からS1007については、第1の実施形態の図10のフローチャートと同様であるため説明を省略する。 The intra-face-depth AF processing of the third embodiment will be described with reference to the flowchart of FIG. 17 and FIG. Since S1001 to S1007 are the same as those in the flowchart of FIG. 10 of the first embodiment, description thereof will be omitted.
S1003において基準点を決定できた後、カメラ制御部141は、S1501に処理を進め、基準点と着目点の両点がユーザーが設定した絞り値による被写界深度内に入るか否かを判定する。カメラ制御部141は、両点が被写界深度内に入ると判定した場合はS1701に処理を進め、被写界深度内に入っていないと判定した場合はS1702に処理を進める。S1701とS1702では絞り113の絞り値を別の手法で設定する。
After the reference point is determined in S1003, the
S1701では、カメラ制御部141は、絞り113をユーザーが設定した絞り値に設定しS1004に処理を進める。一方、S1702では、カメラ制御部141は、基準点と着目点の両点が被写界深度に入るように絞り113を設定して、S1004に処理を進める。S1702の処理を実施することで、紹介者の顔(瞳)と商品の両方にピントを合わせることが可能となる。
In S1701, the
次に図18を用いて、図17で示した処理の内容について説明する。図18(a)は紹介者と商品が近いシーンで、図18(b)は紹介者と商品が遠いシーンである。 Next, the contents of the processing shown in FIG. 17 will be described with reference to FIG. FIG. 18(a) is a scene in which the introducer is close to the product, and FIG. 18(b) is a scene in which the introducer is far from the product.
図18(a)では、基準点802と着目点803がユーザーの設定した絞り値による被写界深度(805と806で示す位置の間の範囲)に収まるため、第1の実施形態と同様に着目点と被写界深度の最至近805が重なるフォーカスレンズ位置804にフォーカスレンズを駆動している。図18(b)では、基準点802と着目点803がユーザーの設定した絞り値による被写界深度内に入らない。そのため、絞り113を絞り、被写界深度(805と806で示す位置の間の範囲)を広げることで、基準点802と着目点803が被写界深度に入るように制御する。
In FIG. 18A, the
このように制御することで、商品を大きく前に掲げた際も、絞り値113を最低限開きながら紹介者の顔(瞳)と商品の両方にピントを合わせることが可能となる。
By controlling in this way, even when the product is placed in front, it is possible to focus on both the introducer's face (eyes) and the product while opening the
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
In addition, the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads the program. It can also be realized by executing processing. It can also be implemented by a circuit (eg, ASIC) that implements one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.
101:レンズユニット、102:カメラ本体、111:撮影レンズ、112:固定レンズ、113:絞り、114:フォーカスレンズ、115:絞り制御部、116:フォーカス制御部、117:レンズ制御部、121:撮像素子、141:カメラ制御部 101: lens unit, 102: camera body, 111: photographing lens, 112: fixed lens, 113: aperture, 114: focus lens, 115: aperture control unit, 116: focus control unit, 117: lens control unit, 121: imaging element 141: camera control unit
Claims (16)
撮像光学系の異なる瞳領域を通過した被写体像から一対の焦点検出用信号を取得し、該一対の焦点検出用信号に基づいて、被写体のデフォーカス量を検出する焦点検出手段と、
前記焦点検出手段によって得られた前記着目点のデフォーカス量に基づいて、前記着目点が被写界深度内の至近端あるいはその近傍の位置となるように、フォーカスレンズの位置を制御する制御手段と、
を備えることを特徴とする撮像装置。 Point-of-interest determination means for determining a point of interest in the field;
focus detection means for acquiring a pair of focus detection signals from a subject image that has passed through different pupil regions of an imaging optical system and detecting a defocus amount of the subject based on the pair of focus detection signals;
Control for controlling the position of the focus lens based on the defocus amount of the point of interest obtained by the focus detection means so that the point of interest is positioned at or near the closest end within the depth of field. means and
An imaging device comprising:
撮像光学系の異なる瞳領域を通過した被写体像から一対の焦点検出用信号を取得し、該一対の焦点検出用信号に基づいて、被写体のデフォーカス量を検出する焦点検出工程と、
前記焦点検出工程において得られた前記着目点のデフォーカス量に基づいて、前記着目点が被写界深度内の至近端あるいはその近傍の位置となるように、フォーカスレンズの位置を制御する制御工程と、
を有することを特徴とする撮像装置の制御方法。 A point-of-interest determination step of determining a point of interest in the field;
a focus detection step of acquiring a pair of focus detection signals from a subject image that has passed through different pupil regions of an imaging optical system, and detecting a defocus amount of the subject based on the pair of focus detection signals;
Control for controlling the position of the focus lens so that the point of interest is at or near the closest end within the depth of field, based on the defocus amount of the point of interest obtained in the focus detection step. process and
A control method for an imaging device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021191440A JP2023077931A (en) | 2021-11-25 | 2021-11-25 | Imaging apparatus, and control method, program and storage medium thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021191440A JP2023077931A (en) | 2021-11-25 | 2021-11-25 | Imaging apparatus, and control method, program and storage medium thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023077931A true JP2023077931A (en) | 2023-06-06 |
Family
ID=86622833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021191440A Pending JP2023077931A (en) | 2021-11-25 | 2021-11-25 | Imaging apparatus, and control method, program and storage medium thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023077931A (en) |
-
2021
- 2021-11-25 JP JP2021191440A patent/JP2023077931A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6825073B2 (en) | Imaging equipment, control methods, and programs | |
EP2590421B1 (en) | Single-lens stereoscopic image capture device | |
CN108737696B (en) | Image pickup apparatus, control method, and non-transitory storage medium | |
JP5371845B2 (en) | Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus | |
JP2013013050A (en) | Imaging apparatus and display method using imaging apparatus | |
JP2009094724A (en) | Imaging apparatus | |
JP4799366B2 (en) | Imaging apparatus and image reproduction apparatus | |
JP2008139683A (en) | Imaging apparatus and autofocus control method | |
JP2013008004A (en) | Imaging apparatus | |
JP2019121860A (en) | Image processing apparatus and control method therefor | |
JP2011217103A (en) | Compound eye photographing method and apparatus | |
US20080018774A1 (en) | Image capture device | |
EP2590024A1 (en) | Imaging apparatus and imaging method | |
JP3091628B2 (en) | Stereoscopic video camera | |
JP2020003760A (en) | Imaging apparatus and control method of the same | |
JP2013160991A (en) | Imaging apparatus | |
JP2007225897A (en) | Focusing position determination device and method | |
JP5780752B2 (en) | Automatic focus adjustment device and automatic focus adjustment method | |
JP5328528B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP5366693B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM | |
JP5607458B2 (en) | Imaging apparatus and control method thereof | |
JP2023077931A (en) | Imaging apparatus, and control method, program and storage medium thereof | |
US20130076867A1 (en) | Imaging apparatus | |
JP7353868B2 (en) | Lens control device and its control method | |
JP2006157604A (en) | Camera apparatus and automatic photographing control program |