JP2020046615A - Control device, imaging apparatus, control method, program, and storage medium - Google Patents

Control device, imaging apparatus, control method, program, and storage medium Download PDF

Info

Publication number
JP2020046615A
JP2020046615A JP2018176909A JP2018176909A JP2020046615A JP 2020046615 A JP2020046615 A JP 2020046615A JP 2018176909 A JP2018176909 A JP 2018176909A JP 2018176909 A JP2018176909 A JP 2018176909A JP 2020046615 A JP2020046615 A JP 2020046615A
Authority
JP
Japan
Prior art keywords
sensor
distance information
reliability
control device
image blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018176909A
Other languages
Japanese (ja)
Inventor
拓生 土屋
Takuo Tsuchiya
拓生 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018176909A priority Critical patent/JP2020046615A/en
Publication of JP2020046615A publication Critical patent/JP2020046615A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

To provide a control device capable of performing precise image stabilization in panning shooting.SOLUTION: A control device (110) includes: detection means (110a) that detects motion information of a subject; acquisition means (110b) that acquires a piece of distance information on the basis of a focus signal from a first sensor (302) or a second sensor (303) of phase difference detection type arranged in different directions; and correction means (110c) that performs image stabilization on the basis of the motion information and the distance information. The correction means performs the image stabilization using the distance information from the selected first sensor or second sensor on the basis of the panning direction.SELECTED DRAWING: Figure 7

Description

本発明は、流し撮り撮影を補助するために像ブレ補正を行うことが可能な撮像装置に関する。   The present invention relates to an imaging apparatus capable of performing image blur correction to assist panning shooting.

移動被写体のスピード感を表現する撮影技術として、流し撮り撮影が知られている。流し撮り撮影は、ユーザが被写体の動きに合わせて撮像装置をパンニングすることにより、移動被写体を静止させて背景を流すことを目的としている。通常、流し撮り撮影は、被写体の移動速度に合わせてシャッター速度を低速にし、露光時間を通常よりも長く設定することにより行われる。しかしながら、シャッター速度を低速にすると、手ブレや被写体ブレが発生しやすくなる。また、被写体の移動に合わせて撮像装置をパンニングさせるため、被写体速度とパンニング速度とが一致していないと、主被写体ブレが発生する。   As a photographing technique for expressing a sense of speed of a moving subject, panning photographing is known. The panning shooting is intended for a user to pan the imaging apparatus in accordance with the movement of the subject, thereby stopping the moving subject and flowing the background. Normally, panning shooting is performed by setting the shutter speed to be low in accordance with the moving speed of the subject and setting the exposure time longer than usual. However, when the shutter speed is set to a low speed, camera shake and subject shake are likely to occur. Further, since the imaging apparatus is panned in accordance with the movement of the subject, if the subject speed does not match the panning speed, main subject blur occurs.

特許文献1には、撮像装置で連続的に撮影された複数のフレームから画面内の領域ごとの移動量に基づいて動きベクトルを検出し、デフォーカス量を用いて主被写体と背景とを特定して流し撮り撮影を行う画像処理装置が開示されている。   Patent Literature 1 discloses that a motion vector is detected from a plurality of frames continuously captured by an imaging device based on a moving amount of each region in a screen, and a main subject and a background are identified using a defocus amount. An image processing apparatus that performs panning shot shooting is disclosed.

特開2016−171460号公報JP-A-2006-171460

しかしながら、特許文献1に開示された画像処理装置では、動きベクトルの検出領域とデフォーカス量の算出領域とが一致している必要がある。一方、ファインダーを使用した流し撮り撮影を行う場合、測光センサと測距センサの光学系は互いに異なるため、動きベクトルの検出領域とデフォーカス領域の算出領域とが同じであるとは限らない。また、測距センサは複数のセンサを組み合わせて特定の1点の情報を決定するため、動きベクトルの検出領域に対して複数のデフォーカス量が生成され、いずれのデフォーカス量を使用すべきか一意に決定することができない場合がある。その結果、流し撮り撮影において高精度な像ブレ補正を行うことができない。   However, in the image processing device disclosed in Patent Literature 1, the motion vector detection region and the defocus amount calculation region need to match. On the other hand, when performing panning shooting using a finder, since the optical systems of the photometric sensor and the distance measuring sensor are different from each other, the motion vector detection area and the defocus area calculation area are not necessarily the same. In addition, since the distance measurement sensor determines information of a specific point by combining a plurality of sensors, a plurality of defocus amounts are generated for a motion vector detection area, and it is determined which defocus amount should be used. May not be determined. As a result, high-precision image blur correction cannot be performed in panning shooting.

そこで本発明は、流し撮り撮影において高精度な像ブレ補正を行うことが可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することを目的とする。   Therefore, an object of the present invention is to provide a control device, an imaging device, a control method, a program, and a storage medium that can perform high-precision image blur correction in panning shooting.

本発明の一側面としての制御装置は、被写体の動き情報を検出する検出手段と、異なる方向に配置された位相差検出方式の第1センサまたは第2センサからの焦点信号に基づいて距離情報を取得する取得手段と、前記動き情報と前記距離情報とに基づいて像ブレ補正を行う補正手段とを有し、前記補正手段は、パンニング方向に基づいて選択された前記第1センサまたは前記第2センサからの前記距離情報を用いて前記像ブレ補正を行う。   A control device according to one aspect of the present invention includes: a detection unit configured to detect movement information of a subject; and a distance information based on a focus signal from a first sensor or a second sensor of a phase difference detection method arranged in different directions. Acquiring means for acquiring, and correcting means for performing image blur correction based on the motion information and the distance information, wherein the correcting means selects the first sensor or the second sensor selected based on a panning direction. The image blur correction is performed using the distance information from the sensor.

本発明の他の側面としての撮像装置は、撮像光学系を介して形成された光学像を光電変換する撮像素子と、前記制御装置とを有する。   An imaging device according to another aspect of the present invention includes an imaging device that photoelectrically converts an optical image formed via an imaging optical system, and the control device.

本発明の他の側面としての制御方法は、被写体の動き情報を検出するステップと、異なる方向に配置された位相差検出方式の第1センサまたは第2センサからの焦点信号に基づいて距離情報を取得するステップと、前記動き情報と前記距離情報とに基づいて像ブレ補正を行うステップとを有し、前記像ブレ補正を行うステップにおいて、パンニング方向に基づいて選択された前記第1センサまたは前記第2センサからの前記距離情報を用いて前記像ブレ補正を行う。   A control method according to another aspect of the present invention includes a step of detecting motion information of a subject, and a step of detecting distance information based on a focus signal from a first sensor or a second sensor of a phase difference detection method arranged in different directions. Acquiring, and performing an image blur correction based on the motion information and the distance information, wherein in the step of performing the image blur correction, the first sensor or the first sensor selected based on a panning direction. The image blur correction is performed using the distance information from the second sensor.

本発明の他の側面としてのプログラムは、前記制御方法をコンピュータに実行させる。   A program according to another aspect of the present invention causes a computer to execute the control method.

本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。   A storage medium according to another aspect of the present invention stores the program.

本発明の他の目的及び特徴は、以下の実施形態において説明される。   Other objects and features of the present invention will be described in the following embodiments.

本発明によれば、流し撮り撮影において高精度な像ブレ補正を行うことが可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。   According to the present invention, it is possible to provide a control device, an imaging device, a control method, a program, and a storage medium that can perform high-precision image blur correction in panning shooting.

本実施形態における撮像装置の概略断面図である。It is a schematic sectional view of the imaging device in this embodiment. 本実施形態における撮像装置のブロック図である。It is a block diagram of an imaging device in this embodiment. 本実施形態におけるオートフォーカスユニットとピント板との関係図である。FIG. 5 is a diagram illustrating a relationship between an autofocus unit and a focus plate according to the embodiment. 本実施形態における測光ユニットの出力例である。It is an example of an output of a photometry unit in this embodiment. 本実施形態におけるベクトル検出枠とベクトル情報とピント板との関係図である。FIG. 5 is a diagram illustrating a relationship among a vector detection frame, vector information, and a focus plate according to the embodiment. 本実施形態における測光ユニットとオートフォーカスユニットのピント板上での位置関係を示す図である。FIG. 4 is a diagram illustrating a positional relationship between a photometric unit and an autofocus unit on a focus plate according to the embodiment. 本実施形態におけるデフォーカスマップの作成手順を示すフローチャートである。6 is a flowchart illustrating a procedure for creating a defocus map according to the embodiment. 本実施形態におけるデフォーカスマップの一例である。It is an example of a defocus map in the present embodiment.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図1を参照して、本実施形態における撮像装置100の構造について説明する。図1は撮像装置100の概略断面図であり、図1(a)は撮影前の状態、図1(b)は撮影中の状態をそれぞれ示している。撮像装置100は、撮像装置本体(カメラ本体)1と撮像装置本体1に着脱可能なレンズ装置(交換レンズ)2とを備えて構成される。ただし本発明は、これに限定されるものではなく、撮像装置本体とレンズ装置とが一体的に構成された撮像装置にも適用可能である。   First, the structure of the imaging device 100 according to the present embodiment will be described with reference to FIG. FIG. 1 is a schematic cross-sectional view of the imaging apparatus 100. FIG. 1A shows a state before shooting, and FIG. 1B shows a state during shooting. The imaging device 100 includes an imaging device main body (camera main body) 1 and a lens device (interchangeable lens) 2 that is detachable from the imaging device main body 1. However, the present invention is not limited to this, and is also applicable to an imaging device in which an imaging device main body and a lens device are integrally configured.

図1(a)に示されるように、ユーザは、撮影前に被写体からレンズ装置2に入射した光を接眼部105にて観測可能であり、撮影可能な光景を確認することができる。図1(b)に示されるように、撮影中において、シャッター107と可動ミラー部109とが稼働し、被写体からの光を撮像素子108へ照射することができる。   As shown in FIG. 1A, the user can observe the light that has entered the lens device 2 from the subject before photographing with the eyepiece unit 105, and can confirm the photographable scene. As shown in FIG. 1B, during shooting, the shutter 107 and the movable mirror unit 109 operate, so that light from a subject can be emitted to the image sensor 108.

レンズ装置2は、撮像装置本体1の前面に装着され、マウント接点112を介して撮像装置本体1に接続される。カメラ制御部110とレンズ制御部113は、マウント接点112を介して互いに電気的に接続される。レンズ制御部113は、レンズ群115の位置調整および絞り114の制御を行う。カメラ制御部110は、レンズ制御部113を介して、レンズ群115の位置調整および絞り114の制御を行う。なお本実施形態において、レンズ群115および絞り114は撮像光学系を構成する。   The lens device 2 is mounted on the front surface of the imaging device main body 1 and is connected to the imaging device main body 1 via the mount contact 112. The camera control unit 110 and the lens control unit 113 are electrically connected to each other via the mount contact 112. The lens control unit 113 adjusts the position of the lens group 115 and controls the stop 114. The camera controller 110 controls the position of the lens group 115 and controls the aperture 114 via the lens controller 113. In the present embodiment, the lens group 115 and the stop 114 form an imaging optical system.

被写体からの光は、レンズ装置2のレンズ群115により集光され、メインミラーとハーフミラーとで構成される可動ミラー部109によってピント板101に照射される。ピント板101は、撮像装置本体1の撮影可能な光景として結像する位置に配置される。ペンタプリズム102は、ピント板101に結像した撮影可能な光景を接眼レンズ104へ反射する。ユーザは、接眼部105を通して接眼レンズ104を観測することで、ピント板101に結像された撮影可能な光景を観測することができる。   Light from the subject is condensed by the lens group 115 of the lens device 2 and is radiated on the focus plate 101 by the movable mirror unit 109 including a main mirror and a half mirror. The focus plate 101 is arranged at a position where an image is formed as a photographable scene of the image pickup apparatus main body 1. The pentaprism 102 reflects a photographable scene formed on the focus plate 101 to the eyepiece 104. By observing the eyepiece 104 through the eyepiece 105, the user can observe a photographable scene formed on the focus plate 101.

測光ユニット103は、ピント板101に結像した光束を電気信号に変換し、デジタル値として出力する。また測光ユニット103は、複数の画素で拘束されてピント板101に結像した光景を画像信号へ変換する。測光ユニット103は、カメラ制御部110と電気的に接続されている(図1(a)では、測光ユニット103とカメラ制御部110との接続線を省略している)。カメラ制御部110は、測光ユニット103から出力された信号を受け取り、レンズ装置2により集光された光束を測定することができる。またカメラ制御部110は、測光ユニット103から出力された画像信号に基づいて、被写体の変化を測定することができる。   The photometric unit 103 converts the light flux formed on the focus plate 101 into an electric signal and outputs it as a digital value. Further, the photometry unit 103 converts a scene constrained by a plurality of pixels and formed on the focus plate 101 into an image signal. The photometric unit 103 is electrically connected to the camera control unit 110 (in FIG. 1A, a connection line between the photometric unit 103 and the camera control unit 110 is omitted). The camera control unit 110 can receive the signal output from the photometry unit 103 and measure the light flux condensed by the lens device 2. Further, the camera control unit 110 can measure a change in a subject based on an image signal output from the photometry unit 103.

可動ミラー部109のハーフミラーにより集光された光は、オートフォーカスユニット111に照射される。オートフォーカスユニット111は、位相差検出方式のセンサ(焦点検出手段)を有し、1つの測距点(焦点検出点)に対して水平方向や垂直方向等の複数の方向に関する焦点検出を行い、その焦点検出結果(測定値)をカメラ制御部110に伝達する。   The light collected by the half mirror of the movable mirror unit 109 is applied to the auto focus unit 111. The auto focus unit 111 has a phase difference detection type sensor (focus detection unit), and performs focus detection in a plurality of directions such as a horizontal direction and a vertical direction with respect to one ranging point (focus detection point). The focus detection result (measured value) is transmitted to the camera control unit 110.

カメラ制御部110は、オートフォーカスユニット111からの焦点検出結果(測定値)を受け取り、1つの測距点に対する複数の焦点検出結果に基づいて、焦点距離調整に有利な情報を選択して測距演算を行う。そしてカメラ制御部110は、レンズ群115に含まれるフォーカシングレンズを焦点位置に合わせるための移動量を算出する。またカメラ制御部110は、測距演算と同時に、距離情報(焦点位置からの相対距離情報)を表すデフォーカス量とその信頼度(デフォーカス信頼度)とを算出する。そしてカメラ制御部110は、その信頼度に基づいて、測距点(焦点検出点)ごとのデフォーカス量を表すデフォーカスマップ(デフォーカス情報)を作成する。
カメラ制御部110は、算出した移動量に基づいて、フォーカシングレンズの位置を調整して焦点距離を調整する(フォーカス制御を行う)。またカメラ制御部110は、デフォーカスマップに基づいて、測光補正を行う。
The camera control unit 110 receives the focus detection result (measured value) from the autofocus unit 111, selects information advantageous for focal length adjustment based on a plurality of focus detection results for one ranging point, and performs ranging. Perform the operation. Then, the camera control unit 110 calculates a movement amount for adjusting the focusing lens included in the lens group 115 to the focal position. At the same time as the distance measurement calculation, the camera control unit 110 calculates a defocus amount representing distance information (relative distance information from the focal position) and its reliability (defocus reliability). Then, the camera control unit 110 creates a defocus map (defocus information) representing a defocus amount for each ranging point (focus detection point) based on the reliability.
The camera control unit 110 adjusts the focal length by adjusting the position of the focusing lens based on the calculated movement amount (performs focus control). Further, the camera control unit 110 performs photometric correction based on the defocus map.

図1(a)に示されるように、撮影前において、可動ミラー部109、シャッター107、および、撮像素子108は、レンズ装置2の光路OP上に配置される。一方、図1(b)に示されるように、撮影時において、可動ミラー部109はレンズ装置2の光路OP上から外れるように移動し、レンズ装置2の光束が撮像素子108に照射される。撮像素子108は、CMOSイメージセンサやCCDイメージセンサを有し、レンズ装置2の撮像光学系を介して形成された光学像(被写体像)を光電変換する。表示部106は、撮像素子108から出力された画像信号を撮影結果として表示する。   As shown in FIG. 1A, before photographing, the movable mirror unit 109, the shutter 107, and the image sensor 108 are arranged on the optical path OP of the lens device 2. On the other hand, as shown in FIG. 1B, at the time of photographing, the movable mirror unit 109 moves so as to be off the optical path OP of the lens device 2, and the light beam of the lens device 2 is irradiated on the image sensor 108. The imaging element 108 has a CMOS image sensor or a CCD image sensor, and photoelectrically converts an optical image (subject image) formed via the imaging optical system of the lens device 2. The display unit 106 displays the image signal output from the image sensor 108 as a shooting result.

次に、図2を参照して、撮像装置100の構成について説明する。図2は、撮像装置100のブロック図である。なお図2において、図1と共通する部分は同一の符号を付し、詳細な説明を省略する。レンズ制御部113は、絞り駆動部201およびレンズ駆動部202とそれぞれ電気的に接続されており、カメラ制御部110からの要求に応じて絞り114およびレンズ群115の位置を調整する。可動ミラー制御部203は、カメラ制御部110の要求に応じて、可動ミラー部109の状態を制御する。シャッター制御部204は、カメラ制御部110の要求に応じて、シャッター107の状態を制御する。   Next, the configuration of the imaging device 100 will be described with reference to FIG. FIG. 2 is a block diagram of the imaging device 100. In FIG. 2, portions common to FIG. 1 are denoted by the same reference numerals, and detailed description is omitted. The lens control unit 113 is electrically connected to the aperture drive unit 201 and the lens drive unit 202, respectively, and adjusts the positions of the aperture 114 and the lens group 115 in response to a request from the camera control unit 110. The movable mirror controller 203 controls the state of the movable mirror 109 according to a request from the camera controller 110. The shutter control unit 204 controls the state of the shutter 107 in response to a request from the camera control unit 110.

信号処理部205は、撮像素子108から出力された電気信号を画像信号に変換し、その画像信号に対して信号処理を行う。信号処理部205は、画像信号に対して、例えば回転、拡張、および、縮小等の処理を行う。表示部106は、信号処理部205から出力された画像信号を撮影結果として表示する。記録部206は、撮影に伴って信号処理部205から出力された画像信号を記録媒体に記録する。本実施形態において、記憶媒体は書き換え可能な不揮発性メモリであるが、これに限定されるものではない。   The signal processing unit 205 converts an electric signal output from the image sensor 108 into an image signal, and performs signal processing on the image signal. The signal processing unit 205 performs processing such as rotation, expansion, and reduction on the image signal. The display unit 106 displays the image signal output from the signal processing unit 205 as a shooting result. The recording unit 206 records the image signal output from the signal processing unit 205 with the photographing on a recording medium. In the present embodiment, the storage medium is a rewritable nonvolatile memory, but is not limited to this.

ジャイロ207は、撮像装置本体1の動き(角速度)を検出する角速度センサ(パンニング検出手段)である。本実施形態において、ジャイロ207は、ユーザが主被写体をレンズ装置2の光路上に捉えているときの撮像装置本体1の動きを検出し、パンニング方向(流し撮り方向)等のパンニング情報を取得することができる。   The gyro 207 is an angular velocity sensor (panning detection unit) that detects the movement (angular velocity) of the imaging device main body 1. In the present embodiment, the gyro 207 detects the movement of the imaging apparatus body 1 when the user captures the main subject on the optical path of the lens device 2 and acquires panning information such as a panning direction (a panning direction). be able to.

カメラ制御部110は、例えばマイクロコンピュータ(CPU)からなり、不図示のROMおよびRAMを有する。カメラ制御部110は、ROMに予め記録されたプログラムやデータに従い、RAMを作業メモリとして用いて撮像装置本体1の動作を制御する。またカメラ制御部110は、検出手段110a、取得手段110b、補正手段110c、および、判定手段110dを有する。検出手段110aは、測光ユニット103により取得された画像に基づいて、被写体の動き情報(動きベクトル情報)を検出する。取得手段110bは、異なる方向に配置された位相差検出方式の第1センサ(垂直方向センサ302)または第2センサ(水平方向センサ303)からの焦点信号に基づいて距離情報(デフォーカスマップ等のデフォーカス情報)を取得する。補正手段110cは、動き情報と距離情報とに基づいて像ブレ補正を行う。判定手段110dは、パンニング方向を検出するジャイロ207からの信号に基づいてパンニング方向を判定する。また本実施形態において、補正手段110cは、パンニング方向に基づいて選択された第1センサまたは第2センサからの距離情報を用いて像ブレ補正を行う。   The camera control unit 110 includes, for example, a microcomputer (CPU), and has a ROM and a RAM (not shown). The camera control unit 110 controls the operation of the imaging device main body 1 using the RAM as a working memory according to programs and data recorded in the ROM in advance. Further, the camera control unit 110 has a detecting unit 110a, an acquiring unit 110b, a correcting unit 110c, and a determining unit 110d. The detection unit 110a detects motion information (motion vector information) of the subject based on the image acquired by the photometry unit 103. The acquisition unit 110b performs distance information (such as a defocus map) based on a focus signal from a first sensor (vertical sensor 302) or a second sensor (horizontal sensor 303) of a phase difference detection method arranged in different directions. Defocus information). The correction unit 110c performs image blur correction based on the motion information and the distance information. The determination unit 110d determines the panning direction based on a signal from the gyro 207 that detects the panning direction. In the present embodiment, the correction unit 110c performs image blur correction using distance information from the first sensor or the second sensor selected based on the panning direction.

撮像素子108は、例えばCMOSイメージセンサやCCDイメージセンサを有し、カメラ制御部110の制御に従って電荷を蓄積する。撮像素子108に蓄積された電荷またはデジタル信号化した電荷の値は、読み出されて信号処理部205へ出力される。   The image sensor 108 has, for example, a CMOS image sensor or a CCD image sensor, and accumulates electric charge under the control of the camera control unit 110. The value of the charge stored in the image sensor 108 or the charge converted into a digital signal is read and output to the signal processing unit 205.

次に、図3乃至図6を参照して、撮像装置100を用いた流し撮り撮影における像ブレ補正について説明する。図3(a)は、オートフォーカスユニット111に搭載される位相差検出方式センサの検出領域を示す。図3(a)に示されるように、オートフォーカスユニット111は、1つの測距点301に関して、位相差検出方式センサである垂直方向センサ(第1センサ)302および水平方向センサ(第2センサ)303を用いて測距(焦点検出)を行う。図3(b)は、オートフォーカスユニット111で検出可能な測距点をピント板101上に表現した図である。カメラ制御部110は、測距点の情報を決定するため、位相差検出方式センサの出力と同時に信頼度(デフォーカス信頼度)を求めることで、垂直方向センサ302および水平方向センサ303のいずれの情報を使用するかを一意に決定することができる。またカメラ制御部110は、各測距点に対して現在の焦点位置との相対距離情報を求めることができる。図3(c)は、オートフォーカスを実施する際に作成された各測距点のデフォーカスマップ(相対距離情報)の一例である。   Next, with reference to FIGS. 3 to 6, image blur correction in panning shooting using the imaging apparatus 100 will be described. FIG. 3A shows a detection area of a phase difference detection type sensor mounted on the autofocus unit 111. As shown in FIG. 3A, the autofocus unit 111 includes a vertical direction sensor (first sensor) 302 and a horizontal direction sensor (second sensor) that are phase difference detection sensors with respect to one ranging point 301. Distance measurement (focus detection) is performed by using 303. FIG. 3B is a diagram illustrating distance measuring points detectable by the autofocus unit 111 on the focus plate 101. The camera control unit 110 obtains the reliability (defocus reliability) simultaneously with the output of the phase difference detection type sensor in order to determine the information of the ranging point, thereby determining which of the vertical direction sensor 302 and the horizontal direction sensor 303. Whether to use the information can be uniquely determined. Further, the camera control unit 110 can obtain relative distance information from the current focus position for each ranging point. FIG. 3C is an example of a defocus map (relative distance information) of each ranging point created when performing autofocus.

図4(a)は、測光ユニット103により取得される画像信号情報401をピント板101上に表現した図である。測光ユニット103からは、図4(b)に示されるように連続した画像信号を取得することが可能である。図5(a)は、測光ユニット103で取得した連続画像に対して、変化量を測定するために設定されたベクトル検出枠501を示す。図5(b)は、ベクトル検出枠501ごとに移動量(ベクトル情報502)を検出した結果を示す。ベクトル情報502を用いて主被写体のブレ補正を行うことにより、流し撮り撮影に適した撮影を行うことができる。一方、ベクトル情報502は、測光ユニット103で取得した画像信号に対して有効なため、主被写体を判別することができない。そこでカメラ制御部110は、図3(c)に示されるようなデフォーカスマップ(相対距離情報)を用いることにより、主被写体領域とそれ以外の領域とを判別することができる。   FIG. 4A is a diagram in which image signal information 401 acquired by the photometric unit 103 is represented on the focus plate 101. From the photometric unit 103, continuous image signals can be obtained as shown in FIG. FIG. 5A shows a vector detection frame 501 set for measuring the amount of change in a continuous image acquired by the photometry unit 103. FIG. 5B shows the result of detecting the movement amount (vector information 502) for each vector detection frame 501. By performing shake correction of the main subject using the vector information 502, it is possible to perform shooting suitable for panning shooting. On the other hand, since the vector information 502 is effective for the image signal acquired by the photometry unit 103, the main subject cannot be determined. Thus, the camera control unit 110 can determine the main subject area and the other areas by using a defocus map (relative distance information) as shown in FIG.

しかし、図1に示されるように、本実施形態の測光ユニット103とオートフォーカスユニット111は、互いに異なる光学系を有する。このため、図6に示されるように必ずしも同じ位置の情報が得られているとは限らない。そこでカメラ制御部110は、各ベクトル検出枠501に対応するデフォーカス量を決定し、デフォーカスマップを作り直す(更新する)。   However, as shown in FIG. 1, the photometric unit 103 and the autofocus unit 111 of the present embodiment have different optical systems. For this reason, as shown in FIG. 6, the information of the same position is not always obtained. Therefore, the camera control unit 110 determines a defocus amount corresponding to each vector detection frame 501, and recreates (updates) a defocus map.

次に、図7を参照して、図3(a)のような構造を有する位相差検出方式センサを用いて流し撮り撮影を行うためのデフォーカスマップ(距離情報)の作成手順について説明する。図7は、デフォーカスマップの作成手順を示すフローチャートである。図7の各ステップは、主に、カメラ制御部110の各手段により実行される。   Next, a procedure for creating a defocus map (distance information) for performing a panning shot using a phase difference detection type sensor having a structure as shown in FIG. 3A will be described with reference to FIG. FIG. 7 is a flowchart showing a procedure for creating a defocus map. Each step in FIG. 7 is mainly executed by each unit of the camera control unit 110.

まず、ステップS101において、カメラ制御部110(判定手段110d)は、ジャイロ(角速度センサ)207からの信号に基づいて、流し撮り方向(パンニング方向)を判定する。続いてステップS102において、カメラ制御部110(取得手段110b)は、異なる方向に配置された位相差検出方式センサ(第1センサおよび第2センサ)からの焦点信号に基づいてデフォーカス量および信頼度(デフォーカス信頼度)を取得する。本実施形態において、第1センサは垂直方向センサ302、第2センサは水平方向センサ303であるが、これらに限定されるものではない。   First, in step S101, the camera control unit 110 (determination unit 110d) determines a panning direction (panning direction) based on a signal from the gyro (angular velocity sensor) 207. Subsequently, in step S102, the camera control unit 110 (the obtaining unit 110b) determines the defocus amount and the reliability based on the focus signals from the phase difference detection type sensors (the first sensor and the second sensor) arranged in different directions. (Defocus reliability) is obtained. In the present embodiment, the first sensor is the vertical sensor 302 and the second sensor is the horizontal sensor 303, but is not limited thereto.

続いてステップS103において、カメラ制御部110は、デフォーカス量を決定しようとする対象のベクトル検出枠501を選択する。続いてステップS104において、カメラ制御部110は、ステップS103にて選択されたベクトル検出枠501と交差する位相差検出方式センサ(垂直方向センサ302および水平方向センサ303)を抽出する。またカメラ制御部110(取得手段110b)は、そのベクトル検出枠501に対する信頼度(デフォーカス信頼度)を取得する。本実施形態において、カメラ制御部110は、垂直方向センサ302からの焦点信号(第1焦点信号)に基づいて第1信頼度(第1デフォーカス信頼度)、すなわち流し撮り方向(パンニング方向)と直交する方向に関する信頼度を取得する。またカメラ制御部110は、水平方向センサ303からの焦点信号(第2焦点信号)に基づいて第2信頼度(第2デフォーカス信頼度)、すなわち流し撮り方向と平行な方向に関する信頼度を取得する。   Subsequently, in step S103, the camera control unit 110 selects the vector detection frame 501 for which the defocus amount is to be determined. Subsequently, in step S104, the camera control unit 110 extracts the phase difference detection type sensors (the vertical direction sensor 302 and the horizontal direction sensor 303) that intersect with the vector detection frame 501 selected in step S103. The camera control unit 110 (acquisition unit 110b) acquires the reliability (defocus reliability) of the vector detection frame 501. In the present embodiment, the camera control unit 110 determines the first reliability (first defocus reliability), that is, the panning direction (panning direction), based on the focus signal (first focus signal) from the vertical direction sensor 302. Obtain the reliability in the orthogonal direction. Further, the camera control unit 110 acquires a second reliability (second defocus reliability), that is, a reliability in a direction parallel to the panning direction, based on the focus signal (second focus signal) from the horizontal direction sensor 303. I do.

続いてステップS105において、カメラ制御部110(補正手段110c)は、第1信頼度と第2信頼度とを比較し、第1信頼度が第2信頼度よりも高いか否かを判定する。第1信頼度が第2の信頼度よりも高い場合、ステップS106へ進む。ステップS106において、カメラ制御部110は、ベクトル検出枠501に対するデフォーカス量として、流し撮り方向と直交する垂直方向センサ302から取得されたデフォーカス量を選択し、ステップS110へ進む。   Subsequently, in step S105, the camera control unit 110 (correction unit 110c) compares the first reliability with the second reliability and determines whether the first reliability is higher than the second reliability. When the first reliability is higher than the second reliability, the process proceeds to step S106. In step S106, the camera control unit 110 selects, as the defocus amount for the vector detection frame 501, the defocus amount acquired from the vertical sensor 302 orthogonal to the panning direction, and proceeds to step S110.

一方、ステップ105にて第1信頼度が第2信頼度よりも低い場合、ステップS107へ進む。ステップS107において、カメラ制御部110(補正手段110c)は、第1信頼度が所定の信頼度よりも高いか否かを判定する。第1信頼度が所定の信頼度よりも高い場合(所定の範囲の信頼度が得られている場合)、ステップS108へ進む。ステップS108において、カメラ制御部110は、ベクトル検出枠501に対するデフォーカス量として、流し撮り方向と直交する垂直方向センサ302から取得されたデフォーカス量を選択し、ステップS110へ進む。   On the other hand, if the first reliability is lower than the second reliability in step 105, the process proceeds to step S107. In step S107, the camera control unit 110 (correction unit 110c) determines whether the first reliability is higher than a predetermined reliability. When the first reliability is higher than the predetermined reliability (when the reliability in the predetermined range is obtained), the process proceeds to step S108. In step S108, the camera control unit 110 selects the defocus amount acquired from the vertical direction sensor 302 orthogonal to the panning direction as the defocus amount for the vector detection frame 501, and proceeds to step S110.

一方、ステップS107にて第1信頼度が所定の信頼度よりも低い場合(所定の範囲の信頼度が得られていない場合)、ステップS109へ進む。ステップS109において、カメラ制御部110は、ベクトル検出枠501に対するデフォーカス量として、流し撮り方向と平行な水平方向センサ303から取得されたデフォーカス量を選択し、ステップS110へ進む。   On the other hand, when the first reliability is lower than the predetermined reliability in step S107 (when the reliability in the predetermined range is not obtained), the process proceeds to step S109. In step S109, the camera control unit 110 selects the defocus amount acquired from the horizontal direction sensor 303 parallel to the panning direction as the defocus amount for the vector detection frame 501, and proceeds to step S110.

ステップS110において、カメラ制御部110は、全てのベクトル検出枠501に対してデフォーカス量を割り当てたか(設定したか)否かを判定する。未割り当てのベクトル検出枠501が存在する場合、ステップS103に戻り、ステップS103〜S110を繰り返す。一方、全てのベクトル検出枠501に対してデフォーカス量の割当が完了した場合、デフォーカスマップの作成が完了したものとして、本フローを終了する。   In step S110, the camera control unit 110 determines whether the defocus amounts have been assigned (set) to all the vector detection frames 501. If there is an unassigned vector detection frame 501, the process returns to step S103, and steps S103 to S110 are repeated. On the other hand, when the allocation of the defocus amount to all the vector detection frames 501 is completed, it is determined that the creation of the defocus map has been completed, and the present flow ends.

図8は、デフォーカスマップの一例である。本実施形態において、カメラ制御部110は、前述のようにして作成したデフォーカスマップを用いて主被写体(主被写体領域)を判定することにより、主被写体の判定精度を向上させることが可能となる。なお、図7は図3(a)に示されるような垂直に交わる垂直方向センサ302および水平方向センサ303を有する場合を説明しているが、本発明はこれに限定されるものではない。すなわち、第1センサと第2センサは、互いに異なる方向(斜め方向等)に配置されていてもよい。またベクトル検出枠と検出領域とが重なる場合、第1センサと第2センサのうち、流し撮り方向と直交する方向により近い方向のセンサを優先する(選択する)ようにしてもよい。   FIG. 8 is an example of a defocus map. In the present embodiment, the camera control unit 110 determines the main subject (main subject area) using the defocus map created as described above, thereby improving the accuracy of determining the main subject. . Note that FIG. 7 illustrates a case where a vertical direction sensor 302 and a horizontal direction sensor 303 intersect vertically as shown in FIG. 3A, but the present invention is not limited to this. That is, the first sensor and the second sensor may be arranged in directions different from each other (such as an oblique direction). When the vector detection frame and the detection area overlap, a sensor in a direction closer to the direction orthogonal to the panning direction among the first sensor and the second sensor may be prioritized (selected).

このように本実施形態において、制御装置(カメラ制御部110)は、検出手段110a、取得手段110b、および、補正手段110cを有する。検出手段は、被写体の動き情報(動きベクトル)を検出する。取得手段110bは、異なる方向に配置された位相差検出方式の第1センサ(垂直方向センサ302)または第2センサ(水平方向センサ303)からの焦点信号に基づいて距離情報(デフォーカスマップ等のデフォーカス情報)を取得する。補正手段110cは、動き情報と距離情報とに基づいて像ブレ補正を行う。また補正手段110cは、パンニング方向(流し撮り方向)に基づいて選択された第1センサまたは第2センサからの距離情報を用いて像ブレ補正を行う。   As described above, in the present embodiment, the control device (camera control unit 110) includes the detection unit 110a, the acquisition unit 110b, and the correction unit 110c. The detecting means detects motion information (motion vector) of the subject. The acquisition unit 110b performs distance information (such as a defocus map) based on a focus signal from a first sensor (vertical sensor 302) or a second sensor (horizontal sensor 303) of a phase difference detection method arranged in different directions. Defocus information). The correction unit 110c performs image blur correction based on the motion information and the distance information. The correction unit 110c performs image blur correction using the distance information from the first sensor or the second sensor selected based on the panning direction (the panning direction).

好ましくは、カメラ制御部110は、角速度センサ(ジャイロ207)からの信号に基づいてパンニング方向を判定する判定手段110dを有する。また好ましくは、検出手段は、被写体の輝度を測定する測光手段(測光ユニット103)から取得された画像に基づいて、被写体の動き情報を検出する。より好ましくは、取得手段は、距離情報として、焦点位置からの相対距離情報を取得する。   Preferably, the camera control unit 110 includes a determination unit 110d that determines a panning direction based on a signal from the angular velocity sensor (gyro 207). Preferably, the detecting means detects the motion information of the subject based on an image acquired from the photometric means (photometric unit 103) for measuring the brightness of the subject. More preferably, the acquisition unit acquires relative distance information from the focal position as the distance information.

好ましくは、取得手段は、距離情報として、輝度の測定に用いられる第1距離情報、および、像ブレ補正に用いられる第2距離情報を取得する。より好ましくは、取得手段は、パンニング方向に基づいて選択された第1センサまたは第2センサからの距離情報を用いて、第2距離情報を取得する。より好ましくは、取得手段は、第1センサからの第1焦点信号に基づいて、距離情報に関する第1信頼度(第1デフォーカス信頼度)を取得し、第2センサからの第2焦点信号に基づいて、距離情報に関する第2信頼度(第2デフォーカス信頼度)を取得する。そして補正手段は、パンニング方向と第1信頼度と第2信頼度とに基づいて選択された第1のセンサまたは第2のセンサからの距離情報を用いて、像ブレ補正を行う。より好ましくは、第1センサと第2センサは、互いに異なる方向に配置されている。より好ましくは、第1センサの方向は、第2のセンサの方向よりも、パンニング方向と直交する方向に近い。   Preferably, the acquisition unit acquires, as the distance information, first distance information used for measuring luminance and second distance information used for image blur correction. More preferably, the acquiring unit acquires the second distance information using the distance information from the first sensor or the second sensor selected based on the panning direction. More preferably, the acquiring unit acquires a first reliability (first defocus reliability) related to the distance information based on the first focus signal from the first sensor, and converts the first reliability into a second focus signal from the second sensor. Based on the distance information, a second reliability (second defocus reliability) is acquired. Then, the correction unit performs the image blur correction using the distance information from the first sensor or the second sensor selected based on the panning direction, the first reliability, and the second reliability. More preferably, the first sensor and the second sensor are arranged in directions different from each other. More preferably, the direction of the first sensor is closer to the direction orthogonal to the panning direction than the direction of the second sensor.

好ましくは、補正手段は、第1信頼度が第2信頼度よりも高い場合、第1センサからの距離情報を用いてブレ補正を行う(S105、S106)。より好ましくは、補正手段は、第1信頼度が第2信頼度よりも低い場合、第2センサからの距離情報を用いて像ブレ補正を行う(S105、S109)。また好ましくは、補正手段は、第1信頼度が所定の信頼度よりも高い場合、第1センサからの距離情報を用いて像ブレ補正を行い、第1信頼度が所定の信頼度も低い場合、第2センサからの距離情報を用いて像ブレ補正を行う(S107〜S109)。   Preferably, when the first reliability is higher than the second reliability, the correction unit performs blur correction using the distance information from the first sensor (S105, S106). More preferably, when the first reliability is lower than the second reliability, the correction unit performs the image blur correction using the distance information from the second sensor (S105, S109). Preferably, the correction unit performs the image blur correction using the distance information from the first sensor when the first reliability is higher than the predetermined reliability, and performs the image blur correction when the first reliability is also lower than the predetermined reliability. Then, image blur correction is performed using the distance information from the second sensor (S107 to S109).

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

本実施形態において、ファインダー撮影における測距センサと測光センサを用いた流し撮り撮影を行う際に、ファインダー撮影に適したデフォーカス情報を作成し、主被写体の認識制度を向上させることが可能となる。このため本実施形態によれば、流し撮り撮影において高精度な像ブレ補正を行うことが可能な制御装置、撮像装置、制御方法、プログラム、および、記憶媒体を提供することができる。   In the present embodiment, when performing panning shooting using a distance measurement sensor and a photometry sensor in finder shooting, it is possible to create defocus information suitable for finder shooting and improve the recognition accuracy of the main subject. . Therefore, according to the present embodiment, it is possible to provide a control device, an imaging device, a control method, a program, and a storage medium capable of performing highly accurate image blur correction in panning shooting.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As described above, the preferred embodiments of the present invention have been described, but the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.

110 カメラ制御部(制御装置)
110a 検出手段
110b 取得手段
110c 補正手段
302 垂直方向センサ(第1センサ)
303 水平方向センサ(第2センサ)
110 Camera control unit (control device)
110a Detecting means 110b Acquiring means 110c Correcting means 302 Vertical sensor (first sensor)
303 Horizontal sensor (second sensor)

Claims (16)

被写体の動き情報を検出する検出手段と、
異なる方向に配置された位相差検出方式の第1センサまたは第2センサからの焦点信号に基づいて距離情報を取得する取得手段と、
前記動き情報と前記距離情報とに基づいて像ブレ補正を行う補正手段と、を有し、
前記補正手段は、パンニング方向に基づいて選択された前記第1センサまたは前記第2センサからの前記距離情報を用いて前記像ブレ補正を行うことを特徴とする制御装置。
Detecting means for detecting motion information of the subject;
Acquiring means for acquiring distance information based on a focus signal from a first sensor or a second sensor of a phase difference detection method arranged in different directions,
Correction means for performing image blur correction based on the motion information and the distance information,
The control device according to claim 1, wherein the correction unit performs the image blur correction using the distance information from the first sensor or the second sensor selected based on a panning direction.
角速度センサからの信号に基づいて前記パンニング方向を判定する判定手段を更に有することを特徴とする請求項1に記載の制御装置。   The control device according to claim 1, further comprising a determination unit configured to determine the panning direction based on a signal from an angular velocity sensor. 前記検出手段は、前記被写体の輝度を測定する測光手段から取得された画像に基づいて、前記被写体の前記動き情報を検出することを特徴とする請求項1または2に記載の制御装置。   3. The control device according to claim 1, wherein the detection unit detects the motion information of the subject based on an image acquired from a photometric unit that measures luminance of the subject. 4. 前記取得手段は、前記距離情報として、焦点位置からの相対距離情報を取得することを特徴とする請求項3に記載の制御装置。   The control device according to claim 3, wherein the acquisition unit acquires, as the distance information, relative distance information from a focus position. 前記取得手段は、前記距離情報として、前記輝度の測定に用いられる第1距離情報、および、前記像ブレ補正に用いられる第2距離情報を取得することを特徴とする請求項3または4に記載の制御装置。   The said acquisition means acquires the 1st distance information used for the measurement of the said brightness | luminance, and the 2nd distance information used for the said image blur correction as said distance information, The Claims 3 or 4 characterized by the above-mentioned. Control device. 前記取得手段は、前記パンニング方向に基づいて選択された前記第1センサまたは前記第2センサからの前記距離情報を用いて、前記第2距離情報を取得することを特徴とする請求項5に記載の制御装置。   The said acquisition means acquires the said 2nd distance information using the said distance information from the said 1st sensor or the said 2nd sensor selected based on the said panning direction, The said 2nd distance information. Control device. 前記取得手段は、
前記第1センサからの第1焦点信号に基づいて、前記距離情報に関する第1信頼度を取得し、
前記第2センサからの第2焦点信号に基づいて、前記距離情報に関する第2信頼度を取得し、
前記補正手段は、前記パンニング方向と前記第1信頼度と前記第2信頼度とに基づいて選択された前記第1のセンサまたは前記第2のセンサからの前記距離情報を用いて、前記像ブレ補正を行うことを特徴とする請求項6に記載の制御装置。
The acquisition means,
Acquiring a first reliability related to the distance information based on a first focus signal from the first sensor;
Acquiring a second reliability related to the distance information based on a second focus signal from the second sensor;
The correction unit uses the distance information from the first sensor or the second sensor selected based on the panning direction, the first reliability, and the second reliability, and uses the distance information from the image sensor. 7. The control device according to claim 6, wherein correction is performed.
前記第1センサと第2センサは、互いに異なる方向に配置されていることを特徴とする請求項7に記載の制御装置。   The control device according to claim 7, wherein the first sensor and the second sensor are arranged in directions different from each other. 前記第1センサの方向は、前記第2のセンサの方向よりも、前記パンニング方向と直交する方向に近いことを特徴とする請求項8に記載の制御装置。   9. The control device according to claim 8, wherein a direction of the first sensor is closer to a direction orthogonal to the panning direction than a direction of the second sensor. 前記補正手段は、前記第1信頼度が前記第2信頼度よりも高い場合、前記第1センサからの前記距離情報を用いて前記像ブレ補正を行うことを特徴とする請求項9に記載の制御装置。   10. The image blur correction device according to claim 9, wherein when the first reliability is higher than the second reliability, the correction unit performs the image blur correction using the distance information from the first sensor. Control device. 前記補正手段は、前記第1信頼度が前記第2信頼度よりも低い場合、前記第2センサからの前記距離情報を用いて前記像ブレ補正を行うことを特徴とする請求項10に記載の制御装置。   The method according to claim 10, wherein the correction unit performs the image blur correction using the distance information from the second sensor when the first reliability is lower than the second reliability. Control device. 前記補正手段は、
前記第1信頼度が所定の信頼度よりも高い場合、前記第1センサからの前記距離情報を用いて前記像ブレ補正を行い、
前記第1信頼度が前記所定の信頼度も低い場合、前記第2センサからの前記距離情報を用いて前記像ブレ補正を行うことを特徴とする請求項9または10に記載の制御装置。
The correction means,
When the first reliability is higher than a predetermined reliability, the image blur correction is performed using the distance information from the first sensor,
11. The control device according to claim 9, wherein when the first reliability is also lower than the predetermined reliability, the image blur correction is performed using the distance information from the second sensor. 12.
撮像光学系を介して形成された光学像を光電変換する撮像素子と、
請求項1乃至12のいずれか1項に記載の制御装置と、を有することを特徴とする撮像装置。
An image sensor that photoelectrically converts an optical image formed via the imaging optical system,
An imaging apparatus comprising: the control device according to claim 1.
被写体の動き情報を検出するステップと、
異なる方向に配置された位相差検出方式の第1センサまたは第2センサからの焦点信号に基づいて距離情報を取得するステップと、
前記動き情報と前記距離情報とに基づいて像ブレ補正を行うステップと、を有し、
前記像ブレ補正を行うステップにおいて、パンニング方向に基づいて選択された前記第1センサまたは前記第2センサからの前記距離情報を用いて前記像ブレ補正を行うことを特徴とする制御方法。
Detecting motion information of the subject;
Acquiring distance information based on a focus signal from a first sensor or a second sensor of a phase difference detection method arranged in different directions;
Performing image blur correction based on the motion information and the distance information,
The control method, wherein in the step of performing the image blur correction, the image blur correction is performed using the distance information from the first sensor or the second sensor selected based on a panning direction.
請求項14に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。   A program causing a computer to execute the control method according to claim 14. 請求項15に記載のプログラムを記憶していることを特徴とする記憶媒体。   A storage medium storing the program according to claim 15.
JP2018176909A 2018-09-21 2018-09-21 Control device, imaging apparatus, control method, program, and storage medium Pending JP2020046615A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018176909A JP2020046615A (en) 2018-09-21 2018-09-21 Control device, imaging apparatus, control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018176909A JP2020046615A (en) 2018-09-21 2018-09-21 Control device, imaging apparatus, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2020046615A true JP2020046615A (en) 2020-03-26

Family

ID=69901404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018176909A Pending JP2020046615A (en) 2018-09-21 2018-09-21 Control device, imaging apparatus, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2020046615A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244311A1 (en) * 2021-05-20 2022-11-24 ソニーグループ株式会社 Imaging device, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244311A1 (en) * 2021-05-20 2022-11-24 ソニーグループ株式会社 Imaging device, image processing method, and program

Similar Documents

Publication Publication Date Title
US20040183939A1 (en) Camera having AF function
JP5216137B2 (en) Camera and camera control method
JP6489817B2 (en) Imaging apparatus and control method thereof
JP2013101305A (en) Focus adjustment device and control method for focus adjustment device
JP6014452B2 (en) FOCUS DETECTION DEVICE, LENS DEVICE HAVING THE SAME, AND IMAGING DEVICE
JP5241096B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2012500506A5 (en)
JP2018004918A5 (en)
JP2011239131A (en) Imaging apparatus
JP2018137613A (en) Image processing apparatus, imaging apparatus and control method for image processing apparatus
JP2009216743A (en) Image stabilizing camera
JP4560420B2 (en) Imaging device
JP2020046615A (en) Control device, imaging apparatus, control method, program, and storage medium
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP5023750B2 (en) Ranging device and imaging device
JP2006065080A (en) Imaging device
JP2010282102A (en) Imaging apparatus and range-finding method
JP5359150B2 (en) Imaging device
JP5509622B2 (en) Electronic camera
JP6501512B2 (en) Focus control apparatus, focus control method and focus control program
JP2005308960A (en) Imaging apparatus provided with automatic focusing device
JP2021182698A (en) Imaging apparatus and method for controlling the same
JP2000019386A (en) Camera
JP2001165622A (en) Optical device
JP4612765B2 (en) Device with shake detection function