JP2017200061A - Imaging apparatus, control method, program and recording medium - Google Patents

Imaging apparatus, control method, program and recording medium Download PDF

Info

Publication number
JP2017200061A
JP2017200061A JP2016089719A JP2016089719A JP2017200061A JP 2017200061 A JP2017200061 A JP 2017200061A JP 2016089719 A JP2016089719 A JP 2016089719A JP 2016089719 A JP2016089719 A JP 2016089719A JP 2017200061 A JP2017200061 A JP 2017200061A
Authority
JP
Japan
Prior art keywords
image
image sensor
signal output
image based
light beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016089719A
Other languages
Japanese (ja)
Inventor
達也 西口
Tatsuya Nishiguchi
達也 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016089719A priority Critical patent/JP2017200061A/en
Publication of JP2017200061A publication Critical patent/JP2017200061A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus which allows for confirmation of more detailed focus state, when displaying a screen while enlarging for focus state confirmation, in an imaging apparatus having two image pick-up devices of different number of pixels.SOLUTION: A camera 100 has an image pick-up device 105 and an image pick-up device 106 having a lower resolution of image to be acquired than that of the image pick-up device 105. The image pick-up device 105 receives a first flux out of fluxes separated by a half mirror 130, and the image pick-up device 106 receives a second flux out of the fluxes separated by the half mirror 130. When a CPU 131 is displaying an image acquired from the image pick-up device 106, and a specified area of a part of the image acquired from the image pick-up device 106 is displayed while enlarging, an image acquired from the image pick-up device 105 is used as an image to be displayed while enlarging.SELECTED DRAWING: Figure 5

Description

本発明は、2つの撮像素子を備える撮像装置における、画像の拡大表示に関するものである。また、その制御方法、プログラム及び記憶媒体に関するものである。   The present invention relates to an enlarged display of an image in an imaging apparatus including two imaging elements. The present invention also relates to a control method, a program, and a storage medium.

従来、複数の撮像素子を備え、撮像光学系を通過した光束を複数の光束に分離し、分離された各々の光束を対応する各撮像素子が受光することによって、各撮像素子で信号の出力が可能である撮像装置が知られている。   2. Description of the Related Art Conventionally, a plurality of image sensors are provided, a light beam that has passed through an imaging optical system is separated into a plurality of light beams, and each image sensor that receives each separated light beam receives a signal so that each image sensor outputs a signal. Imaging devices that are possible are known.

特許文献1では、第1の撮像素子と第2の撮像素子を有し、第2の撮像素子は、第1の撮像素子と比較して画素数が少ない撮像装置を開示している。   Patent Document 1 discloses an imaging apparatus that includes a first imaging element and a second imaging element, and the second imaging element has a smaller number of pixels than the first imaging element.

特開2014−232137号公報JP 2014-232137 A

フォーカス状態の確認などのためにライブビュー中や動画記録中に拡大表示をする場合には、解像度の高い画像を用いることが望ましい。特許文献1では、フレームレートをより高くするために、画素数の少ない第2の撮像素子から出力した信号に基づく画像を用いてライブビュー表示や動画記録を行っている。しかしながら、特許文献1では拡大表示について考慮していない。   When enlarging display during live view or moving image recording for confirmation of the focus state, it is desirable to use an image with high resolution. In Patent Document 1, live view display and moving image recording are performed using an image based on a signal output from a second image sensor with a small number of pixels in order to increase the frame rate. However, Patent Document 1 does not consider enlarged display.

そこで、本発明は、画素部の数の異なる2つの撮像素子を持つ撮像装置において、例えばフォーカス状態の確認等のために画像を拡大して表示する場合に、より詳細にフォーカス状態を確認することができる撮像装置を提供することを目的とする。また、その制御方法、プログラム及び記憶媒体を提供することを目的とする。   Therefore, the present invention is to check the focus state in more detail when an image is enlarged and displayed, for example, for confirmation of the focus state, in an image pickup apparatus having two image pickup devices with different numbers of pixel portions. An object of the present invention is to provide an imaging apparatus capable of Moreover, it aims at providing the control method, a program, and a storage medium.

本発明は、撮像光学系を通過した光束を第1の光束と第2の光束に分離する光束分離手段と、複数の画素部を有し、前記第1の光束を受光し、信号を出力する第1の撮像素子と、複数の画素部を有し、前記第2の光束を受光し、信号を出力する撮像素子であって、前記第1の撮像素子よりも画素部の数が少ない第2の撮像素子と、前記第1の撮像素子又は前記第2の撮像素子から出力した信号に基づく画像を表示する表示手段における画像の拡大倍率が所定の倍率よりも小さい場合には前記第2の撮像素子から出力した信号に基づく画像を表示し、前記表示手段における画像の少なくとも一部の拡大倍率が前記所定の倍率以上の場合には前記第1の撮像素子から出力した信号に基づく画像を表示する制御手段と、を有することを特徴とする。   The present invention includes a light beam separating unit that separates a light beam that has passed through the imaging optical system into a first light beam and a second light beam, and a plurality of pixel units, which receives the first light beam and outputs a signal. A second imaging device having a first imaging device and a plurality of pixel units, receiving the second light flux, and outputting a signal, wherein the number of pixel units is smaller than that of the first imaging device. And when the image magnification in the display means for displaying an image based on the signal output from the first image sensor or the second image sensor is smaller than a predetermined magnification, the second imaging An image based on a signal output from the element is displayed, and if an enlargement magnification of at least a part of the image on the display means is greater than or equal to the predetermined magnification, an image based on the signal output from the first image sensor is displayed. And a control means.

また、別の側面として、本発明は、撮像光学系を通過した光束を第1の光束と第2の光束に分離する光束分離手段と、複数の画素部を有し、前記第1の光束を受光し、信号を出力する第1の撮像素子と、複数の画素部を有し、前記第2の光束を受光し、信号を出力する撮像素子であって、前記第1の撮像素子よりも画素部の数が少ない第2の撮像素子と、前記第1の撮像素子又は前記第2の撮像素子から出力した信号に基づく画像を表示する表示手段に前記第2の撮像素子から出力した信号に基づく画像を表示している場合において、前記第2の撮像素子から出力した信号に基づく画像の一部について指定された指定領域を拡大表示する際に、前記拡大表示に用いる画像として、前記指定領域に対応づけられた領域について前記第1の撮像素子から出力した信号に基づく画像を表示する制御手段と、を有することを特徴とする。   As another aspect, the present invention includes a light beam separating unit that separates a light beam that has passed through the imaging optical system into a first light beam and a second light beam, and a plurality of pixel units, and the first light beam is A first image sensor that receives light and outputs a signal, and a plurality of pixel units, an image sensor that receives the second light flux and outputs a signal, the pixel being more pixels than the first image sensor. Based on a signal output from the second image sensor on a second image sensor having a small number of parts and display means for displaying an image based on the signal output from the first image sensor or the second image sensor In the case of displaying an image, when the designated area designated for a part of the image based on the signal output from the second image sensor is enlarged and displayed, the designated area is used as the image used for the enlarged display. The first imaging element for the associated region And control means for displaying an image based on the output signals from and having a.

また、別の側面として、本発明は、撮像光学系を通過した光束を第1の光束と第2の光束に分離する光束分離手段と、複数の画素部を有し、前記第1の光束を受光し、信号を出力する第1の撮像素子と、複数の画素部を有し、前記第2の光束を受光し、信号を出力する撮像素子であって、前記第1の撮像素子よりも出力する信号に基づく画像の解像度が低い第2の撮像素子と、前記第1の撮像素子又は前記第2の撮像素子が出力した信号に基づく画像を表示する表示手段に前記第2の撮像素子が出力した信号に基づく画像を表示している場合において、前記第2の撮像素子から出力した信号に基づく画像の一部について指定された指定領域を拡大表示する際に、前記拡大に用いる画像として前記第1の撮像素子が出力した信号に基づく画像を表示する制御手段を有することを特徴とする。   As another aspect, the present invention includes a light beam separating unit that separates a light beam that has passed through the imaging optical system into a first light beam and a second light beam, and a plurality of pixel units, and the first light beam is A first image sensor that receives light and outputs a signal, and an image sensor that has a plurality of pixel portions, receives the second light flux, and outputs a signal, and outputs more signals than the first image sensor. The second image sensor outputs a second image sensor having a low image resolution based on the signal to be output and a display means for displaying the image based on the first image sensor or the signal output by the second image sensor. In the case where an image based on the received signal is displayed, when the designated area designated for a part of the image based on the signal output from the second image sensor is enlarged and displayed, An image based on the signal output by one image sensor It characterized by having a Shimesuru control means.

本発明によれば、画素数の異なる2つの撮像素子を持つ撮像装置において、例えばフォーカス状態の確認等のために画像を拡大して表示する場合に、より詳細にフォーカス状態を確認することができる。   According to the present invention, in an imaging apparatus having two imaging elements having different numbers of pixels, for example, when an image is enlarged and displayed for confirmation of the focus state, the focus state can be confirmed in more detail. .

実施例1及び実施例2に係る撮像装置の構成例を示す図である。1 is a diagram illustrating a configuration example of an imaging apparatus according to Embodiment 1 and Embodiment 2. FIG. 実施例1及び実施例2に係る映像信号処理部の構成例を示す図である。6 is a diagram illustrating a configuration example of a video signal processing unit according to Embodiment 1 and Embodiment 2. FIG. 実施例1に係る撮像装置の拡大表示の例を説明するフローチャートである。6 is a flowchart illustrating an example of an enlarged display of the imaging apparatus according to the first embodiment. 実施例2に係る撮像装置の拡大表示の例を説明するフローチャートである。10 is a flowchart illustrating an example of an enlarged display of the imaging apparatus according to the second embodiment. 実施例1及び実施例2に係る拡大表示画面の表示例である。6 is a display example of an enlarged display screen according to Example 1 and Example 2. FIG. 撮像素子105と撮像素子106とで露出が異なる場合の拡大表示画面の表示例である。It is an example of a display of an enlarged display screen when exposure differs in image sensor 105 and image sensor 106.

[実施例1]
[カメラ100の構成例]
以下、本発明の実施例について図1を参照して説明する。図1は本実施例に係る撮像装置であるカメラ100の構成例を示したブロック図である。カメラ100は、被写体の光学像に対応する光束をカメラ100内の各部へと導くレンズ(撮像光学系)を着脱可能である。尚、本発明はカメラ100だけではなく、例えば、レンズとカメラ本体とが一体構造となっているような撮像装置に適用することもできる。 レンズ101は、フォーカスレンズやズームレンズなどを備えたレンズ群107であり、入射した被写体の光学像である光束をハーフミラー103へと導く。レンズ101は、マウント102を介してカメラ本体に着脱可能である。
[Example 1]
[Configuration Example of Camera 100]
An embodiment of the present invention will be described below with reference to FIG. FIG. 1 is a block diagram illustrating a configuration example of a camera 100 that is an imaging apparatus according to the present embodiment. The camera 100 is detachable from a lens (imaging optical system) that guides a light beam corresponding to the optical image of the subject to each part in the camera 100. Note that the present invention can be applied not only to the camera 100 but also to an imaging device in which a lens and a camera body are integrated. The lens 101 is a lens group 107 including a focus lens, a zoom lens, and the like, and guides a light beam that is an optical image of an incident subject to the half mirror 103. The lens 101 can be attached to and detached from the camera body via the mount 102.

レンズ制御部141は、レンズ101の駆動を制御する。レンズ制御部141がレンズ101駆動を制御することでズーム、フォーカス、絞りの制御を実行する。   The lens control unit 141 controls driving of the lens 101. The lens control unit 141 controls the driving of the lens 101 to execute zoom, focus, and aperture control.

ハーフミラー103(光束分離手段)は入射した光束を第1の光束と第2の光束(不図示)に分離し、第1の光束を撮像素子105(第1の撮像素子)へ、第2の光束を撮像素子106(第2の撮像素子)へと導く。   The half mirror 103 (light beam separating means) separates the incident light beam into a first light beam and a second light beam (not shown), and the first light beam is sent to the image sensor 105 (first image sensor). The light beam is guided to the image sensor 106 (second image sensor).

撮像素子105、および撮像素子106は、例えばCMOS撮像素子等であり、複数の画素部を有する。撮像素子105及び撮像素子106は、レンズ101を通過した被写体像を受光し光電変換する。本実施例では、撮像素子105、および撮像素子106は位相差式のオートフォーカス用の情報を取得できる。すなわち、本実施例ではいわゆる撮像面位相差式の焦点検出を行うことができる。なお、本実施例における焦点検出とは、デフォーカス量の取得である。撮像面位相差式の焦点検出及びこれを実現するための撮像素子の構成の例は公知であり、例えば特開2014−174460号公報や特開2013−7998号公報に開示されている。ここでは説明を簡略化する。本実施例では、撮像素子105及び撮像素子106はいずれも複数の画素部を有し、当該複数の画素部は1つの画素部についてそれぞれ一対の光電変換部を有する。また、当該複数の画素部は1つの画素部につきそれぞれ1つのマイクロレンズを有する。本実施例では、当該一対の光電変換部において光電変換した一対の信号はそれぞれ視差を有している。複数の画素部で一対の視差を有する信号をそれぞれ加算し、視差を有する一対の焦点検出信号を生成する。当該一対の焦点検出信号を用いることで、映像信号処理部121がデフォーカス量を算出する。   The image sensor 105 and the image sensor 106 are, for example, CMOS image sensors, and have a plurality of pixel portions. The image sensor 105 and the image sensor 106 receive a subject image that has passed through the lens 101 and photoelectrically convert it. In this embodiment, the image sensor 105 and the image sensor 106 can acquire phase difference type autofocus information. That is, in this embodiment, so-called imaging surface phase difference type focus detection can be performed. Note that focus detection in this embodiment is acquisition of a defocus amount. Examples of the imaging surface phase difference type focus detection and the configuration of the imaging device for realizing this are known, and are disclosed in, for example, Japanese Patent Application Laid-Open Nos. 2014-174460 and 2013-7998. Here, the description is simplified. In this embodiment, each of the imaging element 105 and the imaging element 106 includes a plurality of pixel units, and each of the plurality of pixel units includes a pair of photoelectric conversion units for one pixel unit. Further, each of the plurality of pixel portions has one microlens for each pixel portion. In this embodiment, the pair of signals photoelectrically converted by the pair of photoelectric conversion units has parallax. A signal having a pair of parallaxes is added to each of the plurality of pixel units to generate a pair of focus detection signals having a parallax. By using the pair of focus detection signals, the video signal processing unit 121 calculates the defocus amount.

シャッタ104は、静止画撮影時に露光秒時を調節するフォーカルプレーンシャッタである。本実施例では、フォーカルプレーンシャッタにて撮像素子105の露光秒時を調節し、電子シャッタ機能で撮像素子106の露光秒時を調節する構成であるが、この限りではない。撮像素子105が電子シャッタ機能を有し、制御パルスで露光秒時を調節する構成でもよい。本実施例では、撮像素子105で主に静止画撮影を、撮像素子106で主に動画撮影を行うことを想定している。そのため、本実施例では撮像素子105は、撮像素子106よりも画素数が多いため、撮像素子105の出力した信号に基づいて高解像度の画像を取得することができる。ただし、撮像素子106に対するシャッタを具備し、撮像素子106で静止画撮影を行う構成としてもよく、撮像素子105、および撮像素子106の用途を限定するものではない。   The shutter 104 is a focal plane shutter that adjusts the exposure time during still image shooting. In this embodiment, the exposure time of the image sensor 105 is adjusted by the focal plane shutter, and the exposure time of the image sensor 106 is adjusted by the electronic shutter function, but this is not restrictive. The imaging device 105 may have an electronic shutter function and adjust the exposure time with a control pulse. In this embodiment, it is assumed that the image sensor 105 mainly performs still image shooting and the image sensor 106 mainly performs moving image shooting. For this reason, in this embodiment, the image sensor 105 has a larger number of pixels than the image sensor 106, so that a high-resolution image can be acquired based on the signal output from the image sensor 105. However, a configuration may be employed in which a shutter for the image sensor 106 is provided and still image shooting is performed by the image sensor 106, and the applications of the image sensor 105 and the image sensor 106 are not limited.

映像信号処理部121は、撮像素子105及び撮像素子106が出力する画像に対し信号処理を行う。例えばデジタル画像のホワイトバランス、色補間、色補正、γ変換、エッジ強調、解像度変換、ノイズ低減処理や、画像の明るさ、コントラスト、位相差AF情報等の解析を行い、処理を行った画像をメモリ132に出力する。   The video signal processing unit 121 performs signal processing on images output from the image sensor 105 and the image sensor 106. For example, digital image white balance, color interpolation, color correction, γ conversion, edge enhancement, resolution conversion, noise reduction processing, analysis of image brightness, contrast, phase difference AF information, etc., and processing the processed image Output to the memory 132.

映像信号処理部121が出力した解析データは、露出制御、オートフォーカス制御に利用する。   The analysis data output from the video signal processing unit 121 is used for exposure control and autofocus control.

静止画エンコード処理部122は、メモリ132に配置されている画像を入力として、例えばJPEGなどに代表される画像圧縮を行い、圧縮静止画像を再度メモリ132に出力する。   The still image encoding processing unit 122 receives an image arranged in the memory 132 as input, performs image compression represented by, for example, JPEG, and outputs the compressed still image to the memory 132 again.

動画エンコード処理部123は、メモリ132に配置されている複数の画像を入力として、例えばH.264などに代表される画像圧縮を行い、圧縮動画像を再度メモリ132に出力する。   The moving image encoding processing unit 123 receives a plurality of images arranged in the memory 132 as an input, for example, H.264. Image compression represented by H.264 is performed, and the compressed moving image is output to the memory 132 again.

メモリ132は、映像信号処理部121の出力画像の他、CPU131が各種処理を行なう際にデータを一時的に記憶する。   In addition to the output image of the video signal processing unit 121, the memory 132 temporarily stores data when the CPU 131 performs various processes.

不揮発性メモリ(不図示)は、CPU131が実行するプログラムデータを保持する。   A non-volatile memory (not shown) holds program data executed by the CPU 131.

タイミング発生部142は、撮像素子105、撮像素子106、映像信号処理部121に、蓄積動作や信号処理等のタイミングを提供する。   The timing generation unit 142 provides the image sensor 105, the image sensor 106, and the video signal processing unit 121 with timings such as accumulation operation and signal processing.

バス150には前述した構成部以外にレンズ制御部141、電源110、メモリ132、不揮発性メモリ(不図示)、表示制御部151、カード入出力部171、そして、各種のスイッチ類が接続される。   In addition to the components described above, a lens controller 141, a power supply 110, a memory 132, a non-volatile memory (not shown), a display controller 151, a card input / output unit 171, and various switches are connected to the bus 150. .

尚、上述の各種のスイッチ類とは、メインスイッチ161、第1レリーズスイッチ162、第2レリーズスイッチ163、拡大縮小変更ボタン164、動画記録開始/終了ボタン165、上下左右選択ボタン166、決定ボタン167である。   The various switches described above are the main switch 161, the first release switch 162, the second release switch 163, the enlargement / reduction change button 164, the moving image recording start / end button 165, the up / down / left / right selection button 166, and the enter button 167. It is.

電源110は、バス150を介してカメラ100の内部に設けられている各回路に電源供給を行う。   The power supply 110 supplies power to each circuit provided in the camera 100 via the bus 150.

表示制御部151は、バス150を介してタイミング発生部142からの信号に応じて、メモリ132に保存された表示用画像をD/A変換部152においてデジタル画像から変換された表示用のアナログ画像を表示する。変換されたアナログ画像は、液晶表示素子を有するTFTなどの表示部153、若しくはVIDEO出力端子154、HDMI(登録商標)出力端子155などのケーブルを介して外部に設けられた外部表示部156に表示される。   The display control unit 151 displays the display image stored in the memory 132 in accordance with the signal from the timing generation unit 142 via the bus 150 and is converted from the digital image by the D / A conversion unit 152. Is displayed. The converted analog image is displayed on an external display unit 156 provided outside via a display unit 153 such as a TFT having a liquid crystal display element, or a cable such as a VIDEO output terminal 154 or an HDMI (registered trademark) output terminal 155. Is done.

尚、デジタル画像が記憶されているメモリ132内部の領域をVRAMと呼ぶ。表示制御部151が、メモリ132のVRAMを読み出し前述の処理をおこなうことで、表示部153に表示用のアナログ画像が更新される。そして、上述の動作を連続的におこない表示部153あるいは外部表示部156に表示画像が更新され続けることによって動画の表示が可能となる。   An area inside the memory 132 in which the digital image is stored is referred to as VRAM. The display control unit 151 reads the VRAM in the memory 132 and performs the above-described processing, whereby the display analog image is updated on the display unit 153. The moving image can be displayed by continuously performing the above-described operation and continuously updating the display image on the display unit 153 or the external display unit 156.

カードスロット172は、例えばSDカード等の着脱可能な記録媒体173を差し込み可能である。そして、記録媒体173は、カードスロット172に差し込まれた状態でカード入出力部171と電気的に接続される。この状態で、メモリ132に記録されている画像を記録媒体173へと記録することが可能である。また、記録媒体173の内部に記録されたデータをカメラ100で読み出すことも可能である。   The card slot 172 can be inserted with a removable recording medium 173 such as an SD card. The recording medium 173 is electrically connected to the card input / output unit 171 while being inserted into the card slot 172. In this state, the image recorded in the memory 132 can be recorded on the recording medium 173. In addition, data recorded in the recording medium 173 can be read by the camera 100.

CPU131は、バス150を介して上述したようなカメラ100内の各部へと接続されており、カメラ100内の各部を統括的に制御する制御部である。本実施例では、CPU131は、レンズ制御部141、タイミング発生部142、映像信号処理部121、表示制御部151に対して、カメラ100内の各部の制御を指示する。尚、上述したような制御部や処理部を設けずに、CPU131がカメラ100内の各部の駆動を制御するような構成であっても良い。また、CPU131を設けずに上述した制御部や処理部がそれぞれ連動して制御(処理)をおこなうことでカメラ100内の各部の駆動を制御するような構成であってもよい。   The CPU 131 is connected to each unit in the camera 100 as described above via the bus 150, and is a control unit that comprehensively controls each unit in the camera 100. In this embodiment, the CPU 131 instructs the lens control unit 141, the timing generation unit 142, the video signal processing unit 121, and the display control unit 151 to control each unit in the camera 100. Note that the CPU 131 may be configured to control driving of each unit in the camera 100 without providing the control unit and the processing unit as described above. In addition, the configuration may be such that the control unit and the processing unit described above perform control (processing) in conjunction with each other without providing the CPU 131 to control driving of each unit in the camera 100.

[カメラ100の基本動作]
以下、本実施例に係る撮像装置であるカメラ100の基本動作について図1を参照して説明する。まず、ユーザによりメインスイッチ161がオンされることで、電源110はカメラ100を構成する各部へと電源を供給する。カメラ100を構成する各部へと電源の供給がなされると、撮像素子106に導かれ結像している被写体の光学像を撮像素子106で光電変換できるようになる。
[Basic operation of camera 100]
Hereinafter, the basic operation of the camera 100 which is the imaging apparatus according to the present embodiment will be described with reference to FIG. First, when the main switch 161 is turned on by the user, the power supply 110 supplies power to each unit constituting the camera 100. When power is supplied to each part of the camera 100, the image sensor 106 can photoelectrically convert the optical image of the subject that is guided to the image sensor 106 and is imaged.

次に、撮像素子106から定期的(例えば1秒に60回)に画像が取り込まれ、各種処理を実行した後にメモリ132のVRAMへ配置する。これにより、撮像素子106から取り込んだ画像を表示部153に逐次表示(ライブビュー)することができる。   Next, an image is taken in periodically from the image sensor 106 (for example, 60 times per second), and after various processing is performed, the image is placed in the VRAM of the memory 132. As a result, images captured from the image sensor 106 can be sequentially displayed (live view) on the display unit 153.

次に、上下左右選択ボタン166、決定ボタン167をユーザが操作することによって、GUIに表示された各種のパラメータの選択と設定を行うことが可能である。   Next, when the user operates the up / down / left / right selection button 166 and the determination button 167, various parameters displayed on the GUI can be selected and set.

また、拡大縮小変更ボタン164をユーザが操作することで、表示画像の拡大縮小を行うことが可能である。   Further, the user can operate the enlargement / reduction change button 164 to enlarge / reduce the display image.

次に、ライブビュー中にユーザが動画記録開始/終了ボタン165を押すと、撮像素子106が出力した信号に基づく動画の記録が開始または終了される。   Next, when the user presses the moving image recording start / end button 165 during live view, recording of the moving image based on the signal output from the image sensor 106 is started or ended.

次に、第1レリーズスイッチ162(以下SW1)はレリーズボタン(不図示)の第1ストローク(半押し状態)でオンとなり、被写体の撮影準備を開始する。ここで、撮影準備の詳細としては、レンズ制御部141によるレンズ101の駆動制御によって前述したフォーカス、ズーム、絞りなどの制御を必要に応じて実行する。   Next, the first release switch 162 (hereinafter referred to as SW1) is turned on by a first stroke (half-pressed state) of a release button (not shown) to start preparation for photographing a subject. Here, as the details of the preparation for photographing, the above-described control of focus, zoom, aperture, etc. is executed as necessary by the driving control of the lens 101 by the lens control unit 141.

次に、第2レリーズスイッチ163(以下SW2)は、レリーズボタン(不図示)の第2ストローク(全押し状態)でオンとなり、被写体の撮影を開始する。ここでいう撮影とは、撮像素子105又は撮像素子106から出力した信号に基づき記録するための画像を取得することである。被写体の撮影の詳細としては、シャッタ104と、撮像素子105を駆動することで被写体の光学像を光電変換し、各種画像処理を施した画像を取り込む。   Next, the second release switch 163 (hereinafter referred to as SW2) is turned on by a second stroke (fully pressed state) of a release button (not shown), and starts photographing the subject. Shooting here refers to acquiring an image to be recorded based on a signal output from the image sensor 105 or the image sensor 106. As details of photographing the subject, an optical image of the subject is photoelectrically converted by driving the shutter 104 and the image sensor 105, and an image subjected to various image processing is captured.

[カメラ100の露出制御及び焦点制御(カメラ100の基本動作)]
以下、本実施例に係る撮像装置であるカメラ100の露出制御及び焦点制御について図2を参照して説明する。図2は映像信号処理部121、及び、CPU131での露出制御及び焦点制御の流れを表すブロック図である。映像信号処理部121及びCPU131は、撮像素子105に対応して第一映像信号処理部201、第一露出検出部202(第1の露出検出部)、第一焦点検出部203を有する。また、映像信号処理部121及びCPU131は、撮像素子106に対応して第二映像信号処理部211、第二露出検出部212(第2の露出検出部)、第二焦点検出部213を有する。更に、映像信号処理部121及びCPU131は、露出制御部221、撮像素子制御部222、焦点制御部223を有する。
[Exposure Control and Focus Control of Camera 100 (Basic Operation of Camera 100)]
Hereinafter, exposure control and focus control of the camera 100 which is the imaging apparatus according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing the flow of exposure control and focus control in the video signal processing unit 121 and the CPU 131. The video signal processing unit 121 and the CPU 131 have a first video signal processing unit 201, a first exposure detection unit 202 (first exposure detection unit), and a first focus detection unit 203 corresponding to the imaging element 105. In addition, the video signal processing unit 121 and the CPU 131 include a second video signal processing unit 211, a second exposure detection unit 212 (second exposure detection unit), and a second focus detection unit 213 corresponding to the image sensor 106. Further, the video signal processing unit 121 and the CPU 131 include an exposure control unit 221, an image sensor control unit 222, and a focus control unit 223.

第一映像信号処理部201は、撮像素子105から出力される画像から画像の明るさ、コントラストや位相差AF情報等の解析を行う。第一映像信号処理部201は、画像の明るさ等の解析結果を第一露出検出部202に、コントラストや位相差AF情報等の解析結果を第一焦点検出部203に出力する。第一露出検出部202は第一映像信号処理部201から出力される画像の明るさ等の解析データを元に露出検出を行い、解析結果を露出制御部221に出力する。第一焦点検出部203は第一映像信号処理部201から出力されるコントラストや位相差AF情報等の解析データを元に焦点検出を行い、解析結果を焦点制御部223に出力する。   The first video signal processing unit 201 analyzes image brightness, contrast, phase difference AF information, and the like from the image output from the image sensor 105. The first video signal processing unit 201 outputs an analysis result such as image brightness to the first exposure detection unit 202 and an analysis result such as contrast and phase difference AF information to the first focus detection unit 203. The first exposure detection unit 202 performs exposure detection based on analysis data such as image brightness output from the first video signal processing unit 201, and outputs the analysis result to the exposure control unit 221. The first focus detection unit 203 performs focus detection based on analysis data such as contrast and phase difference AF information output from the first video signal processing unit 201, and outputs the analysis result to the focus control unit 223.

第二映像信号処理部211、第二露出検出部212、第二焦点検出部213は、撮像素子106が出力する画像に対し、それぞれ第一映像信号処理部201、第一露出検出部202、第一焦点検出部203と同等の処理を行う。   The second video signal processing unit 211, the second exposure detection unit 212, and the second focus detection unit 213 respectively perform a first video signal processing unit 201, a first exposure detection unit 202, and a second focus detection unit 213 on the image output from the image sensor 106. Processing equivalent to that of the single focus detection unit 203 is performed.

露出制御部221は、第一露出検出部202、及び、第二露出検出部212から出力される解析結果を入力とし露出制御値を算出し、撮像素子制御部222に出力する。絞り制御自動を含む露出制御モードである場合、絞り値をレンズ制御部141に出力してもよい。撮像素子制御部222は露出制御部221から出力される露出制御値を入力とし、撮像素子105、及び、撮像素子106の電荷蓄積時間等を制御する。   The exposure control unit 221 receives the analysis results output from the first exposure detection unit 202 and the second exposure detection unit 212 as input, calculates an exposure control value, and outputs the exposure control value to the image sensor control unit 222. If the exposure control mode includes automatic aperture control, the aperture value may be output to the lens control unit 141. The image sensor control unit 222 receives the exposure control value output from the exposure control unit 221 and controls the charge accumulation time of the image sensor 105 and the image sensor 106.

焦点制御部223は、第一焦点検出部203、及び、第二焦点検出部213から出力される解析結果を入力とし焦点制御値を算出し、レンズ制御部141に出力する。   The focus control unit 223 receives the analysis results output from the first focus detection unit 203 and the second focus detection unit 213 as input, calculates a focus control value, and outputs the focus control value to the lens control unit 141.

以上が本実施例におけるカメラ100の基本動作である。   The above is the basic operation of the camera 100 in the present embodiment.

[ライブビュー表示中の拡大表示(図3)]
以下ライブビュー(LVとも称する)表示中の拡大表示について、図3のフローチャートで説明する。
[Enlarged display during live view display (Figure 3)]
Hereinafter, enlarged display during live view (also referred to as LV) display will be described with reference to the flowchart of FIG.

この処理は、不揮発性メモリ(不図示)に記録されたプログラムを、CPU131が実行することにより実現する。   This process is realized by the CPU 131 executing a program recorded in a nonvolatile memory (not shown).

ライブビュー表示が開始されると、S301ではライブビュー拡大表示が有効かどうか、すなわち拡大縮小変更ボタン164が操作されたか否かをCPU131が判断し、拡大表示が無効の場合はS302に、有効の場合はS311に進む。ここで、ライブビュー拡大表示とは、ライブビュー(Lv)中に拡大縮小変更ボタン164をオンされている状態である。なお、拡大縮小変更ボタン164がオンされてから、拡大表示を終了するまでを、拡大表示モードとも称する。   When the live view display is started, the CPU 131 determines whether or not the live view enlarged display is valid in S301, that is, whether or not the enlargement / reduction change button 164 has been operated. If yes, go to S311. Here, the live view enlarged display is a state in which the enlargement / reduction change button 164 is turned on during the live view (Lv). Note that the period from when the enlargement / reduction change button 164 is turned on until the enlargement display ends is also referred to as an enlargement display mode.

拡大縮小変更ボタン164がオンされると、拡大表示する領域として指定された領域である指定領域について拡大表示が行われる。更に、拡大表示する領域(指定領域)は上下左右選択ボタン166にて位置を移動する事ができる。また、指定領域は、ユーザによって予め定められた領域であっても良い。更に、指定領域は、例えばCPU131(指定制御手段)が中央を指定領域とするよう制御しても良いし、直前までの焦点検出エリアを含むように指定領域を指定するようにしても良い。   When the enlargement / reduction change button 164 is turned on, enlargement display is performed for a designated area, which is an area designated as an enlargement display area. Further, the position of the area to be enlarged (designated area) can be moved with the up / down / left / right selection buttons 166. The designated area may be an area predetermined by the user. Further, for example, the CPU 131 (designation control unit) may control the designated area so that the center is the designated area, or the designated area may be designated so as to include the focus detection area up to immediately before.

また、指定領域は、拡大表示モード中において、拡大表示を行う際に、ユーザが直接指定しても良い。例えば、拡大縮小変更ボタン164をオンすることにより、拡大表示する領域(指定領域)を指定するための拡大表示枠501が表示され、上下左右選択ボタン166により拡大表示する領域を移動させるようにしても良い。更に、拡大縮小変更ボタン164への操作により、拡大表示する領域の拡大倍率を変更できるようにしても良い。   Further, the designated area may be directly designated by the user when performing enlarged display in the enlarged display mode. For example, when the enlargement / reduction change button 164 is turned on, an enlarged display frame 501 for designating an area to be enlarged (designated area) is displayed, and the area to be enlarged is moved by the up / down / left / right selection button 166. Also good. Furthermore, the enlargement / reduction change button 164 may be operated to change the enlargement magnification of the area to be enlarged and displayed.

また、外部表示部156がタッチパネルを有する場合には、画面へのドラッグ操作により拡大表示する領域を移動し、ピンチ操作によって拡大表示する領域の拡大倍率を変更できるようにしても良い。   When the external display unit 156 has a touch panel, the enlargement display area may be moved by a drag operation on the screen, and the enlargement magnification of the enlargement display area may be changed by a pinch operation.

なお、拡大縮小の指示や拡大表示枠501の移動は、趣旨に沿った操作が行われれば良く、拡大縮小変更ボタン164及び上下左右選択ボタン166以外の部材(例えばレバー、リング等)によって操作が行われても良い。   The enlargement / reduction instruction and the movement of the enlargement display frame 501 need only be performed according to the purpose, and can be performed by a member other than the enlargement / reduction change button 164 and the up / down / left / right selection button 166 (eg, a lever, a ring, etc.). It may be done.

S302では撮像素子106が出力する画像に対し、第二映像信号処理部211が各種信号処理を行う。例えば第二映像信号処理部211はデジタル画像のホワイトバランス、色補間、色補正、γ変換、エッジ強調、解像度変換、ノイズ低減処理や、画像の明るさ、コントラストや位相差AF情報等の解析を行う。そして、処理を行った画像をメモリ132に、画像の明るさの解析結果を第二露出検出部212に、コントラストや位相差AF情報の解析結果を第二焦点検出部213に出力する。ライブビュー拡大表示が有効ではない場合には、撮像素子106から出力した信号に基づく画像を表示に用いることで、撮像素子105から出力した信号に基づく画像を表示に用いる場合と比較しより高いフレームレートでライブビュー表示を行うことができる。   In S302, the second video signal processing unit 211 performs various signal processing on the image output from the image sensor 106. For example, the second video signal processing unit 211 analyzes the white balance, color interpolation, color correction, γ conversion, edge enhancement, resolution conversion, noise reduction processing of the digital image, image brightness, contrast, phase difference AF information, and the like. Do. The processed image is output to the memory 132, the analysis result of the brightness of the image is output to the second exposure detection unit 212, and the analysis result of the contrast and phase difference AF information is output to the second focus detection unit 213. When live view enlargement display is not effective, an image based on the signal output from the image sensor 106 is used for display, so that a higher frame than when an image based on the signal output from the image sensor 105 is used for display is used. Live view can be displayed at a rate.

S303では、第二焦点検出部213は第二映像信号処理部211から出力されるコントラストや位相差AF情報等の解析データを元に焦点検出を行い、解析結果を焦点制御部223に出力しS304に進む。この時、自動露出制御モードである場合、第二露出検出部212は第二映像信号処理部211から出力される画像の明るさ等の解析データを元に露出検出を行い、解析結果を露出制御部221に出力する。   In S303, the second focus detection unit 213 performs focus detection based on analysis data such as contrast and phase difference AF information output from the second video signal processing unit 211, and outputs the analysis result to the focus control unit 223. Proceed to At this time, in the automatic exposure control mode, the second exposure detection unit 212 performs exposure detection based on analysis data such as image brightness output from the second video signal processing unit 211, and controls the analysis result for exposure control. To the unit 221.

S304では、CPU131は撮像素子106から取り込んだ画像を表示部153にライブビュー表示(図5(a))するよう制御し、S305に進む。   In S304, the CPU 131 controls the display unit 153 to perform live view display (FIG. 5A) on the image captured from the image sensor 106, and the process proceeds to S305.

S311では動画記録中かをCPU131が判断し、動画記録中の場合はS322及び、S332に進み、動画記録中でないと判断した場合は、S312に進む。   In S311, the CPU 131 determines whether the moving image is being recorded. If the moving image is being recorded, the process proceeds to S322 and S332. If it is determined that the moving image is not being recorded, the process proceeds to S312.

S312では、映像信号処理部121が撮像素子105から画像の読み出しを行う。このとき、撮像素子106から出力した信号に基づく画像のうち拡大表示する領域として、ユーザによって又は予め指定された指定領域と撮像素子105における当該指定領域に対応する領域とをCPU131(変換手段)が対応付ける。指定領域は、例えば図5(a)でいうと拡大表示枠501の領域である。一例として、以下の式1で求めた領域を、撮像素子106から出力した信号に基づく画像の指定領域に対応する、撮像素子105が出力した信号に基づく画像の領域(対応領域)とする。CPU131は当該対応領域を第一映像信号処理部201に出力するよう制御し、S313に進む。   In S <b> 312, the video signal processing unit 121 reads an image from the image sensor 105. At this time, the CPU 131 (conversion unit) converts a designated area specified by the user or in advance and an area corresponding to the designated area in the image sensor 105 as an area to be enlarged and displayed in the image based on the signal output from the image sensor 106. Associate. The designated area is, for example, the area of the enlarged display frame 501 in FIG. As an example, the region obtained by the following Expression 1 is set as an image region (corresponding region) based on the signal output from the image sensor 105 corresponding to the designated region of the image based on the signal output from the image sensor 106. The CPU 131 controls to output the corresponding area to the first video signal processing unit 201, and the process proceeds to S313.

Figure 2017200061
Figure 2017200061

式1の変換式では、撮像素子105の画素数と撮像素子106の画素数とを用いて、CPU131が撮像素子106が出力した信号に基づく画像の指定領域と撮像素子106の対応領域とを対応づける。式1のように、撮像素子105の画素数を分子、撮像素子106の画素数を分母とし、撮像素子106の指定領域のx座標とy座標を座標A(x,y)とすると、撮像素子106の座標Aに対応する撮像素子105の座標A’を求める事ができる。この時、撮像素子105の全領域を読み出すのではなく、拡大表示処理に必要な領域のみ読み出してもよい。これにより処理速度を向上させることができる。   In the conversion formula of Expression 1, the CPU 131 uses the number of pixels of the image sensor 105 and the number of pixels of the image sensor 106 to correspond the designated area of the image based on the signal output from the image sensor 106 and the corresponding area of the image sensor 106. Put it on. As shown in Expression 1, when the number of pixels of the image sensor 105 is a numerator, the number of pixels of the image sensor 106 is a denominator, and the x coordinate and the y coordinate of the designated area of the image sensor 106 are coordinates A (x, y), the image sensor A coordinate A ′ of the image sensor 105 corresponding to the coordinate A 106 can be obtained. At this time, instead of reading the entire area of the image sensor 105, only the area necessary for the enlarged display process may be read. As a result, the processing speed can be improved.

S313からS314では、撮像素子105、第一映像信号処理部201、第一焦点検出部203、第一露出検出部202が、ステップS303からS304と同等の処理を行う。そして、CPU131(制御手段)が表示部153(第1の表示部)にライブビュー拡大の画像(図5(b))を表示するよう制御する。   In S313 to S314, the image sensor 105, the first video signal processing unit 201, the first focus detection unit 203, and the first exposure detection unit 202 perform processing equivalent to that in steps S303 to S304. Then, the CPU 131 (control unit) controls to display the live view enlarged image (FIG. 5B) on the display unit 153 (first display unit).

S313では、撮像素子105から出力した焦点検出信号を用いて映像信号処理部121が焦点検出を行い、当該焦点検出の結果に基づいてレンズ制御部141がレンズ101の駆動を制御する。撮像素子106と比較して画素数の多い撮像素子105から出力した焦点検出信号を用いて焦点検出を行うことで、より精度良く焦点検出を行うことができる。S301でライブビュー拡大表示が有効と判断されていることから、ユーザも細かくフォーカス状態を調節したいと考えていることが予想され、ユーザの要求にも合致する。   In step S313, the video signal processing unit 121 performs focus detection using the focus detection signal output from the image sensor 105, and the lens control unit 141 controls driving of the lens 101 based on the focus detection result. Focus detection can be performed with higher accuracy by performing focus detection using a focus detection signal output from the image sensor 105 having a larger number of pixels than the image sensor 106. Since it is determined that the live view enlarged display is valid in S301, it is expected that the user wants to finely adjust the focus state, which matches the user's request.

また、S312からS314の処理中は、撮像素子106が出力した信号に基づく画像の読み出し処理を停止してもよい。これにより撮像素子105と撮像素子106の両方を駆動する場合と比較して、電力消費を抑えることができる。   Further, during the processing from S312 to S314, the image reading processing based on the signal output from the image sensor 106 may be stopped. As a result, power consumption can be suppressed as compared with the case where both the image sensor 105 and the image sensor 106 are driven.

S322では撮像素子106が出力する画像に対し、映像信号処理部121がデジタル画像のホワイトバランス、色補間、色補正、γ変換、エッジ強調、解像度変換、ノイズ低減処理等を行い、処理を行った画像をメモリ132に出力する。   In step S322, the video signal processing unit 121 performs white balance, color interpolation, color correction, γ conversion, edge enhancement, resolution conversion, noise reduction processing, and the like on the image output from the image sensor 106. The image is output to the memory 132.

S322では、動画エンコード処理部123がメモリ132に配置されている複数の画像を入力として、例えばH.264などに代表される画像圧縮を行い、圧縮動画像を再度メモリ132に出力する。そして、メモリ132に記録されている圧縮動画像を記録媒体173に記録する。   In S322, the moving image encoding processing unit 123 receives a plurality of images arranged in the memory 132 as an input, for example, H.264. Image compression represented by H.264 is performed, and the compressed moving image is output to the memory 132 again. Then, the compressed moving image recorded in the memory 132 is recorded on the recording medium 173.

S332からS333では、S312からS313と同等の処理を行いS314に進み、S314でライブビュー拡大画像(図5(b))を表示しS305に進む。   In S332 to S333, processing equivalent to S312 to S313 is performed and the process proceeds to S314. In S314, the live view enlarged image (FIG. 5B) is displayed, and the process proceeds to S305.

S305ではライブビュー表示が継続しているかをCPU131が判断し、継続する場合はS301に進み、継続しない場合はライブビュー処理を終了する。   In S305, the CPU 131 determines whether the live view display is continued. If it is continued, the process proceeds to S301, and if it is not continued, the live view process is terminated.

以上説明したように、本実施例では、撮像素子106から出力した信号に基づく画像を表示している場合において、撮像素子106から出力した信号に基づく画像の一部について指定された指定領域を拡大表示する。この際に、拡大表示に用いる画像として、撮像素子106よりも画素数の少ない撮像素子105から出力した信号に基づく画像を表示する。これにより、画素数の異なる2つの撮像素子を持つ撮像装置において、フォーカス状態の確認のために画像を拡大して表示する場合に、より詳細にフォーカス状態を確認することができる。   As described above, in the present embodiment, when an image based on the signal output from the image sensor 106 is displayed, the designated area specified for a part of the image based on the signal output from the image sensor 106 is enlarged. indicate. At this time, an image based on a signal output from the image sensor 105 having a smaller number of pixels than the image sensor 106 is displayed as an image used for enlarged display. Thereby, in an imaging device having two imaging elements having different numbers of pixels, the focus state can be confirmed in more detail when an image is enlarged and displayed for confirmation of the focus state.

[実施例2]
実施例1では、ライブビュー中の拡大表示は、拡大画像のみを表示部153に表示していたが、通常画像の一部分に拡大画像を合成した合成画像を表示してもよい。ここでいう通常画像は、撮像素子105又は撮像素子106が出力した信号に基づくある画像の、全体の画像である。
[Example 2]
In the first embodiment, only the enlarged image is displayed on the display unit 153 for the enlarged display during the live view. However, a composite image obtained by synthesizing the enlarged image may be displayed on a part of the normal image. The normal image here is an entire image of an image based on a signal output from the image sensor 105 or the image sensor 106.

以下、ライブビュー中の通常画像に拡大画像を合成して表示する場合ついて、図4のフローチャートを参照して説明する。   Hereinafter, a case where an enlarged image is combined with a normal image in live view and displayed will be described with reference to a flowchart of FIG.

ライブビュー表示が開始されると、S501ではライブビュー拡大表示が有効かどうかをCPU131が判断し、拡大表示が無効の場合はS402に、有効の場合はS412及びS413に進む。   When the live view display is started, the CPU 131 determines in S501 whether the live view enlarged display is valid. If the enlarged display is invalid, the process proceeds to S402, and if valid, the process proceeds to S412 and S413.

ステップS402、S403、S404、S405については、実施例1のステップSS302、S303、S304、S305とそれぞれ同等の処理である為、説明を省略する。   Steps S402, S403, S404, and S405 are the same as steps SS302, S303, S304, and S305 of the first embodiment, and thus the description thereof is omitted.

ステップS412はステップS322と、ステップS422及びS423はステップS312及びS313とそれぞれ同等の処理である為、説明を省略する。   Step S412 is the same as step S322, and steps S422 and S423 are the same processes as steps S312 and S313, respectively, and thus description thereof is omitted.

S414では、映像信号処理部121がS412の通常画像と、S422の拡大画像を合成し図5(c)に示すように表示する。   In S414, the video signal processing unit 121 combines the normal image in S412 and the enlarged image in S422 and displays them as shown in FIG.

なお、本実施例中において動画を記録する場合においては、例えばS412で読み出した画像に基づいて動画を記録するようにしても良い。   In addition, when recording a moving image in a present Example, you may make it record a moving image based on the image read by S412, for example.

以上説明したように、本実施例によれば、画素数の異なる2つの撮像素子を持つ撮像装置において、フォーカス状態の確認のために画像を拡大して表示する場合に、より詳細にフォーカス状態を確認することができる。   As described above, according to the present embodiment, when an image is enlarged and displayed for confirmation of the focus state in the image pickup apparatus having two image pickup devices having different numbers of pixels, the focus state is more specifically set. Can be confirmed.

[その他変形例]
実施例1では、通常画像の表示と拡大画像の表示は同一の表示部153の表示を切り替えて行っていたが、通常画像と拡大画像を表示部153と外部表示部156に別々に表示してもよい。この場合、撮像装置のVIDEO出力端子154及びHDMI(登録商標)出力端子155に外部表示部156(第2の表示部)を接続する。拡大画像を外部表示部156に表示することで、より詳細にフォーカス状態を確認することができる。
[Other variations]
In the first embodiment, the display of the normal image and the display of the enlarged image are performed by switching the display of the same display unit 153. However, the normal image and the enlarged image are displayed separately on the display unit 153 and the external display unit 156. Also good. In this case, an external display unit 156 (second display unit) is connected to the VIDEO output terminal 154 and the HDMI (registered trademark) output terminal 155 of the imaging apparatus. By displaying the enlarged image on the external display unit 156, the focus state can be confirmed in more detail.

実施例1及び実施例2では、ライブビュー拡大表示が有効な場合、撮像素子105が出力した信号に基づく画像に基づき拡大画像を表示する場合について説明した。このとき、表示部153の解像度を考慮して、拡大表示の倍率が所定の倍率未満である場合には撮像素子106が出力した信号に基づく画像を拡大し、所定の倍率以上である場合は、撮像素子105が出力した信号に基づく画像を拡大画像として表示してもよい。所定の倍率の一例として、撮像素子106のピクセル等倍を閾値として設定しても良い。撮像素子106が出力した信号に基づく画像によりフォーカス状態を確認できるうちは撮像素子106が出力した信号に基づく画像を用いることで、所定の倍率に達するまでは使用する撮像素子を切り替えずに済む。   In the first and second embodiments, the case where the enlarged image is displayed based on the image based on the signal output from the imaging element 105 when the live view enlarged display is effective has been described. At this time, in consideration of the resolution of the display unit 153, when the magnification of the enlarged display is less than the predetermined magnification, the image based on the signal output from the image sensor 106 is enlarged. An image based on the signal output from the image sensor 105 may be displayed as an enlarged image. As an example of the predetermined magnification, the pixel equal magnification of the image sensor 106 may be set as a threshold value. While the focus state can be confirmed by the image based on the signal output from the image sensor 106, the image based on the signal output from the image sensor 106 is used, so that it is not necessary to switch the image sensor to be used until the predetermined magnification is reached.

また、実施例1及び実施例2において、撮像素子106及び撮像素子105のサイズが異なる場合は、実施例1で説明した式1に対し更にOffset値(オフセット値)を設定しても良い(式2)。これにより撮像素子のサイズの違いも加味した対応付けを行うことができる。   In the first embodiment and the second embodiment, when the sizes of the image sensor 106 and the image sensor 105 are different, an offset value (offset value) may be further set for the equation 1 described in the first embodiment (equation). 2). Thereby, it is possible to perform the association taking into account the difference in the size of the image sensor.

Figure 2017200061
Figure 2017200061

また、実施例1及び実施例2において、撮像素子106が出力した信号に基づいて記録のための動画を取得し、撮像素子105から取得した焦点検出信号を用いて焦点検出を行う場合、撮像素子105と撮像素子106とでフレームレートを異ならせても良い。具体的には、撮像素子105のフレームレートを撮像素子106のフレームレートよりも高くしても良い。動画記録中のフレームレートは記録する動画のフレームレートに固定されるため、動画記録に用いていないほうの撮像素子で動画のフレームレートより高いフレームレートで焦点検出信号を出力する。これにより、焦点検出信号を出力する回数が増えるため、高速に精度良くフォーカス処理(焦点検出とレンズ制御)を行うことができる。なお、ライブビュー中に動画記録に用いていないほうの撮像素子で動画のフレームレートより高いフレームレートで焦点検出信号を出力することによって、同様の効果を得ることができる。高解像度の撮像素子105のフレームレートを上げるために、撮像素子105の読み出しは低解像度の撮像素子106のフォーカスエリアに対応する領域を部分的に読み出しても良い。   In the first and second embodiments, when a moving image for recording is acquired based on the signal output from the image sensor 106 and focus detection is performed using the focus detection signal acquired from the image sensor 105, the image sensor The frame rate may be different between 105 and the image sensor 106. Specifically, the frame rate of the image sensor 105 may be higher than the frame rate of the image sensor 106. Since the frame rate during moving image recording is fixed to the frame rate of the moving image to be recorded, the focus detection signal is output at a frame rate higher than the frame rate of the moving image with the image sensor not used for moving image recording. This increases the number of times the focus detection signal is output, so that focus processing (focus detection and lens control) can be performed at high speed and with high accuracy. The same effect can be obtained by outputting the focus detection signal at a frame rate higher than the frame rate of the moving image with the image sensor not used for moving image recording during the live view. In order to increase the frame rate of the high-resolution imaging device 105, the reading of the imaging device 105 may partially read an area corresponding to the focus area of the low-resolution imaging device 106.

また、実施例1及び実施例2において、露出制御部221が第一露出検出部202又は/及び第二露出検出部212の検出結果に基づき、撮像素子105と撮像素子106とで露出を異ならせるように独立に制御しても良い。なお、ここでいう露出とは、シャッタ速度、露光時間(電荷蓄積時間)、ISO感度等によって決まる。例えばS323で撮像素子106が出力した信号に基づく動画の露出が所定の露出以上、又は所定の露出未満である場合は、S322で拡大表示する撮像素子105が出力した信号に基づく画像をフォーカス状態が確認しやすい露出となるよう制御しても良い。すなわち、撮像素子106の露出設定とは異なるフォーカス調整に合った撮像素子105の露出を第一露出検出部202で解析し、露出制御部221に出力してもよい。具体的には、図6(a)のように通常画像の拡大枠内の領域が所定の露出以上であるとCPU131(露出判定手段)が判定した場合、図6(b)のように撮像素子105の拡大画像は撮像素子106の画像と比較して露出が低くなるよう制御する。一方、通常画像の拡大枠内の画像が所定の露出未満であるとCPU131が判定した場合、撮像素子105の拡大画像は撮像素子106の画像と比較して露出が高くなるよう制御する。これにより、露出により撮像素子105の画像ではフォーカス状態を確認し辛い場合であっても、撮像素子106の画像を用いてより詳細にフォーカス状態を確認することができる。   In the first and second embodiments, the exposure control unit 221 varies the exposure between the image sensor 105 and the image sensor 106 based on the detection result of the first exposure detector 202 and / or the second exposure detector 212. As such, it may be controlled independently. The exposure here is determined by shutter speed, exposure time (charge accumulation time), ISO sensitivity, and the like. For example, when the exposure of the moving image based on the signal output from the image sensor 106 in S323 is equal to or greater than the predetermined exposure or less than the predetermined exposure, the image based on the signal output from the image sensor 105 displayed in S322 is focused. The exposure may be controlled so that it can be easily confirmed. That is, the exposure of the image sensor 105 that matches the focus adjustment different from the exposure setting of the image sensor 106 may be analyzed by the first exposure detection unit 202 and output to the exposure control unit 221. Specifically, when the CPU 131 (exposure determination unit) determines that the area within the enlargement frame of the normal image is equal to or greater than a predetermined exposure as shown in FIG. 6A, the image sensor as shown in FIG. 6B. The enlarged image 105 is controlled so that the exposure is lower than the image of the image sensor 106. On the other hand, when the CPU 131 determines that the image within the enlargement frame of the normal image is less than the predetermined exposure, the enlarged image of the image sensor 105 is controlled to have a higher exposure than the image of the image sensor 106. Thereby, even if it is difficult to confirm the focus state in the image of the image sensor 105 due to exposure, the focus state can be confirmed in more detail using the image of the image sensor 106.

また、実施例1及び実施例2では、フォーカス処理(焦点検出とレンズ制御)を自動で行う場合(いわゆるAF)について説明したが、焦点状態の調節はユーザによる手動(いわゆるMF)でも良い。このとき、S303,S313,S333がユーザによるMF操作に置き代わる。   In the first and second embodiments, the case where the focus processing (focus detection and lens control) is automatically performed (so-called AF) has been described. However, the focus state may be manually adjusted by the user (so-called MF). At this time, S303, S313, and S333 are replaced with the MF operation by the user.

また、本発明は上述の実施例の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み取り実行する処理でも実現できる。更に、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。   Further, the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program Can also be realized. Further, it can be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100 カメラ(撮像装置)
103 ハーフミラー
105 撮像素子
106 撮像素子
131 CPU
100 camera (imaging device)
103 Half mirror 105 Image sensor 106 Image sensor 131 CPU

Claims (24)

撮像光学系を通過した光束を第1の光束と第2の光束に分離する光束分離手段と、
複数の画素部を有し、前記第1の光束を受光し、信号を出力する第1の撮像素子と、
複数の画素部を有し、前記第2の光束を受光し、信号を出力する撮像素子であって、前記第1の撮像素子よりも画素部の数が少ない第2の撮像素子と、
前記第1の撮像素子又は前記第2の撮像素子から出力した信号に基づく画像を表示する表示手段における画像の拡大倍率が所定の倍率よりも小さい場合には前記第2の撮像素子から出力した信号に基づく画像を表示し、前記表示手段における画像の少なくとも一部の拡大倍率が前記所定の倍率以上の場合には前記第1の撮像素子から出力した信号に基づく画像を表示する制御手段と、を有することを特徴とする撮像装置。
A light beam separating means for separating a light beam that has passed through the imaging optical system into a first light beam and a second light beam;
A first imaging device having a plurality of pixel portions, receiving the first light flux, and outputting a signal;
A second imaging device having a plurality of pixel portions, receiving the second light flux, and outputting a signal, wherein the number of pixel portions is smaller than that of the first imaging device;
The signal output from the second image sensor when the magnification of the image in the display means for displaying an image based on the signal output from the first image sensor or the second image sensor is smaller than a predetermined magnification. Control means for displaying an image based on a signal output from the first image sensor when an enlargement magnification of at least a part of the image on the display means is greater than or equal to the predetermined magnification; An imaging apparatus comprising:
前記制御手段は、前記第2の撮像素子から出力した信号に基づく画像の一部について指定された指定領域を拡大表示する際に、前記拡大表示に用いる画像として、前記指定領域に対応づけられた領域について前記第1の撮像素子から出力した信号に基づく画像を表示することを特徴とする請求項1に記載の撮像装置。   The control means associates the designated area with the designated area as an image used for the enlarged display when the designated area designated for a part of the image based on the signal output from the second image sensor is enlarged and displayed. The image pickup apparatus according to claim 1, wherein an image based on a signal output from the first image pickup element is displayed for a region. 前記制御手段は、前記指定領域に対応する前記第1の撮像素子から出力した信号に基づく画像と前記第2の撮像素子から出力した信号に基づく画像との合成画像を表示することを特徴とする請求項1又は請求項2に記載の撮像装置。   The control means displays a composite image of an image based on a signal output from the first image sensor corresponding to the designated area and an image based on a signal output from the second image sensor. The imaging device according to claim 1 or 2. 前記第2の撮像素子から出力した信号に基づく画像の前記指定領域と前記第1の撮像素子における前記指定領域に対応する領域とを対応づける変換手段を有し、
前記変換手段は、前記第1の撮像素子の画素数の前記第2の撮像素子の画素数に対する比に基づいて、前記第2の撮像素子から出力した信号に基づく画像の前記指定領域と前記第1の撮像素子から出力した信号に基づく画像における対応する領域との対応づけを行い、
前記制御手段は前記変換手段の対応づけに基づいて前記指定領域に対応する前記第1の撮像素子の画像を表示することを特徴とする請求項1乃至請求項3のいずれか1項に記載の撮像装置。
Conversion means for associating the designated area of the image based on the signal output from the second image sensor with an area corresponding to the designated area in the first image sensor;
The converting means is configured to select the designated region of the image based on a signal output from the second image sensor and the first area based on a ratio of the number of pixels of the first image sensor to the number of pixels of the second image sensor Performing correspondence with a corresponding region in an image based on a signal output from one image sensor;
The said control means displays the image of the said 1st image pick-up element corresponding to the said designation | designated area | region based on matching of the said conversion means, The one of Claim 1 thru | or 3 characterized by the above-mentioned. Imaging device.
前記第1の撮像素子と前記第2の撮像素子の露出を独立に制御する露出制御手段を有することを特徴とする請求項1乃至請求項4のいずれか1項に記載の撮像装置。   5. The image pickup apparatus according to claim 1, further comprising an exposure control unit that independently controls exposure of the first image sensor and the second image sensor. 6. 前記第2の撮像素子から出力した信号に基づく画像に基づき動画を記録する場合において、前記第2の撮像素子が出力した信号に基づく画像の露出が所定の露出以上である場合には、前記露出制御手段は前記第1の撮像素子が出力した信号に基づく画像の露出が前記第2の撮像素子が出力した信号に基づく画像の露出と比較して低くなるよう制御し、前記第2の撮像素子の露出が所定の露出未満である場合には、前記露出制御手段は前記第1の撮像素子が出力した信号に基づく画像の露出が前記第2の撮像素子が出力した信号に基づく画像の露出と比較して高くなるよう制御し、
前記制御手段は前記第1の撮像素子から出力した信号に基づく画像を用いて拡大表示を行うことを特徴とする請求項5に記載の撮像装置。
When recording a moving image based on an image based on a signal output from the second image sensor, if the exposure of the image based on the signal output from the second image sensor is equal to or greater than a predetermined exposure, the exposure The control means controls the exposure of the image based on the signal output from the first image sensor to be lower than the exposure of the image based on the signal output from the second image sensor, and the second image sensor When the exposure of the image is less than a predetermined exposure, the exposure control means determines that the exposure of the image based on the signal output from the first image sensor is the exposure of the image based on the signal output from the second image sensor. Control to be higher than
The imaging apparatus according to claim 5, wherein the control unit performs an enlarged display using an image based on a signal output from the first imaging element.
前記制御手段は前記第1の撮像素子から出力した信号に基づく画像を前記表示手段とは異なる外部の表示手段に拡大表示を可能とすることを特徴とする請求項1乃至請求項6のいずれか1項に記載の撮像装置。   7. The control unit according to claim 1, wherein the control unit enables an enlarged display of an image based on a signal output from the first image sensor on an external display unit different from the display unit. The imaging apparatus according to item 1. 前記指定領域は、ユーザが指定した領域であることを特徴とする請求項1乃至請求項7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the designated area is an area designated by a user. 前記指定領域は、拡大表示モードが設定される前に予め指定された指定領域であることを特徴とする請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the designated area is a designated area designated in advance before the enlarged display mode is set. 前記指定領域は、前記第2の撮像素子から出力した信号に基づく画像の一部について指定された指定領域を拡大表示する際に、ユーザが拡大表示モード中において指定した領域であることを特徴とする請求項8に記載の撮像装置。   The designated area is an area designated by a user during an enlarged display mode when a designated area designated for a part of an image based on a signal output from the second image sensor is enlarged and displayed. The imaging device according to claim 8. 前記指定領域を指定する指定制御手段を有することを特徴とする請求項1乃至請求項7のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a designation control unit that designates the designated area. 前記指定領域は、中央を含む領域であることを特徴とする請求項11に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the designated area is an area including a center. 前記指定領域は、直前に焦点検出に用いていた焦点検出エリアを含む領域であることを特徴とする請求項11に記載の撮像装置。   The imaging apparatus according to claim 11, wherein the designated area is an area including a focus detection area used for focus detection immediately before. 前記第2の撮像素子が出力した信号に基づき動画を記録することを特徴とする請求項1乃至請求項13のいずれか1項に記載の撮像装置。   The image pickup apparatus according to claim 1, wherein a moving image is recorded based on a signal output from the second image pickup element. 前記第1の撮像素子又は前記第2の撮像素子の少なくとも1つから取得した焦点検出信号を用いて位相差式の焦点検出を行う焦点検出手段を有し、
前記制御手段が前記第1の撮像素子から取得した画像を表示している場合に、前記焦点検出手段は前記第1の撮像素子から取得した焦点検出信号を用いて焦点検出を行うことを特徴とする請求項1乃至請求項14のいずれか1項に記載の撮像装置。
Focus detection means for performing phase difference type focus detection using a focus detection signal acquired from at least one of the first image sensor or the second image sensor;
The focus detection unit performs focus detection using a focus detection signal acquired from the first image sensor when the control unit displays an image acquired from the first image sensor. The imaging device according to any one of claims 1 to 14.
前記焦点検出手段による位相差式の焦点検出は、位相差式によるデフォーカス量の取得であることを特徴とする請求項15に記載の撮像装置。   16. The imaging apparatus according to claim 15, wherein the phase difference type focus detection by the focus detection means is acquisition of a defocus amount by a phase difference type. 前記第1の撮像素子及び前記第2の撮像素子はいずれも複数の画素部を有し、前記複数の画素部は1つの画素部につき一つのマイクロレンズと一対の光電変換部を有することを特徴とする請求項1乃至請求項16のいずれか1項に記載の撮像装置。   Each of the first image sensor and the second image sensor has a plurality of pixel units, and the plurality of pixel units have one microlens and a pair of photoelectric conversion units per pixel unit. The imaging device according to any one of claims 1 to 16. 前記第1の撮像素子から取得した焦点検出信号を用いて焦点検出を行う場合において、前記第1の撮像素子のフレームレートは、前記第2の撮像素子のフレームレートよりも高いことを特徴とする請求項1乃至請求項17のいずれか1項に記載の撮像装置。   When performing focus detection using a focus detection signal acquired from the first image sensor, the frame rate of the first image sensor is higher than the frame rate of the second image sensor. The imaging device according to any one of claims 1 to 17. 撮像光学系を通過した光束を第1の光束と第2の光束に分離する光束分離手段と、
複数の画素部を有し、前記第1の光束を受光し、信号を出力する第1の撮像素子と、
複数の画素部を有し、前記第2の光束を受光し、信号を出力する撮像素子であって、前記第1の撮像素子よりも画素部の数が少ない第2の撮像素子と、を有する撮像装置の制御方法において、
前記第1の撮像素子又は前記第2の撮像素子から出力した信号に基づく画像を第1の表示部に表示する表示ステップと、
前記表示ステップにおける画像の拡大倍率が所定の倍率より小さい場合には前記第2の撮像素子から出力した信号に基づく画像を表示し、前記表示手段における画像の少なくとも一部の拡大倍率が前記所定の倍率以上の場合には前記第1の撮像素子から出力した信号に基づく画像を表示する制御ステップと、を有することを特徴とする撮像装置の制御方法。
A light beam separating means for separating a light beam that has passed through the imaging optical system into a first light beam and a second light beam;
A first imaging device having a plurality of pixel portions, receiving the first light flux, and outputting a signal;
An image pickup device that has a plurality of pixel portions, receives the second light flux, and outputs a signal, and has a second image pickup device with a smaller number of pixel portions than the first image pickup device. In the control method of the imaging device,
A display step of displaying an image based on a signal output from the first image sensor or the second image sensor on the first display unit;
When the magnification of the image in the display step is smaller than a predetermined magnification, an image based on the signal output from the second image sensor is displayed, and the magnification of at least a part of the image on the display means is the predetermined magnification And a control step of displaying an image based on the signal output from the first image sensor when the magnification is equal to or greater than the magnification.
請求項19に記載の撮像装置の制御方法における各ステップをコンピュータによって実行させるためのプログラム。   The program for making a computer perform each step in the control method of the imaging device of Claim 19. 請求項20に記載のプログラムをコンピュータで読み取ることができるように記憶する記憶媒体。   A storage medium for storing the program according to claim 20 so that the program can be read by a computer. 撮像光学系を通過した光束を第1の光束と第2の光束に分離する光束分離手段と、
複数の画素部を有し、前記第1の光束を受光し、信号を出力する第1の撮像素子と、
複数の画素部を有し、前記第2の光束を受光し、信号を出力する撮像素子であって、前記第1の撮像素子よりも画素部の数が少ない第2の撮像素子と、
前記第1の撮像素子又は前記第2の撮像素子から出力した信号に基づく画像を表示する表示手段に前記第2の撮像素子から出力した信号に基づく画像を表示している場合において、前記第2の撮像素子から出力した信号に基づく画像の一部について指定された指定領域を拡大表示する際に、前記拡大表示に用いる画像として、前記指定領域に対応づけられた領域について前記第1の撮像素子から出力した信号に基づく画像を表示する制御手段と、を有することを特徴とする撮像装置。
A light beam separating means for separating a light beam that has passed through the imaging optical system into a first light beam and a second light beam;
A first imaging device having a plurality of pixel portions, receiving the first light flux, and outputting a signal;
A second imaging device having a plurality of pixel portions, receiving the second light flux, and outputting a signal, wherein the number of pixel portions is smaller than that of the first imaging device;
In the case where an image based on the signal output from the second image sensor is displayed on the display means for displaying an image based on the signal output from the first image sensor or the second image sensor, the second When the designated area designated for a part of the image based on the signal output from the image pickup element is enlarged and displayed, the first image pickup element for the area associated with the designated area is used as the image used for the enlarged display. Control means for displaying an image based on a signal output from the image pickup apparatus.
前記制御手段は、前記第2の撮像素子から出力した信号に基づく画像に対する拡大表示の倍率が所定の倍率以上である場合には、前記第1の撮像素子から出力した信号に基づく画像を用いて拡大表示を行い、前記所定の倍率未満である場合には、前記第2の撮像素子から出力した信号に基づく画像を用いて拡大表示を行うことを特徴とする請求項22に記載の撮像装置。   The control means uses the image based on the signal output from the first image sensor when the magnification of the enlarged display with respect to the image based on the signal output from the second image sensor is equal to or greater than a predetermined magnification. 23. The imaging apparatus according to claim 22, wherein enlarged display is performed, and when the magnification is less than the predetermined magnification, enlarged display is performed using an image based on a signal output from the second imaging element. 撮像光学系を通過した光束を第1の光束と第2の光束に分離する光束分離手段と、
複数の画素部を有し、前記第1の光束を受光し、信号を出力する第1の撮像素子と、
複数の画素部を有し、前記第2の光束を受光し、信号を出力する撮像素子であって、前記第1の撮像素子よりも出力する信号に基づく画像の解像度が低い第2の撮像素子と、
前記第1の撮像素子又は前記第2の撮像素子が出力した信号に基づく画像を表示する表示手段に前記第2の撮像素子が出力した信号に基づく画像を表示している場合において、前記第2の撮像素子から出力した信号に基づく画像の一部について指定された指定領域を拡大表示する際に、前記拡大に用いる画像として前記第1の撮像素子が出力した信号に基づく画像を表示する制御手段を有することを特徴とする撮像装置。
A light beam separating means for separating a light beam that has passed through the imaging optical system into a first light beam and a second light beam;
A first imaging device having a plurality of pixel portions, receiving the first light flux, and outputting a signal;
An image pickup device having a plurality of pixel portions, receiving the second light flux, and outputting a signal, wherein the image pickup device has a lower image resolution based on the signal output from the first image pickup device. When,
In the case where an image based on the signal output from the second image sensor is displayed on the display means for displaying an image based on the signal output from the first image sensor or the second image sensor, the second Control means for displaying an image based on a signal output from the first image sensor as an image used for the enlargement when displaying a specified area specified for a part of an image based on a signal output from the image sensor An imaging device comprising:
JP2016089719A 2016-04-27 2016-04-27 Imaging apparatus, control method, program and recording medium Pending JP2017200061A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016089719A JP2017200061A (en) 2016-04-27 2016-04-27 Imaging apparatus, control method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016089719A JP2017200061A (en) 2016-04-27 2016-04-27 Imaging apparatus, control method, program and recording medium

Publications (1)

Publication Number Publication Date
JP2017200061A true JP2017200061A (en) 2017-11-02

Family

ID=60238273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016089719A Pending JP2017200061A (en) 2016-04-27 2016-04-27 Imaging apparatus, control method, program and recording medium

Country Status (1)

Country Link
JP (1) JP2017200061A (en)

Similar Documents

Publication Publication Date Title
JP7185434B2 (en) Electronic device for capturing images using multiple cameras and image processing method using the same
KR101391042B1 (en) Image processing device capable of generating wide-range image
KR101346426B1 (en) Image processing device capable of generating wide-range image
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
US20110109771A1 (en) Image capturing appratus and image capturing method
JP2009225072A (en) Imaging apparatus
JP5950678B2 (en) Imaging apparatus, control method, and program
JP2011027847A (en) Af frame automatic tracking system
JP6752681B2 (en) Display control device, control method and program of display control device, and storage medium
JP2008288868A (en) Imaging device and program
KR20120115119A (en) Image processing device for generating composite image having predetermined aspect ratio
KR101599881B1 (en) Digital image signal processing apparatus method for controlling the apparatus and medium for recording the method
US8717477B2 (en) Imaging apparatus switching between display of image and enlarged image of focus area
JP2010141814A (en) Image processing apparatus, imaging apparatus, program, and method of image processing
JP2010206521A (en) Image capturing apparatus, method of correcting image, and program
JP5014267B2 (en) Imaging device
KR20130005883A (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method
JP2019009694A (en) Imaging apparatus, control method and program
KR20120068696A (en) Image capturing device and image capturing method
JP2022109139A (en) Imaging apparatus, control method, and program
JP2017200061A (en) Imaging apparatus, control method, program and recording medium
JP5276538B2 (en) AF frame automatic tracking system
JP2020184698A (en) Imaging apparatus and control method of the same
WO2012099174A1 (en) Autofocus system
WO2011101928A1 (en) Three-dimensional image capturing adopter, hybrid image-capturing system, and electronic camera