JP2018200481A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2018200481A
JP2018200481A JP2018144878A JP2018144878A JP2018200481A JP 2018200481 A JP2018200481 A JP 2018200481A JP 2018144878 A JP2018144878 A JP 2018144878A JP 2018144878 A JP2018144878 A JP 2018144878A JP 2018200481 A JP2018200481 A JP 2018200481A
Authority
JP
Japan
Prior art keywords
mode
imaging
unit
focus
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018144878A
Other languages
Japanese (ja)
Inventor
鉾井 逸人
Hayato Hokoi
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018144878A priority Critical patent/JP2018200481A/en
Publication of JP2018200481A publication Critical patent/JP2018200481A/en
Pending legal-status Critical Current

Links

Images

Abstract

To save power while maintaining the accuracy of focus adjustment during focus adjustment based on extraction of a main subject area.SOLUTION: An imaging device includes: an imaging unit having a first mode for taking a subject image and generating composition confirmation image data and a second mode for taking a subject image and generating record image data; an area detection unit for calculating a feature quantity of an image indicated by the composition confirmation image data and detecting a specific area on the basis of the feature quantity; and a control unit for executing preparation operation for imaging on the basis of information calculated from the specific area detected by the area detection unit before the imaging unit starts imaging in the second mode.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

従来、焦点調節に関する様々な技術が考えられている。例えば、特許文献1の発明では、被写体抽出の手法を用いた焦点調節を行う撮像装置が開示されている。特許文献1の発明では、被写体形状の変化量に応じてAF測距枠を変形することにより、被写体がカメラ方向に移動する場合でも、被写体に対して最適に自動焦点調節を行うことを可能としている。   Conventionally, various techniques relating to focus adjustment have been considered. For example, the invention of Patent Document 1 discloses an imaging apparatus that performs focus adjustment using a subject extraction technique. In the invention of Patent Document 1, it is possible to optimally perform automatic focus adjustment on a subject even when the subject moves in the camera direction by deforming the AF distance measurement frame in accordance with the amount of change in the subject shape. Yes.

特開2009−069748号公報JP 2009-069748 A

ところで、従来から、動いている被写体に対して連続的に焦点調節を行うコンティニュアスAFについても様々な技術が考えられているが、画角の変化に対し、的確な連続性が保たれない場合も多くあった。そのため、AFの評価値が変化した場合には、再スキャンを行う必要性があった。また、レンズ制御が上述したAFの評価値に拠っているため、無駄な駆動を行ったり、必要な時に駆動しなかったりいう問題も多く発生していた。さらに、コンティニュアスAFは、消費電力も大きいという問題もある。   By the way, various techniques have been considered for continuous AF that continuously adjusts the focus of a moving subject. However, accurate continuity cannot be maintained with respect to changes in the angle of view. There were many cases. Therefore, when the AF evaluation value changes, it is necessary to perform rescanning. Further, since the lens control is based on the above-described AF evaluation value, there are many problems that unnecessary driving is performed and driving is not performed when necessary. Furthermore, continuous AF also has a problem of high power consumption.

本発明は、前記の点に鑑みてなされたものであり、主要被写体領域の抽出に基づく焦点調節を行う際に、焦点調節の的確性を維持しつつ省電力を実現することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to realize power saving while maintaining the accuracy of focus adjustment when performing focus adjustment based on extraction of a main subject region.

本発明の撮像装置は、被写体像を撮像して構図確認用画像データを生成する第1モードと、前記被写体像を撮像して記録用画像データを生成する第2モードとを有する撮像部と、前記構図確認用画像データにより示される画像の特徴量を算出し、前記特徴量に基づいて特定領域を検出する領域検出部と、前記第2モードで前記撮像部が撮像を行う前に、前記領域検出部で検出された前記特定領域から算出された情報に基づいて、撮像の準備動作を実行する制御部とを備える。   An imaging apparatus of the present invention includes an imaging unit having a first mode for capturing a subject image and generating composition confirmation image data, and a second mode for capturing the subject image and generating recording image data; A feature amount of an image indicated by the composition confirmation image data is calculated, a region detection unit that detects a specific region based on the feature amount, and the region before the imaging unit captures an image in the second mode. And a control unit that executes an imaging preparation operation based on information calculated from the specific area detected by the detection unit.

なお、前記制御部は、前記領域検出部で検出された前記特定領域の前記構図確認用画像データから測距情報を算出しても良い。   The control unit may calculate distance measurement information from the composition confirmation image data of the specific area detected by the area detection unit.

また、前記撮像部は、光学系を介して入射した前記被写体像を撮像して前記構図確認用画像データおよび前記記録用画像データを生成し、前記制御部は、前記準備動作として、前記光学系に関する合焦制御を含む動作を実行しても良い。   The imaging unit captures the subject image incident via an optical system to generate the composition confirmation image data and the recording image data, and the control unit performs the optical system as the preparation operation. Operations including focusing control related to the above may be executed.

また、前記制御部は、前記合焦制御として、前記光学系のレンズ位置の変更を含む動作を実行しても良い。   Further, the control unit may execute an operation including a change of a lens position of the optical system as the focusing control.

また、前記第1モードから前記第2モードへ切り替えるモード切替指示を受け付ける受付部をさらに備え、前記制御部は、前記モード切替指示を受け付けると、前記第2モードにおいて前記測距情報に基づく合焦位置に前記レンズ位置を変更して撮像を行っても良い。   In addition, a reception unit that receives a mode switching instruction for switching from the first mode to the second mode is further included, and when the control unit receives the mode switching instruction, the focus is based on the distance measurement information in the second mode. Imaging may be performed by changing the lens position to a position.

また、前記第1モードから前記第2モードへ切り替えるモード切替指示を受け付ける受付部をさらに備え、前記制御部は、前記準備動作として、前記測距情報に基づく合焦位置の近傍位置に前記レンズ位置を変更し、前記モード切替指示を受け付けると、前記第2モードにおいて前記レンズ位置を変更せずに撮像を行うか、または、前記第2モードにおいて前記合焦位置に前記レンズ位置を変更して撮像を行っても良い。   In addition, the image processing apparatus further includes a reception unit that receives a mode switching instruction for switching from the first mode to the second mode, and the control unit includes the lens position at a position near a focus position based on the distance measurement information as the preparation operation. When the mode switching instruction is accepted, the image is captured without changing the lens position in the second mode, or the lens position is changed to the in-focus position in the second mode. May be performed.

また、前記第1モードから前記第2モードへ切り替えるモード切替指示を受け付ける受付部をさらに備え、前記制御部は、前記準備動作として、前記測距情報に基づく第1合焦制御を行って第1合焦位置に前記レンズ位置を変更するかまたは前記測距情報に基づく第1合焦制御を行って前記第1合焦位置の近傍位置に前記レンズ位置を変更し、前記モード切替指示を受け付けると、現在の前記レンズ位置の近傍において、前記第1合焦制御よりも精度が高い第2合焦制御を行って第2合焦位置に前記レンズ位置を変更しても良い。   In addition, a reception unit that receives a mode switching instruction for switching from the first mode to the second mode is further provided, and the control unit performs a first focusing control based on the distance measurement information as the first operation and performs a first focusing control. When the lens position is changed to the in-focus position or the first in-focus control based on the distance measurement information is performed to change the lens position to a position near the first in-focus position, and the mode switching instruction is accepted In the vicinity of the current lens position, the second focus control with higher accuracy than the first focus control may be performed to change the lens position to the second focus position.

また、前記第1モードから前記第2モードへ切り替えるモード切替指示を受け付ける受付部をさらに備え、前記制御部は、前記準備動作として、前記測距情報に基づく合焦位置に前記レンズ位置を変更し、前記モード切替指示を受け付けると、前記第2モードにおいて前記レンズ位置を変更せずに撮像を行っても良い。   In addition, the image processing apparatus further includes a reception unit that receives a mode switching instruction for switching from the first mode to the second mode, and the control unit changes the lens position to a focus position based on the distance measurement information as the preparation operation. When the mode switching instruction is received, imaging may be performed without changing the lens position in the second mode.

また、前記制御部により求めた前記測距情報を記憶する記憶部をさらに備え、
前記制御部は、前記モード切替指示を受け付けるまで、前記測距情報を継続的に算出するとともに、算出された前記測距情報を前記記憶部に記憶することにより前記測距情報の更新を行っても良い。
In addition, a storage unit that stores the distance measurement information obtained by the control unit,
The control unit continuously calculates the ranging information until receiving the mode switching instruction, and updates the ranging information by storing the calculated ranging information in the storage unit. Also good.

また、前記測距情報とは、合焦位置に対して前ピンであるか後ピンであるかを示す情報を含み、かつ、前記測距情報は、コントラストAFにおいてはウォブリングまたは軸上収差から検出され、位相差AFにおいては位相差情報に相当しても良い。   The distance measurement information includes information indicating whether it is a front pin or a rear pin with respect to the in-focus position, and the distance measurement information is detected from wobbling or axial aberration in contrast AF. The phase difference AF may correspond to phase difference information.

本発明によれば、主要被写体領域の抽出に基づく焦点調節を行う際に、焦点調節の的確性を維持しつつ省電力を実現することができる。   According to the present invention, when performing focus adjustment based on extraction of a main subject region, it is possible to realize power saving while maintaining the accuracy of focus adjustment.

レンズ鏡筒10と、撮像装置20と、記憶媒体40との構成を示すブロック図である。2 is a block diagram illustrating configurations of a lens barrel 10, an imaging device 20, and a storage medium 40. FIG. 自動検出モード実行時のCPU26の動作を示すフローチャートである。It is a flowchart which shows operation | movement of CPU26 at the time of automatic detection mode execution. 自動検出モード実行時のAFについて説明する図である。It is a figure explaining AF at the time of automatic detection mode execution. 自動検出モード実行時のCPU26の動作を示す別のフローチャートである。It is another flowchart which shows operation | movement of CPU26 at the time of automatic detection mode execution. 自動検出モード実行時のCPU26の動作を示す別のフローチャート(続き)である。It is another flowchart (continuation) which shows operation | movement of CPU26 at the time of automatic detection mode execution. 自動検出モード実行時のピントずれについて説明する図である。It is a figure explaining a focus shift at the time of automatic detection mode execution.

<第1実施形態>
以下、第1実施形態について図面を参照して詳細に説明する。
<First Embodiment>
Hereinafter, a first embodiment will be described in detail with reference to the drawings.

第1実施形態では、図1に示すようなレンズ鏡筒10と、撮像装置20と、記憶媒体40とからなる装置を例に挙げて説明する。   In the first embodiment, a description will be given by taking as an example an apparatus including a lens barrel 10, an imaging device 20, and a storage medium 40 as shown in FIG.

撮像装置20は、レンズ鏡筒10から入射される光学像を撮像する。得られた画像は静止画又は動画の画像として、記憶媒体40に記憶される。   The imaging device 20 captures an optical image incident from the lens barrel 10. The obtained image is stored in the storage medium 40 as a still image or a moving image.

レンズ鏡筒10は、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」と称する)11と、レンズ駆動部12と、AFエンコーダ13と、鏡筒制御部14とを備える。なお、レンズ鏡筒10は、撮像装置20に着脱可能に接続されても良いし、撮像装置20と一体であっても良い。   The lens barrel 10 includes a focus adjustment lens (hereinafter referred to as an “AF (Auto Focus) lens”) 11, a lens driving unit 12, an AF encoder 13, and a lens barrel control unit 14. The lens barrel 10 may be detachably connected to the imaging device 20 or may be integrated with the imaging device 20.

撮像装置20は、撮像部21と、画像処理装置22と、表示部23と、バッファメモリ部24と、記憶部25と、CPU26と、操作部27と、通信部28とを備える。撮像部21は、不図示の撮像素子を備え、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU26により制御される。   The imaging device 20 includes an imaging unit 21, an image processing device 22, a display unit 23, a buffer memory unit 24, a storage unit 25, a CPU 26, an operation unit 27, and a communication unit 28. The imaging unit 21 includes an imaging element (not shown), and is controlled by the CPU 26 according to set imaging conditions (for example, an aperture value, an exposure value, etc.).

レンズ鏡筒10において、AFレンズ11は、レンズ駆動部12により駆動され、撮像装置20の撮像部21における不図示の撮像素子の受光面(光電変換面)に、光学像を導く。AFエンコーダ13は、AFレンズ11の移動を検出し、AFレンズ11の移動量に応じた信号を、鏡筒制御部14に出力する。ここで、AFレンズ11の移動量に応じた信号とは、例えば、AFレンズ11の移動量に応じて位相が変化するサイン(sin)波信号であってもよい。   In the lens barrel 10, the AF lens 11 is driven by the lens driving unit 12, and guides an optical image to a light receiving surface (photoelectric conversion surface) of an imaging element (not shown) in the imaging unit 21 of the imaging device 20. The AF encoder 13 detects the movement of the AF lens 11 and outputs a signal corresponding to the movement amount of the AF lens 11 to the lens barrel control unit 14. Here, the signal corresponding to the movement amount of the AF lens 11 may be, for example, a sine wave signal whose phase changes according to the movement amount of the AF lens 11.

鏡筒制御部14は、撮像装置20のCPU26から入力される駆動制御信号に応じて、レンズ駆動部12を制御する。ここで、駆動制御信号とは、AFレンズ11を光軸方向に駆動させる制御信号である。鏡筒制御部14は、駆動制御信号に応じて、例えば、レンズ駆動部12に出力するパルス電圧のステップ数を変更する。また、鏡筒制御部14は、AFレンズ11の移動量に応じた信号に基づいて、レンズ鏡筒10におけるAFレンズ11の位置(フォーカスポジション)を、撮像装置20のCPU26に出力する。ここで、鏡筒制御部14は、例えば、AFレンズ11の移動量に応じた信号を、AFレンズ11の移動方向に応じて積算することで、レンズ鏡筒10におけるAFレンズ11の移動量(位置)を算出してもよい。レンズ駆動部12は、鏡筒制御部14の制御に応じてAFレンズ11を駆動し、AFレンズ11をレンズ鏡筒10内で光軸方向に移動させる。   The lens barrel control unit 14 controls the lens driving unit 12 in accordance with a drive control signal input from the CPU 26 of the imaging device 20. Here, the drive control signal is a control signal for driving the AF lens 11 in the optical axis direction. The lens barrel control unit 14 changes, for example, the number of steps of the pulse voltage output to the lens driving unit 12 according to the drive control signal. Further, the lens barrel control unit 14 outputs the position (focus position) of the AF lens 11 in the lens barrel 10 to the CPU 26 of the imaging device 20 based on a signal corresponding to the movement amount of the AF lens 11. Here, the lens barrel control unit 14 integrates, for example, signals according to the movement amount of the AF lens 11 according to the movement direction of the AF lens 11, thereby moving the AF lens 11 in the lens barrel 10 ( Position) may be calculated. The lens driving unit 12 drives the AF lens 11 according to the control of the lens barrel control unit 14 and moves the AF lens 11 in the optical axis direction within the lens barrel 10.

撮像装置20において、撮像部21は、例えば、レンズ鏡筒10(光学系)により光電変換面に結像された光学像を撮像素子内でデジタル信号に変換して出力する撮像素子を備えても良い。また、例えば、撮像部21は、撮像素子およびA/D変換部を備え、撮像素子はレンズ鏡筒10(光学系)により光電変換面に結像された光学像を電気信号に変換してA/D変換部に出力し、A/D変換部は、撮像素子によって変換された電気信号をデジタル化して、デジタル信号として出力する構成としても良い。なお、撮像素子は、例えば、CMOS(Complementary Metal Oxide Semiconductor)などの光電変換素子で構成される。また、撮像素子は、光電変換面の一部の領域について、光学像を電気信号に変換するようにしてもよい(画像切り出し)。また、撮像部21は、操作部27を介してユーザからの撮影指示を受け付けた際に得られる記録用の画像を、通信部28を介して記憶媒体40に出力する。一方、撮像部21は、操作部27を介してユーザからの撮影指示を受け付ける前の状態において、連続的に得られる画像をスルー画像として、バッファメモリ部24及び表示部23に出力する。   In the imaging device 20, the imaging unit 21 may include, for example, an imaging element that converts an optical image formed on the photoelectric conversion surface by the lens barrel 10 (optical system) into a digital signal and outputs the digital signal. good. In addition, for example, the imaging unit 21 includes an imaging device and an A / D conversion unit, and the imaging device converts an optical image formed on the photoelectric conversion surface by the lens barrel 10 (optical system) into an electrical signal and converts it into an A signal. The A / D converter may output to the / D converter, and the A / D converter may digitize the electrical signal converted by the image sensor and output the digital signal. Note that the imaging element is configured by a photoelectric conversion element such as a CMOS (Complementary Metal Oxide Semiconductor), for example. Further, the image sensor may convert an optical image into an electric signal for a partial region of the photoelectric conversion surface (image clipping). Further, the imaging unit 21 outputs a recording image obtained when a shooting instruction from the user is received via the operation unit 27 to the storage medium 40 via the communication unit 28. On the other hand, the imaging unit 21 outputs continuously obtained images to the buffer memory unit 24 and the display unit 23 as through images in a state before receiving a shooting instruction from the user via the operation unit 27.

画像処理装置22は、記憶部25に記憶されている画像処理条件に基づいて、バッファメモリ部24に一時的に記憶されている画像に対する画像処理を行う。そして、画像処理後の画像は、通信部28を介して記憶媒体40に記憶される。また、画像処理装置22は、バッファメモリ部24に一時的に記憶されている画像に対して、マスク抽出処理を行う(詳細は後述する)。そして、抽出したマスクに関する情報は、CPU26に出力されるとともに、記憶部25や記憶媒体40等に記憶される。   The image processing device 22 performs image processing on the image temporarily stored in the buffer memory unit 24 based on the image processing conditions stored in the storage unit 25. The image after image processing is stored in the storage medium 40 via the communication unit 28. Further, the image processing device 22 performs mask extraction processing on the image temporarily stored in the buffer memory unit 24 (details will be described later). The extracted mask information is output to the CPU 26 and stored in the storage unit 25, the storage medium 40, and the like.

表示部23は、例えば液晶ディスプレイであって、撮像部21によって生成された画像、及び操作画面等を表示する。バッファメモリ部24は、撮像部21によって生成された画像を一時的に記憶する。記憶部25は、撮像条件や、各種判定の際にCPU26によって参照される判定条件などを記憶する。   The display unit 23 is, for example, a liquid crystal display, and displays an image generated by the imaging unit 21, an operation screen, and the like. The buffer memory unit 24 temporarily stores the image generated by the imaging unit 21. The storage unit 25 stores imaging conditions, determination conditions referred to by the CPU 26 in various determinations, and the like.

CPU26は、画像処理装置22や記憶部25などから適宜必要な情報を取得し、取得した情報に基づいて、撮像装置20内の各部を統括的に制御する。CPU26による制御には、焦点調整(AF)の設定、露出調整(AE)の設定、ホワイトバランス調整(AWB)の設定、閃光の発光量の変更の設定、被写体追尾の設定、各種撮影モードの設定、各種画像処理の設定、各種表示の設定、ズーム倍率に連動した明るさの最適化の設定などが含まれる。また、CPU26は、操作部27の操作状態を監視するとともに、表示部23への画像データの出力を行う。   The CPU 26 acquires necessary information as appropriate from the image processing device 22, the storage unit 25, and the like, and comprehensively controls each unit in the imaging device 20 based on the acquired information. Control by the CPU 26 includes focus adjustment (AF) setting, exposure adjustment (AE) setting, white balance adjustment (AWB) setting, flash emission amount change setting, subject tracking setting, and various shooting mode settings. , Various image processing settings, various display settings, brightness optimization settings linked to zoom magnification, and the like. In addition, the CPU 26 monitors the operation state of the operation unit 27 and outputs image data to the display unit 23.

操作部27は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、操作入力に応じた信号をCPU26に出力する。   The operation unit 27 includes, for example, a power switch, a shutter button, a multi-selector (cross key), or other operation keys. The operation unit 27 receives a user operation input when operated by the user, and outputs a signal corresponding to the operation input to the CPU 26. Output to.

通信部28は、カードメモリ等の取り外しが可能な記憶媒体40と接続され、この記憶媒体40への情報(画像データ、領域の情報など)の書込み、読み出し、あるいは消去を行う。   The communication unit 28 is connected to a removable storage medium 40 such as a card memory, and writes, reads, or deletes information (image data, area information, etc.) to the storage medium 40.

記憶媒体40は、撮像装置20に対して着脱可能に接続される記憶部であって、情報(画像データ、領域の情報など)を記憶する。なお、記憶媒体40は、撮像装置20と一体であってもよい。   The storage medium 40 is a storage unit that is detachably connected to the imaging device 20 and stores information (image data, area information, and the like). Note that the storage medium 40 may be integrated with the imaging device 20.

撮像装置20は、撮影時に、焦点調節情報に基づいて特定領域(例えば、主要被写体領域や注目領域など)を検出する通常モードの他に、自動で特定領域を検出する自動検出モードを備える。自動検出モードは、構図確認用のスルー画像等に基づいて、特定領域を自動で継続的に検出し、検出した特定領域の情報に基づいて、各部を制御するモードである。この自動検出モードは操作部27を介したユーザ操作により設定可能であっても良いし、CPU26により自動で設定可能であっても良い。   The imaging device 20 includes an automatic detection mode for automatically detecting a specific area in addition to a normal mode for detecting a specific area (for example, a main subject area or a region of interest) based on focus adjustment information during shooting. The automatic detection mode is a mode in which a specific region is automatically and continuously detected based on a through image for composition confirmation and the like, and each unit is controlled based on information on the detected specific region. This automatic detection mode may be set by a user operation via the operation unit 27, or may be automatically set by the CPU.

以下、特定領域として主要被写体領域を検出する自動検出モード実行時のCPU26の動作について、図2のフローチャートを参照して説明する。   The operation of the CPU 26 when executing the automatic detection mode for detecting the main subject area as the specific area will be described below with reference to the flowchart of FIG.

ステップS101において、CPU26は、撮像部21を制御して、スルー画像の取得を開始する。取得されたスルー画像の画像情報はバッファメモリ部24に一時的に記憶される。このスルー画像は、所定の時間間隔で連続して生成される。そして、CPU26によるスルー画像の取得は、時間的に連続して順次行われる。   In step S <b> 101, the CPU 26 controls the imaging unit 21 to start acquiring a through image. The acquired image information of the through image is temporarily stored in the buffer memory unit 24. This through image is continuously generated at a predetermined time interval. The acquisition of the through image by the CPU 26 is sequentially performed sequentially in time.

ステップS102において、CPU26は、画像処理装置22を制御して通常の画像処理を行う。通常の画像処理とは、ホワイトバランス調整、補間処理、色調補正処理、階調変換処理などである。各処理の具体的な方法は公知技術と同様であるため説明を省略する。画像処理装置22は、バッファメモリ部24から対象となる画像の画像データを取得し、画像処理を施した後に、再びバッファメモリ部24に出力する。   In step S102, the CPU 26 controls the image processing device 22 to perform normal image processing. Normal image processing includes white balance adjustment, interpolation processing, color tone correction processing, gradation conversion processing, and the like. Since the specific method of each process is the same as that of a well-known technique, description is abbreviate | omitted. The image processing device 22 acquires the image data of the target image from the buffer memory unit 24, performs image processing, and then outputs the image data to the buffer memory unit 24 again.

ステップS103において、CPU26は、画像処理装置22を制御してマスク抽出処理を行う。マスク抽出処理とは、画像における特徴量を算出し、特徴量に基づいて主要被写体領域を検出するための一手法である。例えば、画像における特徴量から評価値を求め、同じ評価値の連続領域を求めることによりマスク抽出を行う。マスク抽出の手法はどのような方法であっても良い。また、マスク抽出の具体的な方法は公知技術と同様であるため説明を省略する。   In step S103, the CPU 26 controls the image processing device 22 to perform mask extraction processing. The mask extraction process is a technique for calculating a feature amount in an image and detecting a main subject region based on the feature amount. For example, the mask extraction is performed by obtaining an evaluation value from the feature amount in the image and obtaining a continuous region having the same evaluation value. Any method of mask extraction may be used. In addition, since a specific method for extracting a mask is the same as that of a known technique, description thereof is omitted.

ステップS104において、CPU26は、マスク抽出により被写体領域を抽出できたか否かを判定する。CPU26は、ステップS103のマスク抽出処理によるマスク抽出が成功したか否かを判定し、ステップS103におけるマスク抽出処理において、特徴量が算出できなかったり、評価値が低すぎたりした場合には、マスク抽出が失敗し、被写体領域を抽出できないと判定し、ステップS102の通常の画像処理およびステップS103のマスク抽出処理を繰り返す。一方、CPU26は、ステップS103のマスク抽出処理によるマスク抽出が成功したと判定すると、ステップS105に進む。   In step S104, the CPU 26 determines whether or not the subject area has been extracted by the mask extraction. The CPU 26 determines whether or not the mask extraction by the mask extraction process in step S103 is successful. If the feature amount cannot be calculated or the evaluation value is too low in the mask extraction process in step S103, the CPU 26 It is determined that the extraction has failed and the subject area cannot be extracted, and the normal image processing in step S102 and the mask extraction processing in step S103 are repeated. On the other hand, if the CPU 26 determines that the mask extraction by the mask extraction process in step S103 is successful, the process proceeds to step S105.

ステップS105において、CPU26は、マスク抽出処理の結果を、マスク情報としてバッファメモリ部24や記憶部25等に記録する。マスク情報には、ステップS103のマスク抽出処理の抽出条件(色区分やマスク区分など)、マスクの位置、マスクの大きさや形状などの情報が含まれる。なお、CPU26は、表示部23を制御し、ステップS103のマスク抽出により抽出した主要被写体領域の情報を表示部23に表示しても良い。例えば、CPU26は、スルー画像に重畳して、主要被写体領域に枠などを表示することにより、主要被写体領域を視認可能に表示することができる。なお、この枠は、主要被写体領域の形状に応じたものであっても良いし、矩形や円形など所定の形状であっても良い。また、線の太さ、濃淡、色などはどのようなものであっても良い。いずれにせよ、このような表示を行うことにより、ユーザは、CPU26によるマスク抽出処理の結果を、容易に把握することができる。   In step S105, the CPU 26 records the result of the mask extraction process in the buffer memory unit 24, the storage unit 25, or the like as mask information. The mask information includes information such as the extraction conditions (color classification, mask classification, etc.) of the mask extraction process in step S103, the position of the mask, and the size and shape of the mask. The CPU 26 may control the display unit 23 to display information on the main subject area extracted by the mask extraction in step S103 on the display unit 23. For example, the CPU 26 can display the main subject area so as to be visible by superimposing it on the through image and displaying a frame or the like in the main subject area. The frame may be in accordance with the shape of the main subject area, or may be a predetermined shape such as a rectangle or a circle. Also, the line thickness, shading, color, etc. may be anything. In any case, by performing such display, the user can easily grasp the result of the mask extraction process performed by the CPU 26.

ステップS106において、CPU26は、n回(nフレーム)以上連続して同一のマスクを抽出したか否かを判定する。CPU26は、n回以上連続して同一のマスクを抽出したと判定すると後述するステップS107に進む。一方、n回以上連続して同一のマスクを抽出していないと判定すると、CPU26は、上述したステップS102に戻り、次のスルー画像を対象としてステップS102以降の処理を行う。   In step S106, the CPU 26 determines whether or not the same mask has been extracted continuously n times (n frames) or more. If the CPU 26 determines that the same mask has been extracted continuously n times or more, the CPU 26 proceeds to step S107 described later. On the other hand, when determining that the same mask has not been extracted n times or more in succession, the CPU 26 returns to step S102 described above, and performs the processing from step S102 onward for the next through image.

同一のマスクを抽出する場合とは、複数フレームにおいて、略同色、略同サイズのマスクが、略同じ位置において抽出される場合である。この判定には、ステップS105で説明したマスク情報等を用いれば良い。何れの場合も、フレーム間の変化量が規定以内である場合に、同一と判定することができる。ステップS105で説明したマスク情報等に基づいて、過去に行われたマスク抽出の傾向(抽出されたマスクの種類、出現頻度など)を求め、この傾向に応じて上述した変化量が規定以内であるかを判断する閾値を適宜変更可能としても良い。例えば、過去に高い頻度で抽出されたマスクについては、閾値を大きめに変更しても良い。   The case where the same mask is extracted is a case where masks of substantially the same color and size are extracted at substantially the same position in a plurality of frames. For this determination, the mask information described in step S105 may be used. In any case, when the amount of change between frames is within a specified range, it can be determined that they are the same. Based on the mask information or the like described in step S105, the tendency of mask extraction performed in the past (extracted mask type, appearance frequency, etc.) is obtained, and the amount of change described above is within the specified range according to this tendency. It may be possible to appropriately change the threshold for determining whether or not. For example, the threshold value may be changed to a larger value for a mask extracted at a high frequency in the past.

なお、上述したnは所定の閾値(例えば、n=7)であり、撮像部21による撮像時のフレームレート、レンズ鏡筒10におけるズーム倍率、操作部27を介したユーザ操作などに基づいて適宜変更可能としても良い。さらに、ステップS105で説明したマスク情報等に基づいて、過去に行われたマスク抽出の傾向(抽出されたマスクの種類、出現頻度など)を求め、この傾向に応じて上述したnの値を適宜変更可能としても良い。例えば、過去に高い頻度で抽出されたマスクについては、nの値を小さめに変更しても良い。   Note that n described above is a predetermined threshold (for example, n = 7), and is appropriately determined based on the frame rate at the time of image capturing by the image capturing unit 21, the zoom magnification in the lens barrel 10, the user operation via the operation unit 27, and the like. It may be changeable. Further, the tendency of mask extraction performed in the past (the type of extracted mask, the appearance frequency, etc.) is obtained based on the mask information described in step S105, and the value of n described above is appropriately set according to this tendency. It may be changeable. For example, for a mask extracted at a high frequency in the past, the value of n may be changed to a smaller value.

また、ステップS106で行った判定の内容を、ステップS105で説明したマスク情報に追加して記録しておき、以降のフレームに関する処理時に用いる構成としても良い。   Further, the contents of the determination made in step S106 may be recorded in addition to the mask information described in step S105, and used in subsequent processing relating to frames.

また、上述した以外の方法でマスク抽出処理が安定して行われているか否かを判定する構成としても良い。例えば、前回まで連続して同一のマスクを抽出したか否かを加味して判定を行っても良い。このような構成とすれば、今回のみ一時の未抽出が発生した場合でも、それまでの蓄積を無効にせず、次のフレームにおいて同一のマスクを抽出した場合には、前回までの安定状態が維持されているものと見なすことができる。   Moreover, it is good also as a structure which determines whether the mask extraction process is performed stably by methods other than the above-mentioned. For example, the determination may be performed in consideration of whether the same mask has been extracted continuously until the previous time. With this configuration, even if temporary unextraction occurs only this time, if the same mask is extracted in the next frame without invalidating the previous accumulation, the previous stable state is maintained. Can be considered.

ステップS107において、CPU26は、ステップS103のマスク抽出処理によって抽出したマスク(以下、「抽出マスク」と称する)に対する第1AFが完了したか否かを判定する。なお、第1AFの詳細については後述のステップS111で説明する。CPU26は、第1AFが完了したと判定すると後述するステップS112に進む。一方、第1AFが完了していないと判定すると、CPU26は、ステップS108に進む。   In step S107, the CPU 26 determines whether or not the first AF for the mask extracted by the mask extraction process in step S103 (hereinafter referred to as “extraction mask”) is completed. Details of the first AF will be described later in step S111. When the CPU 26 determines that the first AF has been completed, the CPU 26 proceeds to step S112 described later. On the other hand, when determining that the first AF has not been completed, the CPU 26 proceeds to step S108.

ステップS108において、CPU26は、ステップS103のマスク抽出処理によって抽出した抽出マスクに対応する領域を主要被写体領域として設定する。なお、CPU26は、表示部23を制御し、設定した主要被写体領域の情報を表示部23に表示しても良い。例えば、設定した主要被写体領域に枠などを表示することにより、主要被写体領域を視認可能に表示しても良い。   In step S108, the CPU 26 sets an area corresponding to the extraction mask extracted by the mask extraction process in step S103 as a main subject area. The CPU 26 may control the display unit 23 to display information on the set main subject area on the display unit 23. For example, the main subject area may be displayed so as to be visible by displaying a frame or the like in the set main subject area.

ステップS109において、CPU26は、ステップS108で設定した主要被写体領域をコントラスト評価対象に設定する。   In step S109, the CPU 26 sets the main subject region set in step S108 as a contrast evaluation target.

ステップS110において、CPU26は、鏡筒制御部14を介してレンズ駆動部12を制御し、AFレンズ11を光軸方向に移動させることよりウォブリングを行い、ピント方向を確定する。ウォブリングの具体的な方法およびウォブリングに基づいてピント方向を求める処理については、公知技術と同様に行われる。なお、ウォブリングの代わりに、AFレンズ11の軸上収差に基づいてピント方向を確定する構成としても良い。   In step S110, the CPU 26 controls the lens driving unit 12 via the lens barrel control unit 14, performs wobbling by moving the AF lens 11 in the optical axis direction, and determines the focus direction. The specific method of wobbling and the process for obtaining the focus direction based on wobbling are performed in the same manner as in the known art. Instead of wobbling, the focus direction may be determined based on the axial aberration of the AF lens 11.

ステップS111において、CPU26は、ステップS103のマスク抽出処理によって抽出した抽出マスクに対する第1AFを実行する。CPU26は、鏡筒制御部14を介してレンズ駆動部12を制御し、AFレンズ11を、ステップS110で確定したピント方向に移動しつつ、ステップS109で設定したコントラスト評価対象からのコントラスト評価値に基づいて、第1AFを実行する。   In step S111, the CPU 26 executes the first AF for the extraction mask extracted by the mask extraction process in step S103. The CPU 26 controls the lens driving unit 12 via the lens barrel control unit 14, and moves the AF lens 11 in the focus direction determined in step S 110 to the contrast evaluation value from the contrast evaluation target set in step S 109. Based on this, the first AF is executed.

ここで、第1AFについて、図3を参照して説明する。図3における縦軸はコントラスト評価値を示し、横軸はAFレンズ11のレンズ位置を示す。図3Aは、通常のAFについて説明する図である。グラフ中の縦方向の実線はAFを実行するピッチを示す。図3BはステップS111で実行される第1AFについて説明する図である。図3Bに示すように、第1AFにおいては、通常のAFの1/4程度のピッチで相対的に精度の粗いAFが実行される。これは、なるべく短時間にAFを終わらせるためであり、この第1AFにより、大まかなピーク位置を把握することができる。   Here, the first AF will be described with reference to FIG. The vertical axis in FIG. 3 indicates the contrast evaluation value, and the horizontal axis indicates the lens position of the AF lens 11. FIG. 3A is a diagram illustrating normal AF. The vertical solid line in the graph indicates the pitch at which AF is performed. FIG. 3B is a diagram for describing the first AF executed in step S111. As shown in FIG. 3B, in the first AF, AF with relatively coarse accuracy is executed at a pitch about ¼ of normal AF. This is to finish AF in as short a time as possible, and with this first AF, a rough peak position can be grasped.

CPU26は、ピークに近いと推測できる2点(図3BのP1およびP2)の中間点を仮ピークPtとし、鏡筒制御部14を介してレンズ駆動部12を制御して、AFレンズ11を仮ピークPtに移動させ、第1AFを終了する。   The CPU 26 sets the intermediate point between two points (P1 and P2 in FIG. 3B) that can be estimated to be close to the peak as a temporary peak Pt, and controls the lens driving unit 12 via the lens barrel control unit 14 to temporarily set the AF lens 11. Move to the peak Pt to finish the first AF.

なお、上述した第1AFは一例であり、コントラスト評価値の変化の度合い、抽出マスクの位置、抽出マスクの大きさなどの情報を加味して第1AFを実行しても良い。   The first AF described above is an example, and the first AF may be executed in consideration of information such as the degree of change in contrast evaluation value, the position of the extraction mask, and the size of the extraction mask.

ステップS112において、CPU26は、撮影指示が行われたか否かを判定する。CPU26は、撮影指示が行われたと判定するとステップS113に進む。一方、所定の時間を経過しても撮影指示が行われないと判定すると、CPU26は、上述したステップS102に戻り、次のスルー画像を対象としてステップS102以降の処理を行う。なお、撮影指示は、操作部27のシャッタボタンを介したユーザ操作により行われる。このユーザ操作は、いわゆる半シャッタと全シャッタの何れであっても良い。操作部27のシャッタボタンは、例えば、2段階のスイッチを有し、1段階目まで押圧(半押し)される場合が半シャッタであり、2段階目まで押圧(全押し)される場合が全シャッタである。本実施形態では、ユーザによる半シャッタ操作または全シャッタ操作により、構図確認用のスルー画像データを生成するモードから、記録用の画像データを生成するモードへの切り替え指示が行われることになる。   In step S112, the CPU 26 determines whether or not a shooting instruction has been issued. If the CPU 26 determines that a shooting instruction has been given, the process proceeds to step S113. On the other hand, if it is determined that the shooting instruction is not issued even after a predetermined time has elapsed, the CPU 26 returns to step S102 described above, and performs the processing from step S102 onward for the next through image. The photographing instruction is performed by a user operation via the shutter button of the operation unit 27. This user operation may be a so-called half shutter or all shutter. The shutter button of the operation unit 27 has, for example, a two-stage switch. When the shutter button is pressed (half-pressed) to the first stage, it is a half-shutter. When the shutter button is pressed (full-pressed) to the second stage, the shutter button is all. It is a shutter. In the present embodiment, an instruction to switch from a mode for generating through image data for composition confirmation to a mode for generating image data for recording is performed by a half shutter operation or full shutter operation by a user.

ステップS113において、CPU26は、ステップS108で設定した主要被写体領域の情報に基づいて、AEおよびAWBを実行する。   In step S113, the CPU 26 executes AE and AWB based on the information on the main subject area set in step S108.

ステップS114において、CPU26は、AFレンズ11のレンズ位置をピント範囲の手前側に移動する。CPU26は、ステップS111で実行した第1AFにおいて、ピークに近いと推測できる2点(図3BのP1およびP2)の間をピント範囲とし、鏡筒制御部14を介してレンズ駆動部12を制御して、AFレンズ11をピント範囲の手前側(図3BのP1)に移動する。なお、AFレンズ11をピント範囲の手前側に移動する代わりに、ピント範囲の奥側(図3BのP2)に移動しても良い。   In step S114, the CPU 26 moves the lens position of the AF lens 11 to the near side of the focus range. The CPU 26 sets the focus range between two points (P1 and P2 in FIG. 3B) that can be estimated to be close to the peak in the first AF executed in step S111, and controls the lens driving unit 12 via the lens barrel control unit 14. Then, the AF lens 11 is moved to the near side of the focus range (P1 in FIG. 3B). Instead of moving the AF lens 11 to the near side of the focus range, the AF lens 11 may be moved to the far side of the focus range (P2 in FIG. 3B).

ステップS115において、CPU26は、第2AFを実行する。図3CはステップS115で実行される第2AFについて説明する図である。図3Cに示すように、第2AFにおいては、ステップS114で説明したピント範囲において、通常のAFと同程度のピッチ、つまり、第1AFよりも高い精度でAFが実行される。これは、ステップS111で実行した第1AFにより大まかなピーク位置を把握しているため、第2AFについては、その近傍のみで適切な精度のAFを実行することにより、最終的に正確なAFを実行することができるためである。   In step S115, the CPU 26 executes the second AF. FIG. 3C is a diagram for describing the second AF executed in step S115. As shown in FIG. 3C, in the second AF, the AF is executed with the same degree of pitch as the normal AF, that is, with higher accuracy than the first AF in the focus range described in step S114. This is because the rough peak position is grasped by the first AF executed in step S111, so that the accurate AF is finally executed by executing AF with appropriate accuracy only in the vicinity of the second AF. This is because it can be done.

なお、ステップS114においてAFレンズ11がピント範囲の手前側に移動されている場合には、第2AFはP1からP2の方向に向かって実行され、AFレンズ11がピント範囲の奥側に移動されている場合には、第2AFはP2からP1の方向に向かって実行される。   If the AF lens 11 is moved to the near side of the focus range in step S114, the second AF is executed from P1 to P2, and the AF lens 11 is moved to the far side of the focus range. If so, the second AF is executed from P2 to P1.

CPU26は、ピント範囲内における第2AFによりピークを確定し、鏡筒制御部14を介してレンズ駆動部12を制御して、AFレンズ11をピークに移動させ、第2AFを終了する。   The CPU 26 determines the peak by the second AF within the focus range, controls the lens driving unit 12 via the lens barrel control unit 14, moves the AF lens 11 to the peak, and ends the second AF.

ステップS116において、CPU26は、各部を制御して撮影を実行する。このとき、CPU26は、ステップS108で設定した主要被写体領域に基づいて、画像処理装置22における各種画像処理の条件等を決定する。   In step S116, the CPU 26 controls each unit to perform shooting. At this time, the CPU 26 determines various image processing conditions and the like in the image processing device 22 based on the main subject region set in step S108.

ステップS117において、CPU26は、撮像により生成した画像を、通信部28を介して記憶媒体40に記録して一連の処理を終了する。   In step S117, the CPU 26 records an image generated by imaging on the storage medium 40 via the communication unit 28, and ends the series of processes.

以上説明したように、第1実施形態によれば、被写体像を撮像して構図確認用画像データを生成する第1モードと、被写体像を撮像して記録用画像データを生成する第2モードとを有する撮像部と、構図確認用画像データにより示される画像の特徴量を算出し、特徴量に基づいて特定領域を検出する領域検出部とを備える。そして、第2モードで前記撮像部が撮像を行う前に、前記領域検出部で検出された特定領域から算出された情報に基づいて、撮像の準備動作を実行する。したがって、上述の構成により、記録用画像データを生成する第2モードで撮像を行う前の構図確認中に、ある程度の準備動作を実行しておくことができるので、最終的な合焦に要する速度を向上させて撮影タイムラグの短縮に寄与するとともに、主要被写体領域や注目領域などの特定領域の抽出に基づく焦点調節を行う際に、焦点調節の的確性を維持しつつ省電力を実現することができる。   As described above, according to the first embodiment, the first mode in which the subject image is captured and the composition confirmation image data is generated, and the second mode in which the subject image is captured and the recording image data is generated. And an area detection unit that calculates a feature amount of an image indicated by the composition confirmation image data and detects a specific region based on the feature amount. Then, before the imaging unit performs imaging in the second mode, an imaging preparation operation is executed based on information calculated from the specific area detected by the area detection unit. Therefore, with the above-described configuration, a certain amount of preparation operation can be performed during composition confirmation before imaging is performed in the second mode for generating image data for recording. In addition to contributing to shortening the shooting time lag, it is possible to achieve power saving while maintaining the accuracy of focus adjustment when performing focus adjustment based on the extraction of specific areas such as the main subject area and the attention area. it can.

従来、記録用画像データを生成する第2モードで撮像を行う指示の後にAFを行う場合、撮影タイムラグが大きくなるのが常であった。これは、コントラスト方式のAFにおいて顕著である。しかし、第1実施形態によれば、第2モードでの撮像指示前のユーザがフレーミング等をしている間に、測距情報の取得、合焦制御等を行っておき、第2モードでの撮像指示後にも上述した測距情報を利用することにより、撮影タイムラグを短縮することができる。また、第1実施形態によれば、第2モードでの撮像指示後のレンズ駆動を最小限に抑えることができるため、安定性を向上させるとともに、AFの的確性と省電力とを両立可能である。   Conventionally, when AF is performed after an instruction to perform imaging in the second mode for generating image data for recording, the imaging time lag is usually increased. This is conspicuous in contrast AF. However, according to the first embodiment, while the user before the imaging instruction in the second mode performs framing or the like, the distance measurement information is acquired, the focus control is performed, and the like in the second mode. The shooting time lag can be shortened by using the distance measurement information described above even after the imaging instruction. In addition, according to the first embodiment, since lens driving after an imaging instruction in the second mode can be minimized, stability can be improved and AF accuracy and power saving can be compatible. is there.

また、第1実施形態によれば、構図確認用の画像データに基づいて大まかなAF(第1AF)を行うことにより、撮りたいもの(主要被写体、注目領域などの特定領域)に連続的にピントが合うことになる。そのため、従来の半シャッタによるピント確認動作も不要となる。また、従来のいわゆるコンティニュアスAF的な効果を、省電力の元で実現することができる。また、従来のようなコンティニュアスAFとシングルAFとの切り換え処理も不要となる。   Further, according to the first embodiment, a rough AF (first AF) is performed based on image data for composition confirmation, thereby continuously focusing on an object to be photographed (a specific area such as a main subject or an attention area). Will fit. This eliminates the need for a conventional focus confirmation operation using a half shutter. In addition, a conventional so-called continuous AF effect can be realized with power saving. Further, the conventional switching process between continuous AF and single AF is not required.

また、第1実施形態によれば、構図確認用の画像データに基づいて大まかなAF(第1AF)を継続的に行うことにより、撮りたいもの(主要被写体)に徐々にピントが合っていくことになる。そのため、画角も徐々に変化することになり、ユーザに与える違和感を抑えることができる。   In addition, according to the first embodiment, by continuously performing rough AF (first AF) based on image data for composition confirmation, the object to be photographed (main subject) is gradually focused. become. For this reason, the angle of view also changes gradually, and the uncomfortable feeling given to the user can be suppressed.

<第2実施形態>
以下、第2実施形態について図面を参照して詳細に説明する。第2実施形態は、第1実施形態の変形例である。したがって、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。
Second Embodiment
Hereinafter, the second embodiment will be described in detail with reference to the drawings. The second embodiment is a modification of the first embodiment. Therefore, only the parts different from the first embodiment will be described, and the description of the same parts as the first embodiment will be omitted.

第2実施形態では、第1実施形態の図1に示したレンズ鏡筒10と、撮像装置20と、記憶媒体40とからなる装置を例に挙げて説明する。   In the second embodiment, a description will be given by taking as an example an apparatus including the lens barrel 10, the imaging device 20, and the storage medium 40 shown in FIG. 1 of the first embodiment.

第2実施形態では、記録用画像データを生成する第2モードでの撮像指示後に、ピント状態の確認および必要に応じた補正をする処理を行う構成について説明する。   In the second embodiment, a configuration will be described in which after the imaging instruction in the second mode for generating recording image data, processing for confirming the focus state and correcting as necessary is performed.

以下、自動検出モード実行時のCPU26の動作について、図4および図5のフローチャートを参照して説明する。   Hereinafter, the operation of the CPU 26 when the automatic detection mode is executed will be described with reference to the flowcharts of FIGS. 4 and 5.

ステップS201からステップS206において、CPU26は、第1実施形態のステップS101からステップS106と同様の処理を行う。   In step S201 to step S206, the CPU 26 performs the same processing as in step S101 to step S106 of the first embodiment.

ステップS207において、CPU26は、ステップS203のマスク抽出処理によって抽出したマスク(以下、「抽出マスク」と称する)に対するAFが完了したか否かを判定する。なお、このAFの詳細については後述のステップS208からステップS210で説明する。CPU26は、AFが既に完了していると判定すると後述するステップS211に進む。一方、AFが完了していないと判定すると、CPU26は、ステップS208に進む。なお、AFが完了していないと判定される場合とは、ステップS203のマスク抽出処理によって新たな抽出マスクが抽出された場合である。つまり、新たな抽出マスクが抽出されるとステップS208からステップS210のAFが実行され、新たな抽出マスクが抽出されない(同じ抽出マスクが抽出される)とステップS208からステップS210のAFが実行されないことになる。   In step S207, the CPU 26 determines whether or not AF for the mask extracted by the mask extraction processing in step S203 (hereinafter referred to as “extraction mask”) is completed. The details of this AF will be described later in steps S208 to S210. If the CPU 26 determines that the AF has already been completed, the CPU 26 proceeds to step S211 described later. On the other hand, when determining that the AF has not been completed, the CPU 26 proceeds to step S208. The case where it is determined that the AF has not been completed is a case where a new extraction mask is extracted by the mask extraction processing in step S203. That is, when a new extraction mask is extracted, AF from step S208 to step S210 is executed, and when a new extraction mask is not extracted (the same extraction mask is extracted), AF from step S208 to step S210 is not executed. become.

ステップS208において、CPU26は、ステップS203のマスク抽出処理によって抽出した抽出マスクに対応する領域を主要被写体領域として設定する。なお、CPU26は、表示部23を制御し、設定した主要被写体領域の情報を表示部23に表示しても良い。例えば、設定した主要被写体領域に枠などを表示することにより、主要被写体領域を視認可能に表示しても良い。   In step S208, the CPU 26 sets an area corresponding to the extraction mask extracted by the mask extraction process in step S203 as a main subject area. The CPU 26 may control the display unit 23 to display information on the set main subject area on the display unit 23. For example, the main subject area may be displayed so as to be visible by displaying a frame or the like in the set main subject area.

ステップS209において、CPU26は、ステップS208で設定した主要被写体領域をコントラスト評価対象に設定する。   In step S209, the CPU 26 sets the main subject area set in step S208 as a contrast evaluation target.

ステップS210において、CPU26は、ステップS203のマスク抽出処理によって抽出した抽出マスクに対するAFを実行する。このAFは、いわゆる通常のAF(図3A参照)であり、CPU26は、鏡筒制御部14を介してレンズ駆動部12を制御し、AFレンズ11を移動しつつ、ステップS209で設定したコントラスト評価対象からのコントラスト評価値に基づいて、AFを実行する。   In step S210, the CPU 26 executes AF on the extraction mask extracted by the mask extraction process in step S203. This AF is so-called normal AF (see FIG. 3A), and the CPU 26 controls the lens driving unit 12 via the lens barrel control unit 14 to move the AF lens 11 and contrast evaluation set in step S209. AF is executed based on the contrast evaluation value from the object.

CPU26は、AFによりピークを確定し、鏡筒制御部14を介してレンズ駆動部12を制御して、AFレンズ11をピークに移動させ、AFを終了する。   The CPU 26 determines the peak by AF, controls the lens driving unit 12 via the lens barrel control unit 14, moves the AF lens 11 to the peak, and ends the AF.

ステップS211において、CPU26は、マスク情報およびピント情報を記録および更新する。マスク情報については、第1実施形態のステップS105で説明したものと同様である。ピント情報には、ステップS210で説明したAFに関する情報が含まれる。   In step S211, the CPU 26 records and updates mask information and focus information. The mask information is the same as that described in step S105 of the first embodiment. The focus information includes information regarding AF described in step S210.

なお、ステップS207においてAFが既に完了していると判定された場合には、同じ抽出マスクが抽出されたとみなし、CPU26はその旨をマスク情報およびピント情報としてバッファメモリ部24や記憶部25等に記録する。一方、ステップS207においてAFが完了していないと判定された場合には、新たな抽出マスクが抽出されたとみなし、CPU26はその旨と、新たなマスク情報およびピント情報をバッファメモリ部24や記憶部25等に記録する。   If it is determined in step S207 that AF has already been completed, it is considered that the same extraction mask has been extracted, and the CPU 26 informs the buffer memory unit 24, the storage unit 25, and the like as mask information and focus information. Record. On the other hand, if it is determined in step S207 that the AF has not been completed, it is considered that a new extraction mask has been extracted, and the CPU 26 notifies the buffer memory unit 24 and the storage unit of that fact and the new mask information and focus information. Record at 25 mag.

ステップS212において、CPU26は、ピント状態が良好であるか否かを判定する。なお、ピント状態が良好であるか否かは、マスク情報およびピント情報の変化度合や前後のピント情報(前ピン、後ピンなど)等について判定することができる。CPU26は、ピント状態が良好であると判定するとステップS213に進む。一方、ピント状態が良好でないと判定すると、CPU26は、後述するステップS216に進む。   In step S212, the CPU 26 determines whether or not the focus state is good. Whether or not the focus state is good can be determined with respect to the degree of change in mask information and focus information, front and rear focus information (front pin, rear pin, etc.), and the like. If the CPU 26 determines that the focus state is good, the CPU 26 proceeds to step S213. On the other hand, when determining that the focus state is not good, the CPU 26 proceeds to step S216 described later.

ステップS213において、CPU26は、撮影指示が行われたか否かを判定する。CPU26は、撮影指示が行われたと判定するとステップS214に進む。一方、所定の時間を経過しても撮影指示が行われないと判定すると、CPU26は、上述したステップS202に戻り、次のスルー画像を対象としてステップS202以降の処理を行う。なお、撮影指示は、操作部27のシャッタボタンを介したユーザ操作により行われる。このユーザ操作は、いわゆる半シャッタと全シャッタの何れであっても良い。   In step S213, the CPU 26 determines whether or not a shooting instruction has been issued. If the CPU 26 determines that a shooting instruction has been given, the process proceeds to step S214. On the other hand, if it is determined that the shooting instruction is not issued even after a predetermined time has elapsed, the CPU 26 returns to step S202 described above, and performs the processing from step S202 onward for the next through image. The photographing instruction is performed by a user operation via the shutter button of the operation unit 27. This user operation may be a so-called half shutter or all shutter.

ステップS214において、CPU26は、ステップS208で設定した主要被写体領域の情報に基づいて、AEおよびAWBを実行する。   In step S214, the CPU 26 executes AE and AWB based on the information on the main subject area set in step S208.

ステップS215において、CPU26は、ステップS210で行ったAF完了から所定の時間が経過したか否かを判定する。CPU26は、AF完了から所定の時間が経過したと判定するとステップS216に進む。一方、AF完了から所定の時間が経過していないと判定すると、CPU26は、後述するステップS223に進む。なお、AF完了から所定の時間が経過したと判定される場合とは、主要被写体が変化したおそれがあると推測できる場合である。この場合、ピント状態の確認および必要に応じた補正を行うために、ステップS216からステップS222の処理が実行される。一方、AF完了から所定の時間が経過していないと判定される場合とは、主要被写体が変化していないとみなせる場合である。この場合、ステップS223に進み撮影が実行される。   In step S215, the CPU 26 determines whether or not a predetermined time has elapsed since the completion of AF performed in step S210. If the CPU 26 determines that a predetermined time has elapsed since the completion of AF, the CPU 26 proceeds to step S216. On the other hand, when determining that the predetermined time has not elapsed since the completion of AF, the CPU 26 proceeds to step S223 described later. The case where it is determined that a predetermined time has elapsed since the completion of AF is a case where it can be estimated that the main subject may have changed. In this case, the processing from step S216 to step S222 is executed in order to check the focus state and perform correction as necessary. On the other hand, the case where it is determined that a predetermined time has not elapsed since the completion of AF is a case where it can be considered that the main subject has not changed. In this case, the process proceeds to step S223 and photographing is performed.

ステップS216において、CPU26は、バッファメモリ部24や記憶部25等から最終のピント情報を読み出す。   In step S216, the CPU 26 reads the final focus information from the buffer memory unit 24, the storage unit 25, and the like.

ステップS217において、CPU26は、ピント状態が維持されているか否かを判定する。なお、ピント状態が維持されているか否かは、ステップS210で行ったAF直後の状態とステップS216で読み出した最終のピント情報の状態との比較結果や、マスク情報およびピント情報の変化度合や前後のピント情報(前ピン、後ピンなど)等について判定することができる。CPU26は、ピント状態が維持されていると判定すると後述するステップS223に進む。一方、ピント状態が維持されていないと判定すると、CPU26は、S218に進む。   In step S217, the CPU 26 determines whether or not the focused state is maintained. Whether or not the focus state is maintained depends on the comparison result between the state immediately after the AF performed in step S210 and the state of the final focus information read in step S216, the degree of change of the mask information and the focus information, and before and after. The focus information (front pin, rear pin, etc.) can be determined. When the CPU 26 determines that the focus state is maintained, the CPU 26 proceeds to step S223 described later. On the other hand, when determining that the focus state is not maintained, the CPU 26 proceeds to S218.

ステップS218において、CPU26は、ピントずれを計算する。図6は、ピントずれについて説明する図である。CPU26は、図6に示すように、マスク情報に基づくマスクのエッジを求め(図6ではE1からE6)、エッジ評価値の変化に基づいて、ピントずれを計算することができる。なお、エッジ評価値の変化が大きく劣化している場合にはピントずれが大きく、エッジ評価値の変化が小さい場合には、ピントずれが小さい、あるいは、ピントずれが無い。   In step S218, the CPU 26 calculates a focus shift. FIG. 6 is a diagram for explaining a focus shift. As shown in FIG. 6, the CPU 26 obtains the mask edge based on the mask information (E1 to E6 in FIG. 6), and can calculate the focus shift based on the change in the edge evaluation value. When the change in the edge evaluation value is greatly deteriorated, the focus shift is large, and when the change in the edge evaluation value is small, the focus shift is small or there is no focus shift.

ステップS219において、CPU26は、ステップS218で計算したピントずれに応じて、前ピンか後ピンかを判定する。   In step S219, the CPU 26 determines whether it is a front pin or a rear pin according to the focus shift calculated in step S218.

ステップS220において、CPU26は、最新の主要被写体領域をコントラスト評価対象に設定する。   In step S220, the CPU 26 sets the latest main subject area as a contrast evaluation target.

ステップS221において、CPU26は、ステップS219の判定結果に基づいて、鏡筒制御部14を介してレンズ駆動部12を制御して、AFレンズ11を前ピン方向または後ピン方向に、ステップS218で計算したピントずれに応じて移動する。   In step S221, the CPU 26 controls the lens driving unit 12 via the lens barrel control unit 14 based on the determination result in step S219, and calculates the AF lens 11 in the front pin direction or the rear pin direction in step S218. It moves according to the out of focus.

ステップS222において、CPU26は、鏡筒制御部14を介してレンズ駆動部12を制御し、AFレンズ11を移動しつつ、ステップS220で設定したコントラスト評価対象からのコントラスト評価値に基づいて、AFを実行する。なお、このときのピント範囲を限定してAFを実行しても良い。ピント範囲は、ステップS218で計算したピントずれに応じて、限定すると良い。   In step S222, the CPU 26 controls the lens driving unit 12 via the lens barrel control unit 14 to move the AF lens 11 and perform AF based on the contrast evaluation value from the contrast evaluation target set in step S220. Run. Note that AF may be executed with a limited focus range at this time. The focus range may be limited according to the focus shift calculated in step S218.

ステップS223において、CPU26は、各部を制御して撮影を実行する。このとき、CPU26は、ステップS208で設定した主要被写体領域に基づいて、画像処理装置22における各種画像処理の条件等を決定する。   In step S223, the CPU 26 performs shooting by controlling each unit. At this time, the CPU 26 determines various image processing conditions and the like in the image processing device 22 based on the main subject region set in step S208.

ステップS224において、CPU26は、撮像により生成した画像を、通信部28を介して記憶媒体40に記録して一連の処理を終了する。   In step S224, the CPU 26 records an image generated by imaging on the storage medium 40 via the communication unit 28, and ends the series of processes.

以上説明したように、第2実施形態によれば、記録用画像データを生成する第2モードでの撮像の実行に関するユーザ指示を受け付けると、ピント状態の確認および必要に応じた補正を行う。したがって、主要被写体が変化した場合であっても、焦点調節の的確性を維持しつつ省電力を実現することができる。   As described above, according to the second embodiment, when a user instruction regarding execution of imaging in the second mode for generating recording image data is received, confirmation of the focus state and correction as necessary are performed. Therefore, even when the main subject changes, it is possible to achieve power saving while maintaining the accuracy of focus adjustment.

また、第2実施形態によれば、準備動作として、測距情報に基づく合焦位置にレンズ位置を変更する。したがって、記録用画像データを生成する第2モードでの撮像の実行に関するユーザ指示の前に通常のAFを実行することにより、撮影タイムラグをさらに短縮し、シャッタチャンスを確保することができる。   According to the second embodiment, as a preparatory operation, the lens position is changed to a focus position based on distance measurement information. Therefore, by executing normal AF before a user instruction regarding execution of imaging in the second mode for generating recording image data, it is possible to further reduce the shooting time lag and ensure a photo opportunity.

なお、第2実施形態では、撮影指示後にAF完了からの経過時間を確認する(図5ステップS215)例を示したが、撮影指示前に同様の確認を行う構成としても良い。例えば、図4のステップS212とステップS213との間にAF完了からの経過時間を確認する処理を行い、所定時間を経過したら、ステップS216からステップS219、または、ステップS216からステップS222の処理を実行する構成としても良い。   In the second embodiment, an example is shown in which the elapsed time from the completion of AF is confirmed after the shooting instruction (step S215 in FIG. 5). However, the same confirmation may be performed before the shooting instruction. For example, a process for confirming the elapsed time from the completion of AF is performed between step S212 and step S213 in FIG. 4, and when a predetermined time has elapsed, the process from step S216 to step S219 or the process from step S216 to step S222 is executed. It is good also as composition to do.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

上述の各実施形態において説明した各処理の一部または全部を、適宜組み合わせて実行しても良い。   A part or all of the processes described in the above-described embodiments may be appropriately combined and executed.

上述の各実施形態において、マスク抽出処理による検出では、単数の特定領域(例えば、主要被写体領域や注目領域など)が検出されても良いし、複数の特定領域が検出されても良い。複数の特定領域が検出される場合は、表示部23に特定領域の情報を表示する際に、表示内容を工夫することが好ましい。例えば、表示枠の色を変える、線の太さを変える、線の濃淡を変える、線の種類(実線/点線)を変えるなどし、区別可能とするのが好ましい。   In each of the embodiments described above, a single specific region (for example, a main subject region or a region of interest) may be detected or a plurality of specific regions may be detected in the detection by the mask extraction process. When a plurality of specific areas are detected, it is preferable to devise display contents when displaying information on the specific areas on the display unit 23. For example, it is preferable to make the distinction possible by changing the color of the display frame, changing the thickness of the line, changing the density of the line, changing the type of line (solid line / dotted line), and the like.

また、上述の各実施形態において、準備動作としてAFを例に挙げて説明したが、撮影条件や、撮影後の画像に対する画像処理等どのような処理にも応用することができる。例えば、AE、AWB、シーン解析、画像処理その他に応用することができる。   In each of the above-described embodiments, the AF has been described as an example of the preparation operation. However, the present invention can be applied to any processing such as shooting conditions and image processing on an image after shooting. For example, it can be applied to AE, AWB, scene analysis, image processing, and the like.

また、上記の各実施形態においては、構図確認用のスルー画像に基づいて、一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、一眼レフカメラなどにおいて生成される構図確認用のライブビュー画像を対象とする場合にも、本発明を同様に適用することができる。   In each of the above embodiments, an example in which a series of processing is performed based on a through image for composition confirmation has been described, but the present invention is not limited to this example. For example, the present invention can be similarly applied to a case where a live view image for composition confirmation generated in a single-lens reflex camera or the like is targeted.

また、上記の各実施形態においては、コントラストAFを例に挙げて説明したが、位相差AFについても本発明を同様に適用することができる。例えば、レンズ位置および前後のピント情報(前ピン、後ピンなど)に代えて位相差情報を利用することができる。   In each of the above embodiments, the contrast AF has been described as an example, but the present invention can be similarly applied to the phase difference AF. For example, phase difference information can be used instead of the lens position and front / rear focus information (front pin, rear pin, etc.).

また、上記の各実施形態においては、すべてのフレームを対象として一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、時間的に間欠して生成された複数の画像を対象としても良い。具体的には、適宜フレーム間引きを行った複数の画像を対象としても良い。このような処理を行うことにより、処理負荷を軽減することができる。   In each of the above embodiments, an example in which a series of processing is performed for all frames has been described. However, the present invention is not limited to this example. For example, a plurality of images generated intermittently in time may be targeted. Specifically, a plurality of images subjected to frame thinning as appropriate may be targeted. By performing such processing, the processing load can be reduced.

20…撮像装置、21…撮像部、22…画像処理装置、23‥表示部、26…CPU DESCRIPTION OF SYMBOLS 20 ... Imaging device, 21 ... Imaging part, 22 ... Image processing apparatus, 23 ... Display part, 26 ... CPU

Claims (10)

被写体像を撮像して構図確認用画像データを生成する第1モードと、前記被写体像を撮像して記録用画像データを生成する第2モードとを有する撮像部と、
前記構図確認用画像データにより示される画像の特徴量を算出し、前記特徴量に基づいて特定領域を検出する領域検出部と、
前記第2モードで前記撮像部が撮像を行う前に、前記領域検出部で検出された前記特定領域から算出された情報に基づいて、撮像の準備動作を実行する制御部と
を備えることを特徴とする撮像装置。
An imaging unit having a first mode for capturing a subject image and generating composition confirmation image data; and a second mode for capturing the subject image and generating recording image data;
A region detecting unit that calculates a feature amount of an image indicated by the composition confirmation image data and detects a specific region based on the feature amount;
A control unit that performs an imaging preparation operation based on information calculated from the specific area detected by the area detection unit before the imaging unit performs imaging in the second mode. An imaging device.
請求項1に記載の撮像装置において、
前記制御部は、前記領域検出部で検出された前記特定領域の前記構図確認用画像データから測距情報を算出する
ことを特徴とする撮像装置。
The imaging device according to claim 1,
The control unit calculates distance measurement information from the composition confirmation image data of the specific area detected by the area detection unit.
請求項2に記載の撮像装置において、
前記撮像部は、光学系を介して入射した前記被写体像を撮像して前記構図確認用画像データおよび前記記録用画像データを生成し、
前記制御部は、前記準備動作として、前記光学系に関する合焦制御を含む動作を実行する
ことを特徴とする撮像装置。
The imaging device according to claim 2,
The imaging unit captures the subject image incident via an optical system and generates the composition confirmation image data and the recording image data.
The control unit executes an operation including focusing control related to the optical system as the preparation operation.
請求項3に記載の撮像装置において、
前記制御部は、前記合焦制御として、前記光学系のレンズ位置の変更を含む動作を実行する
ことを特徴とする撮像装置。
The imaging device according to claim 3.
The control unit performs an operation including a change of a lens position of the optical system as the focus control.
請求項4に記載の撮像装置において、
前記第1モードから前記第2モードへ切り替えるモード切替指示を受け付ける受付部をさらに備え、
前記制御部は、前記モード切替指示を受け付けると、前記第2モードにおいて前記測距情報に基づく合焦位置に前記レンズ位置を変更して撮像を行う
ことを特徴とする撮像装置。
The imaging apparatus according to claim 4,
A reception unit that receives a mode switching instruction for switching from the first mode to the second mode;
When receiving the mode switching instruction, the control unit changes the lens position to an in-focus position based on the distance measurement information in the second mode and performs imaging.
請求項4に記載の撮像装置において、
前記第1モードから前記第2モードへ切り替えるモード切替指示を受け付ける受付部をさらに備え、
前記制御部は、前記準備動作として、前記測距情報に基づく合焦位置の近傍位置に前記レンズ位置を変更し、前記モード切替指示を受け付けると、前記第2モードにおいて前記レンズ位置を変更せずに撮像を行うか、または、前記第2モードにおいて前記合焦位置に前記レンズ位置を変更して撮像を行う
ことを特徴とする撮像装置。
The imaging apparatus according to claim 4,
A reception unit that receives a mode switching instruction for switching from the first mode to the second mode;
When the control unit changes the lens position to a position near the in-focus position based on the distance measurement information and receives the mode switching instruction as the preparation operation, the control unit does not change the lens position in the second mode. An image pickup apparatus that picks up an image or changes the lens position to the in-focus position in the second mode.
請求項4に記載の撮像装置において、
前記第1モードから前記第2モードへ切り替えるモード切替指示を受け付ける受付部をさらに備え、
前記制御部は、前記準備動作として、前記測距情報に基づく第1合焦制御を行って第1合焦位置に前記レンズ位置を変更するかまたは前記測距情報に基づく第1合焦制御を行って前記第1合焦位置の近傍位置に前記レンズ位置を変更し、前記モード切替指示を受け付けると、現在の前記レンズ位置の近傍において、前記第1合焦制御よりも精度が高い第2
合焦制御を行って第2合焦位置に前記レンズ位置を変更する
ことを特徴とする撮像装置。
The imaging apparatus according to claim 4,
A reception unit that receives a mode switching instruction for switching from the first mode to the second mode;
As the preparatory operation, the control unit performs first focusing control based on the ranging information and changes the lens position to the first focusing position, or performs first focusing control based on the ranging information. When the lens position is changed to a position in the vicinity of the first focus position and the mode switching instruction is received, a second accuracy higher than that in the first focus control is obtained in the vicinity of the current lens position.
An imaging apparatus, wherein focusing control is performed to change the lens position to a second focusing position.
請求項4に記載の撮像装置において、
前記第1モードから前記第2モードへ切り替えるモード切替指示を受け付ける受付部をさらに備え、
前記制御部は、前記準備動作として、前記測距情報に基づく合焦位置に前記レンズ位置を変更し、前記モード切替指示を受け付けると、前記第2モードにおいて前記レンズ位置を変更せずに撮像を行う
ことを特徴とする撮像装置。
The imaging apparatus according to claim 4,
A reception unit that receives a mode switching instruction for switching from the first mode to the second mode;
As the preparatory operation, the control unit changes the lens position to a focus position based on the distance measurement information, and receives the mode switching instruction, performs imaging without changing the lens position in the second mode. An imaging device characterized in that it performs.
請求項5から請求項8の何れか一項に記載の撮像装置において、
前記制御部により求めた前記測距情報を記憶する記憶部をさらに備え、
前記制御部は、前記モード切替指示を受け付けるまで、前記測距情報を継続的に算出するとともに、算出された前記測距情報を前記記憶部に記憶することにより前記測距情報の更新を行う
ことを特徴とする撮像装置。
In the imaging device according to any one of claims 5 to 8,
A storage unit for storing the ranging information obtained by the control unit;
The control unit continuously calculates the ranging information until receiving the mode switching instruction, and updates the ranging information by storing the calculated ranging information in the storage unit. An imaging apparatus characterized by the above.
請求項2に記載の撮像装置において、
前記測距情報とは、合焦位置に対して前ピンであるか後ピンであるかを示す情報を含み、かつ、前記測距情報は、コントラストAFにおいてはウォブリングまたは軸上収差から検出され、位相差AFにおいては位相差情報に相当する
ことを特徴とする撮像装置。
The imaging device according to claim 2,
The distance measurement information includes information indicating whether it is a front pin or a rear pin with respect to the in-focus position, and the distance measurement information is detected from wobbling or axial aberration in contrast AF, In the phase difference AF, this corresponds to phase difference information.
JP2018144878A 2018-08-01 2018-08-01 Imaging device Pending JP2018200481A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018144878A JP2018200481A (en) 2018-08-01 2018-08-01 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018144878A JP2018200481A (en) 2018-08-01 2018-08-01 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013217192A Division JP2015079185A (en) 2013-10-18 2013-10-18 Imaging device

Publications (1)

Publication Number Publication Date
JP2018200481A true JP2018200481A (en) 2018-12-20

Family

ID=64667183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018144878A Pending JP2018200481A (en) 2018-08-01 2018-08-01 Imaging device

Country Status (1)

Country Link
JP (1) JP2018200481A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330009A (en) * 1999-05-20 2000-11-30 Sharp Corp Automatic focusing device for digital camera, and digital camera equipped with same
JP2005223658A (en) * 2004-02-06 2005-08-18 Nikon Gijutsu Kobo:Kk Digital camera
JP2009069748A (en) * 2007-09-18 2009-04-02 Fujifilm Corp Imaging apparatus and its automatic focusing method
JP2009115905A (en) * 2007-11-02 2009-05-28 Fujifilm Corp Imaging apparatus and method
JP2009134300A (en) * 2006-07-25 2009-06-18 Fujifilm Corp Imaging apparatus
JP2009157130A (en) * 2007-12-27 2009-07-16 Sanyo Electric Co Ltd Electronic camera
JP2010187184A (en) * 2009-02-12 2010-08-26 Nikon Corp Object tracking device and imaging device
JP2012208513A (en) * 2012-06-15 2012-10-25 Canon Inc Imaging apparatus and control method thereof
JP2013162225A (en) * 2012-02-02 2013-08-19 Olympus Imaging Corp Tracker and imaging apparatus, and tracking method to be used for imaging apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330009A (en) * 1999-05-20 2000-11-30 Sharp Corp Automatic focusing device for digital camera, and digital camera equipped with same
JP2005223658A (en) * 2004-02-06 2005-08-18 Nikon Gijutsu Kobo:Kk Digital camera
JP2009134300A (en) * 2006-07-25 2009-06-18 Fujifilm Corp Imaging apparatus
JP2009069748A (en) * 2007-09-18 2009-04-02 Fujifilm Corp Imaging apparatus and its automatic focusing method
JP2009115905A (en) * 2007-11-02 2009-05-28 Fujifilm Corp Imaging apparatus and method
JP2009157130A (en) * 2007-12-27 2009-07-16 Sanyo Electric Co Ltd Electronic camera
JP2010187184A (en) * 2009-02-12 2010-08-26 Nikon Corp Object tracking device and imaging device
JP2013162225A (en) * 2012-02-02 2013-08-19 Olympus Imaging Corp Tracker and imaging apparatus, and tracking method to be used for imaging apparatus
JP2012208513A (en) * 2012-06-15 2012-10-25 Canon Inc Imaging apparatus and control method thereof

Similar Documents

Publication Publication Date Title
US20150009352A1 (en) Imaging apparatus and method for controlling the same
US8300137B2 (en) Image sensing apparatus providing driving direction of focus lens for attaining in-focus state and control method therefor
JP6474693B2 (en) Focus detection apparatus, focus detection method, and recording medium
US20080025604A1 (en) System for and method of taking image and computer program
JP2011248159A (en) Imaging apparatus, imaging system, imaging apparatus control method and program
KR101728042B1 (en) Digital photographing apparatus and control method thereof
US8830383B2 (en) Image pickup apparatus and control method thereof
JP6151867B2 (en) Imaging device, imaging device body, and lens barrel
JP2018031877A (en) Image pickup device and focus adjusting method
JP2019092119A (en) Imaging device, lens device, and control method thereof
JP2011013645A5 (en)
US20090167931A1 (en) Imaging device
JP2020022012A (en) Imaging device and control method thereof
JP5100410B2 (en) Imaging apparatus and control method thereof
JP2007057974A (en) Photographing device
JP2010041510A (en) Imaging apparatus and control method
JP2016142999A (en) Imaging device and control method of the same
JP2018200481A (en) Imaging device
JP2015041901A (en) Image processing device, its control method, control program, and imaging apparatus
JP6257186B2 (en) Imaging apparatus, imaging method, and program
JP6988355B2 (en) Imaging device
US10348977B2 (en) Image pickup apparatus calculating light-amount variation characteristic of light from object, control method therefor, and storage medium storing control program therefor
JP2015079185A (en) Imaging device
JP2010060810A (en) Imaging apparatus and imaging method
JP2006243609A (en) Autofocus device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191028

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200324