JP2016133787A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2016133787A
JP2016133787A JP2015010569A JP2015010569A JP2016133787A JP 2016133787 A JP2016133787 A JP 2016133787A JP 2015010569 A JP2015010569 A JP 2015010569A JP 2015010569 A JP2015010569 A JP 2015010569A JP 2016133787 A JP2016133787 A JP 2016133787A
Authority
JP
Japan
Prior art keywords
information
imaging
unit
signal
imaging signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015010569A
Other languages
Japanese (ja)
Inventor
武則 酒井
Takenori Sakai
武則 酒井
正洋 村上
Masahiro Murakami
正洋 村上
宮原 弘之
Hiroyuki Miyahara
弘之 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015010569A priority Critical patent/JP2016133787A/en
Publication of JP2016133787A publication Critical patent/JP2016133787A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of properly executing AF control, according to the change of a subject state.SOLUTION: An imaging apparatus 100 includes an imaging part 140, a control part 130, and a lens driving part 120. The imaging part 140 periodically stores light from a subject, to generate and output an imaging signal. The control part 130 includes an imaging processing part 135 and an information determination part 137. The imaging processing part 135 periodically controls the storage time of the imaging part 140 with a first storage time and a second storage time. The information determination part 137 determines the subject state on the basis of the first information of a first imaging signal generated with the first storage time and the second information of a second imaging signal generated with the second storage time. The lens driving part 120 drives an optical system 110 by using one of the first information and the second information corresponding to the subject state.SELECTED DRAWING: Figure 3A

Description

本技術は、撮像装置に関する。   The present technology relates to an imaging apparatus.

従来の撮像装置には、同一の被写体を異なる露光量で撮像した複数の撮像信号を合成できるものがある(特許文献1)。この合成によって、明暗差が拡大された合成信号(合成画像)が、生成される。   Some conventional imaging devices can synthesize a plurality of imaging signals obtained by imaging the same subject with different exposure amounts (Patent Document 1). By this synthesis, a synthesized signal (synthesized image) in which the contrast is enlarged is generated.

特開平11−164195号公報JP-A-11-164195

従来の撮像装置では、各種の情報例えばコントラスト情報等が検出され、このコントラスト情報を用いて、AF制御が実行される。
ここでは、コントラスト情報は1フレームごとに検出され、このコントラスト情報に基づいて、AF制御が実行される。例えば、複数の撮像信号が、第1撮像信号、及び第1撮像信号より露光量が小さい第2撮像信号が、周期的に生成される場合、一般的には、被写体状態の変化に関わらず、第1撮像信号のコントラスト情報、又は第2撮像信号のコントラスト情報を用いて、AF制御を行っていることが多い。しかしながら、第1撮像信号及び第2撮像信号は、互いに露光量が異なるので、コントラスト情報の比較が難しい。すなわち、AF制御を適切に実行できないおそれがある。
本技術は、上記の問題に鑑みてなされたものであって、本技術の目的は、被写体状態の変化に応じてAF制御を適切に実行できる撮像装置を、提供することにある。
In a conventional imaging apparatus, various types of information such as contrast information is detected, and AF control is executed using this contrast information.
Here, contrast information is detected for each frame, and AF control is executed based on the contrast information. For example, when a plurality of imaging signals are periodically generated as a first imaging signal and a second imaging signal having a smaller exposure amount than the first imaging signal, generally, regardless of changes in the subject state, In many cases, AF control is performed using the contrast information of the first imaging signal or the contrast information of the second imaging signal. However, since the first imaging signal and the second imaging signal have different exposure amounts, it is difficult to compare contrast information. That is, there is a possibility that the AF control cannot be properly executed.
The present technology has been made in view of the above-described problems, and an object of the present technology is to provide an imaging apparatus capable of appropriately performing AF control according to a change in a subject state.

ここに開示された撮像装置は、撮像部と、制御部と、駆動部とを、備えている。撮像部は、被写体からの光を周期的に蓄積することによって撮像信号を生成し出力する。制御部は、撮像処理部と、判断部とを、有する。撮像処理部は、撮像部の蓄積時間を第1蓄積時間及び第2蓄積時間で周期的に制御する。判断部は、第1蓄積時間で生成された第1撮像信号の第1情報、及び第2蓄積時間で生成された第2撮像信号の第2情報に基づいて、被写体状態を判断する。駆動部は、被写体状態に対応する第1情報及び第2情報のいずれか一方を用いて、合焦用のレンズを駆動する。   The imaging device disclosed here includes an imaging unit, a control unit, and a drive unit. The imaging unit generates and outputs an imaging signal by periodically accumulating light from the subject. The control unit includes an imaging processing unit and a determination unit. The imaging processing unit periodically controls the accumulation time of the imaging unit with the first accumulation time and the second accumulation time. The determination unit determines the subject state based on the first information of the first imaging signal generated at the first accumulation time and the second information of the second imaging signal generated at the second accumulation time. The driving unit drives the focusing lens using either the first information or the second information corresponding to the subject state.

本技術では、被写体状態の変化に応じてAF制御を適切に実行できる撮像装置を、提供できる。   According to the present technology, it is possible to provide an imaging apparatus that can appropriately execute AF control in accordance with a change in a subject state.

本実施形態に係る撮像装置のブロック図。1 is a block diagram of an imaging apparatus according to the present embodiment. 本実施形態に係る撮像装置における撮像部の動作を示す概念図。FIG. 3 is a conceptual diagram illustrating an operation of an imaging unit in the imaging apparatus according to the present embodiment. 本実施形態に係る撮像装置におけるAF処理を示すフローチャート。6 is a flowchart showing AF processing in the imaging apparatus according to the present embodiment. 本実施形態に係る撮像装置におけるAF処理を示すフローチャート。6 is a flowchart showing AF processing in the imaging apparatus according to the present embodiment. 本実施形態に係る撮像装置におけるAF処理を示すフローチャート。6 is a flowchart showing AF processing in the imaging apparatus according to the present embodiment.

<撮像装置の構成>
図1は、本技術の実施形態に係る撮像装置100の構成を示すブロック図である。本実施形態における撮像装置100は、動画撮影が可能なデジタルカメラ及びビデオカメラを含む撮像装置100である。以下では、撮像装置100がデジタルカメラである場合を一例として、説明を行う。
撮像装置100は、主に、光学系110と、露光部170と、撮像部140と、信号処理部150と、制御部130と、レンズ駆動部120(駆動部の一例)と、記録部160とを、備えている。なお、以下で用いる信号という文言は、画像、画像データ、映像、及び映像データを含む概念である。また、以下で用いる情報という文言は、情報データを含む概念である。
<Configuration of imaging device>
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 100 according to an embodiment of the present technology. The imaging apparatus 100 in the present embodiment is an imaging apparatus 100 that includes a digital camera and a video camera capable of moving image shooting. Hereinafter, the case where the imaging apparatus 100 is a digital camera will be described as an example.
The imaging apparatus 100 mainly includes an optical system 110, an exposure unit 170, an imaging unit 140, a signal processing unit 150, a control unit 130, a lens driving unit 120 (an example of a driving unit), and a recording unit 160. Is provided. Note that the term “signal” used below is a concept including an image, image data, video, and video data. Further, the term “information” used below is a concept including information data.

<光学系>
光学系110は、被写体像を形成する。光学系110は、主に、フォーカスレンズ111(合焦用のレンズ)、ズームレンズ112を、有する。
フォーカスレンズ111は、被写体のフォーカス状態を調節するレンズである。ズームレンズ112は、被写体の画角を調節するレンズである。フォーカスレンズ111及びズームレンズ112は、レンズ駆動部120によって、制御部130から発行される制御信号に基づいて、駆動される。
なお、ここでは、代表的なレンズを説明したが、光学系110は、撮像に必要な他のレンズを有していてもよい。例えば、光学系110は、光学式手ぶれ補正レンズを、含んでいてもよい。また、光学系110に含まれるレンズは、何枚のレンズから構成されるものであってもよいし、何群のレンズから構成されるものであってもよい。
<Optical system>
The optical system 110 forms a subject image. The optical system 110 mainly includes a focus lens 111 (focusing lens) and a zoom lens 112.
The focus lens 111 is a lens that adjusts the focus state of the subject. The zoom lens 112 is a lens that adjusts the angle of view of the subject. The focus lens 111 and the zoom lens 112 are driven by the lens driving unit 120 based on a control signal issued from the control unit 130.
In addition, although the typical lens was demonstrated here, the optical system 110 may have another lens required for imaging. For example, the optical system 110 may include an optical camera shake correction lens. Further, the lens included in the optical system 110 may be composed of any number of lenses, and may be composed of any number of groups of lenses.

<露光部>
露光部170は、絞り113と、シャッタ114とを、有する。絞り113は、撮像部140(CMOSイメージセンサ141)に入射する光量を調節する。シャッタ114は、撮像部140に入射する光の露出時間を調節する。絞り113及びシャッタ114によって、撮像部140の露出量が、決定される。絞り113と、シャッタ114とは、図示しない駆動部によって、制御部130から発行される制御信号に基づいて、駆動される。
<撮像部>
撮像部140は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ141を、有している。CMOSイメージセンサ141は、光学系110により形成された被写体像を撮像する撮像素子である。例えば、CMOSイメージセンサ141は、被写体からの光を周期的に蓄積することによって、撮像信号を生成し出力する。
<Exposure part>
The exposure unit 170 includes a diaphragm 113 and a shutter 114. The diaphragm 113 adjusts the amount of light incident on the imaging unit 140 (CMOS image sensor 141). The shutter 114 adjusts the exposure time of light incident on the imaging unit 140. The exposure amount of the imaging unit 140 is determined by the diaphragm 113 and the shutter 114. The diaphragm 113 and the shutter 114 are driven by a driving unit (not shown) based on a control signal issued from the control unit 130.
<Imaging unit>
The imaging unit 140 includes a CMOS (Complementary Metal Oxide Semiconductor) image sensor 141. The CMOS image sensor 141 is an image sensor that captures a subject image formed by the optical system 110. For example, the CMOS image sensor 141 generates and outputs an imaging signal by periodically accumulating light from a subject.

<信号処理部>
信号処理部150は、AFE151(Analog Front End)を有している。AFE151は、CMOSイメージセンサ141により生成された撮像信号に対して、各種処理を施す。具体的には、AFE151は、相関二重サンプリングによる雑音抑圧、アナログゲイン制御部によるA/Dコンバータの入力レンジ幅への増幅、A/DコンバータによるA/D変換等の処理を施す。
<Signal processing unit>
The signal processing unit 150 has an AFE 151 (Analog Front End). The AFE 151 performs various processes on the imaging signal generated by the CMOS image sensor 141. Specifically, the AFE 151 performs processing such as noise suppression by correlated double sampling, amplification to the input range width of the A / D converter by the analog gain control unit, and A / D conversion by the A / D converter.

<制御部>
制御部130は、撮像装置100全体の動作を統括制御する。例えば、制御部130は、光学系110(レンズ駆動部120)、露光部170、撮像部140、信号処理部150、及び記録部160等を、制御する。
制御部130は、被写体の状態、例えば撮像信号から取得したコントラスト情報に基づいて、光学系110(レンズ駆動部120)に対するAF制御(Auto Focus 制御)を、指示する。また、制御部130は、被写体の輝度に応じて、露光部170に対するAE(Automatic Exposure 制御;自動露出制御)を、指示する。
なお、コントラストは、撮像信号から取得したコントラスト信号に基づいて、生成されるデータである。ここでは、コントラスト情報に基づいて撮像信号のコントラストが検出され、このコントラストに基づいてAF制御が実行される。すなわち、本実施形態のAF制御は、コントラスト検出式のAF制御である。
これにより、制御部130は、撮像信号及び/又は合成信号(合成画像)を生成し、これら信号に対応するデータを、静止画データ又は動画データとして、記録部160例えばメモリカード190及び内部メモリ160b(以下、メモリ190等)に記録可能である。なお、内部メモリ160bは、記録部160に含まれる第2記録部(後述する)である。メモリカード190は、記録部160に含まれる第3記録部(後述する)に、装着される。
<Control unit>
The control unit 130 controls the overall operation of the imaging apparatus 100. For example, the control unit 130 controls the optical system 110 (the lens driving unit 120), the exposure unit 170, the imaging unit 140, the signal processing unit 150, the recording unit 160, and the like.
The control unit 130 instructs AF control (Auto Focus control) for the optical system 110 (the lens driving unit 120) based on the state of the subject, for example, contrast information acquired from the imaging signal. In addition, the control unit 130 instructs AE (Automatic Exposure Control) for the exposure unit 170 according to the luminance of the subject.
The contrast is data generated based on the contrast signal acquired from the imaging signal. Here, the contrast of the imaging signal is detected based on the contrast information, and AF control is executed based on this contrast. That is, the AF control of the present embodiment is contrast detection type AF control.
Thereby, the control unit 130 generates an imaging signal and / or a synthesized signal (synthesized image), and sets data corresponding to these signals as still image data or moving image data as a recording unit 160 such as the memory card 190 and the internal memory 160b. (Hereinafter referred to as the memory 190 or the like). The internal memory 160b is a second recording unit (described later) included in the recording unit 160. The memory card 190 is attached to a third recording unit (described later) included in the recording unit 160.

より具体的には、制御部130は、ROM及びCPU等から、構成される。ROMには、撮像装置100全体の動作を統括制御するための各種プログラムが、格納されている。各種プログラムには、信号制御(合成制御を含む)、レンズ駆動制御、AF制御、及びAE制御等に関するプログラムの他、撮像装置100全体の動作を統括制御するプログラムが、含まれている。CPUは、ROMに格納されているプログラムを実行することによって、上述した各種制御を実行する。
なお、制御部130は、プログラムを実行するマイクロコンピュータから構成されていてもよいし、ハードワイヤードな電子回路であってもよい。
また、制御部130は、例えば、命令処理部131と、画像処理部133と、撮像処理部135と、情報判断部137(判断部の一例)と、合焦処理部139とを、有している。
More specifically, the control unit 130 includes a ROM, a CPU, and the like. The ROM stores various programs for overall control of the entire operation of the imaging apparatus 100. The various programs include programs related to signal control (including synthesis control), lens drive control, AF control, AE control, and the like, as well as programs that control the overall operation of the imaging apparatus 100. The CPU executes the various controls described above by executing a program stored in the ROM.
The control unit 130 may be composed of a microcomputer that executes a program, or may be a hard-wired electronic circuit.
Further, the control unit 130 includes, for example, an instruction processing unit 131, an image processing unit 133, an imaging processing unit 135, an information determination unit 137 (an example of a determination unit), and a focusing processing unit 139. Yes.

命令処理部131は、撮像装置100を動作させるために、各種の命令を処理する。例えば、命令処理部131は、レンズ駆動部120、露光部170、撮像部140、及び信号処理部150等に対する命令を処理し、処理後の命令を各部に対して指示する。これにより、上述したように、AF制御及び/又はAE制御が実行され、静止画用の撮像信号、及び/又は動画用の合成信号(合成画像)が、生成される。これら撮像信号及び/又は合成信号(合成画像)の生成は、主に、画像処理部133において行われる。
また、命令処理部131は、トーン情報(後述するコントラスト情報及び輝度情報)の出力を促す命令を、撮像部140に対して指示する。すると、トーン情報(コントラスト情報及び輝度情報)が、メモリ190等に一時的に記録される。
画像処理部133は、信号処理部150から出力された撮像信号に対して、各種の処理を施す。例えば、画像処理部133は、被写体に応じて設定された露出設定を用いて撮像された撮像信号に対して、各種の処理を施す。例えば、各種処理には、スミア補正、ホワイトバランス補正、ガンマ補正、YC変換処理、電子ズーム処理、圧縮処理、縮小処理、拡大処理等の処理等が、含まれる。
The command processing unit 131 processes various commands in order to operate the imaging apparatus 100. For example, the command processing unit 131 processes commands for the lens driving unit 120, the exposure unit 170, the imaging unit 140, the signal processing unit 150, and the like, and instructs the respective units for the processed commands. Thereby, as described above, AF control and / or AE control is executed, and a still image pickup signal and / or a moving image composite signal (composite image) is generated. The generation of these imaging signals and / or synthesized signals (synthesized images) is mainly performed in the image processing unit 133.
Further, the command processing unit 131 instructs the imaging unit 140 to command to prompt the output of tone information (contrast information and luminance information described later). Then, tone information (contrast information and luminance information) is temporarily recorded in the memory 190 or the like.
The image processing unit 133 performs various types of processing on the imaging signal output from the signal processing unit 150. For example, the image processing unit 133 performs various types of processing on the imaging signal captured using the exposure setting set according to the subject. For example, the various types of processing include smear correction, white balance correction, gamma correction, YC conversion processing, electronic zoom processing, compression processing, reduction processing, enlargement processing, and the like.

画像処理部133は、合成処理部134を含んでいる。合成処理部134は、複数の蓄積時間で蓄積することによって生成された複数の撮像信号を合成して、記録部160に記録する。
例えば、動画撮影時には、合成処理部134は、異なる露出設定で撮像された複数の撮像信号を合成する処理を、実行する。例えば、合成処理部134は、第1撮像信号及び第2撮像信号を合成し、合成後の撮像信号を記録部160に記録する。この合成処理によって、明暗差が拡大された合成信号(合成画像)が生成される。ここで生成された合成信号が、記録部160に記録される。
このように、画像処理部133で処理された静止画用の撮像信号、及び/又は動画用の合成信号は、上述したように、静止画データ又は動画データとして、メモリ190等に記録可能である。
The image processing unit 133 includes a synthesis processing unit 134. The combination processing unit 134 combines a plurality of imaging signals generated by storing in a plurality of storage times and records the combined signal in the recording unit 160.
For example, at the time of moving image shooting, the composition processing unit 134 executes a process of combining a plurality of image pickup signals imaged with different exposure settings. For example, the combination processing unit 134 combines the first image pickup signal and the second image pickup signal, and records the combined image pickup signal in the recording unit 160. By this synthesis process, a synthesized signal (synthesized image) in which the contrast is enlarged is generated. The synthesized signal generated here is recorded in the recording unit 160.
As described above, the still image pickup signal and / or the moving image composite signal processed by the image processing unit 133 can be recorded in the memory 190 or the like as still image data or moving image data as described above. .

撮像処理部135は、撮像部140例えばCMOSイメージセンサ141を、制御する。撮像処理部135は、CMOSイメージセンサ141の蓄積時間を、複数の蓄積時間で周期的に制御する。複数の蓄積時間は、例えば、第1蓄積時間及び第2蓄積時間である。具体的には、図2に示すように、撮像処理部135は、露光部170を制御することによって、CMOSイメージセンサ141の蓄積時間を、第1蓄積時間及び第2蓄積時間で周期的に制御する。第1蓄積時間では、撮像処理部135は第1撮像信号を生成する。第2蓄積時間では、撮像処理部135は第2撮像信号を生成する。
図2に示す例では、1番目と3番目のフレームでは撮像部140は各フレーム全体にわたって光を蓄積しており、2番目と4番目のフレームでは撮像部140は各フレームの途中から光の蓄積を開始して蓄積時間を短くしている。ここで、フレームの途中から光の蓄積を開始する方法として、フレームの始まりから光の蓄積開始までの期間(非蓄積期間)において撮像部140に入射する光を遮断するのではなく、非蓄積期間において蓄積された光による撮像信号を、光の蓄積開始時(フレームの途中)にリセットするという電子シャッタを用いてもよい。
The imaging processing unit 135 controls the imaging unit 140, for example, the CMOS image sensor 141. The imaging processing unit 135 periodically controls the accumulation time of the CMOS image sensor 141 with a plurality of accumulation times. The plurality of accumulation times are, for example, a first accumulation time and a second accumulation time. Specifically, as illustrated in FIG. 2, the imaging processing unit 135 controls the exposure unit 170 to periodically control the accumulation time of the CMOS image sensor 141 using the first accumulation time and the second accumulation time. To do. In the first accumulation time, the imaging processing unit 135 generates a first imaging signal. In the second accumulation time, the imaging processing unit 135 generates a second imaging signal.
In the example shown in FIG. 2, in the first and third frames, the imaging unit 140 accumulates light over the entire frame, and in the second and fourth frames, the imaging unit 140 accumulates light from the middle of each frame. To shorten the accumulation time. Here, as a method of starting the accumulation of light from the middle of the frame, the light incident on the imaging unit 140 is not blocked during the period from the start of the frame to the start of the accumulation of light (non-accumulation period). Alternatively, an electronic shutter may be used in which the imaging signal based on the light accumulated in step 1 is reset when light accumulation starts (in the middle of the frame).

本実施形態では、第1蓄積時間が第2蓄積時間より長い場合を一例として、説明を行う。このため、以下では、第1撮像信号は、露出量が大きい画像信号となり、第2撮像信号は、第1撮像信号より露出量が小さい画像信号となる。
なお、上記のCMOSイメージセンサ141の蓄積時間とは、CMOSイメージセンサ141に電荷を蓄積する時間を示す文言である。
合焦処理部139は、撮像部140が撮像信号を出力したときに最新の撮像信号を用いてAF処理(合焦処理の一例)を実行する。AF処理は、AF制御において実行される処理である。AF処理の詳細については、後述する図3A〜図3Cのフローチャートを用いて説明する。
合焦処理部139は、情報判断部137を含んでいる。情報判断部137は、トーン情報に関する各種の判断を行う。例えば、情報判断部137は、トーン情報に基づいて、被写体状態を判断する。より具体的には、情報判断部137は、第1撮像信号の第1トーン情報(第1情報の一例)、及び第2撮像信号の第2トーン情報(第2情報の一例)に基づいて、被写体状態例えば被写体の明暗を、判断する。
ここで、第1トーン情報及び第2トーン情報は、コントラスト情報及び輝度情報を、含む。例えば、第1トーン情報は、第1コントラスト情報及び第1輝度情報を、含む。第2トーン情報は、第2コントラスト情報及び第2輝度情報を、含む。なお、第1トーン情報及び第2トーン情報は、メモリ190等に一時的に記録されている。
In the present embodiment, the case where the first accumulation time is longer than the second accumulation time will be described as an example. Therefore, in the following, the first imaging signal is an image signal with a large exposure amount, and the second imaging signal is an image signal with an exposure amount smaller than that of the first imaging signal.
The accumulation time of the CMOS image sensor 141 is a term indicating the time for accumulating charges in the CMOS image sensor 141.
The focusing processing unit 139 performs AF processing (an example of focusing processing) using the latest imaging signal when the imaging unit 140 outputs the imaging signal. The AF process is a process executed in AF control. Details of the AF processing will be described with reference to flowcharts of FIGS. 3A to 3C described later.
The focusing processing unit 139 includes an information determination unit 137. The information determination unit 137 makes various determinations regarding tone information. For example, the information determination unit 137 determines the subject state based on the tone information. More specifically, the information determination unit 137 is based on the first tone information (an example of the first information) of the first imaging signal and the second tone information (an example of the second information) of the second imaging signal. The subject state, for example, the brightness of the subject is determined.
Here, the first tone information and the second tone information include contrast information and luminance information. For example, the first tone information includes first contrast information and first luminance information. The second tone information includes second contrast information and second luminance information. Note that the first tone information and the second tone information are temporarily recorded in the memory 190 or the like.

詳細には、情報判断部137は、トーン情報の信頼性に応じて、被写体状態を判断する。例えば、情報判断部137は、トーン情報の信頼度データを算出し、この信頼度データに基づいて被写体状態を判断する。例えば、情報判断部137は、第1信頼度データ及び第2信頼度データを算出し、これら第1信頼度データ及び第2信頼度データに基づいて、被写体状態を判断する。なお、信頼度データは、コントラスト情報及び輝度情報を用いて生成され、トーン情報がAF制御に適した情報であるか否かを判断する指標として用いられる。
ここで、情報判断部137は、被写体状態が実質的に同じである場合に、第1トーン情報から第2トーン情報に、選択中のトーン情報を変更する。また、情報判断部137は、被写体状態が実質的に同じである場合に、第2トーン情報から第1トーン情報に、選択中のトーン情報を変更する。例えば、被写体状態は、信頼度データに基づいて判断される。第1撮像信号の第1信頼度データ及び第2撮像信号の第2信頼度データが所定条件で所定期間一定である場合に、トーン情報が変更される。
Specifically, the information determination unit 137 determines the subject state according to the reliability of the tone information. For example, the information determination unit 137 calculates reliability data of tone information and determines the subject state based on the reliability data. For example, the information determination unit 137 calculates first reliability data and second reliability data, and determines the subject state based on the first reliability data and the second reliability data. The reliability data is generated using the contrast information and the luminance information, and is used as an index for determining whether the tone information is information suitable for AF control.
Here, when the subject state is substantially the same, the information determination unit 137 changes the selected tone information from the first tone information to the second tone information. Further, when the subject state is substantially the same, the information determining unit 137 changes the selected tone information from the second tone information to the first tone information. For example, the subject state is determined based on the reliability data. The tone information is changed when the first reliability data of the first imaging signal and the second reliability data of the second imaging signal are constant for a predetermined period under a predetermined condition.

<レンズ駆動部>
レンズ駆動部120は、光学系110を駆動するためのものである。レンズ駆動部120は、例えば、DCモータ又はステッピングモータ等の駆動ユニットから、構成される。
レンズ駆動部120は、制御部130からの命令に基づいて、駆動する。例えば、レンズ駆動部120が、AF制御のためのAF制御信号(合焦処理による情報の一例)を制御部130から受け取ると、このAF制御信号に基づいてレンズ駆動部120が光学系110を駆動する。
レンズ駆動部120は、第1蓄積時間が経過した後に、第1蓄積時間で生成された第1撮像信号を用いて、光学系110例えばフォーカスレンズ111を、駆動する。また、第2蓄積時間が経過した後には、第2蓄積時間で生成された第2撮像信号を用いて、光学系110を、駆動する。
<Lens drive unit>
The lens driving unit 120 is for driving the optical system 110. The lens driving unit 120 includes a driving unit such as a DC motor or a stepping motor, for example.
The lens driving unit 120 is driven based on a command from the control unit 130. For example, when the lens driving unit 120 receives an AF control signal (an example of information by focusing processing) for AF control from the control unit 130, the lens driving unit 120 drives the optical system 110 based on the AF control signal. To do.
The lens driving unit 120 drives the optical system 110, for example, the focus lens 111, using the first imaging signal generated at the first accumulation time after the first accumulation time has elapsed. In addition, after the second accumulation time has elapsed, the optical system 110 is driven using the second imaging signal generated during the second accumulation time.

より具体的には、レンズ駆動部120は、制御部130(情報判断部137)で判断された被写体状態に応じて、合焦用のレンズを駆動する。例えば、レンズ駆動部120は、被写体状態例えば被写体の明暗に応じて、第1トーン情報及び第2トーン情報のいずれか一方を選択する。そして、ここで選択されたトーン情報に基づいて、合焦用のレンズを駆動する。言い換えると、レンズ駆動部120は、被写体の明暗に応じて、時間軸上において互いに隣接する第1トーン情報及び第2トーン情報のいずれか一方を選択することによって、合焦用のレンズを駆動する。   More specifically, the lens driving unit 120 drives the focusing lens according to the subject state determined by the control unit 130 (information determining unit 137). For example, the lens driving unit 120 selects either the first tone information or the second tone information according to the subject state, for example, the brightness of the subject. Based on the tone information selected here, the focusing lens is driven. In other words, the lens driving unit 120 drives the focusing lens by selecting one of the first tone information and the second tone information adjacent to each other on the time axis according to the brightness of the subject. .

<記録部>
記録部160は、第1記録部160aと、第2記録部160bと、第3記録部160cとを、有している。
第1記録部160aは、揮発性の記憶媒体である。例えば、第1記録部160aは、DRAM(Dynamic Random Access Memory)のようなバッファメモリである。第1記録部160aは、制御部130例えば画像処理部133のワークメモリとして、機能する。
第2記録部160bは、不揮発性の記録媒体である。第2記録部160bは、撮像装置100の内部メモリ、例えばフラッシュメモリである。
第3記録部160cは、例えば、メモリカード190を着脱可能なカードスロットである。第3記録部160cは、メモリカード190と電気的及び機械的に接続可能である。メモリカード190は、撮像装置100の外部メモリである。例えば、メモリカード190は、不揮発性の記録媒体である。
<Recording section>
The recording unit 160 includes a first recording unit 160a, a second recording unit 160b, and a third recording unit 160c.
The first recording unit 160a is a volatile storage medium. For example, the first recording unit 160a is a buffer memory such as a DRAM (Dynamic Random Access Memory). The first recording unit 160a functions as a work memory of the control unit 130, for example, the image processing unit 133.
The second recording unit 160b is a nonvolatile recording medium. The second recording unit 160b is an internal memory of the imaging device 100, for example, a flash memory.
The third recording unit 160c is, for example, a card slot in which the memory card 190 can be attached and detached. The third recording unit 160c can be electrically and mechanically connected to the memory card 190. The memory card 190 is an external memory of the imaging apparatus 100. For example, the memory card 190 is a non-volatile recording medium.

<その他の構成>
また、撮像装置100は、表示部210と、操作部220とを、さらに備えている。
表示部210は、例えば、液晶モニタや有機ELモニタ等である。表示部210は、スルー画像及び記録画像等の画像を、表示する。スルー画像及び記録画像は、制御部130(画像処理部133)により、生成される。記録画像は、メモリ190等の静止画データ又は動画データを、デコードすることにより得られる画像である。
操作部220は、ユーザから操作を受け付ける操作インターフェースである。操作部220は、撮像装置100の外部に配置される操作釦や操作ダイヤル等の総称である。操作部220は、ユーザによる操作を受け付けると、操作内容に対応する信号を、制御部130に送信する。
<Other configurations>
The imaging apparatus 100 further includes a display unit 210 and an operation unit 220.
The display unit 210 is, for example, a liquid crystal monitor or an organic EL monitor. The display unit 210 displays images such as a through image and a recorded image. The through image and the recorded image are generated by the control unit 130 (image processing unit 133). The recorded image is an image obtained by decoding still image data or moving image data in the memory 190 or the like.
The operation unit 220 is an operation interface that receives an operation from a user. The operation unit 220 is a general term for operation buttons, operation dials, and the like arranged outside the imaging apparatus 100. When the operation unit 220 receives an operation by the user, the operation unit 220 transmits a signal corresponding to the operation content to the control unit 130.

<動画撮影時のAF処理>
図2は、撮像装置100において動画撮影が実行される場合のタイミングチャートである。この動画撮影では、合成信号(合成画像)が生成され、この合成信号がメモリ190等に記録される。
ここでは、図2を参照して、合成信号の生成時の基本動作を説明する。
動画撮影は、所定の時間間隔、例えば1/60s(1フレーム)ごとの垂直同期信号によって、実行される。このときに、撮像処理部135は、露光部170を制御することによって、撮像部140(CMOSイメージセンサ141)の蓄積時間が、第1蓄積時間及び第2蓄積時間で周期的に変化する。これにより、撮像部140が、第1蓄積時間に対応する第1撮像信号、及び第2蓄積時間に対応する第2撮像信号を、時間軸に沿って、周期的に生成する。そして、制御部130の画像処理部133(合成処理部134)が、撮像部140から出力された第1撮像信号及び第2撮像信号に基づいて、合成信号を生成し、この合成信号を合成画像データとしてメモリ190等に記録する。
このようして合成信号を生成している際には、1フレームごとに、第1撮像信号及び第2撮像信号に対して、AF処理が実行されている。
<AF processing during movie shooting>
FIG. 2 is a timing chart when moving image shooting is performed in the imaging apparatus 100. In this moving image shooting, a synthesized signal (synthesized image) is generated, and this synthesized signal is recorded in the memory 190 or the like.
Here, with reference to FIG. 2, a basic operation at the time of generating a composite signal will be described.
Movie shooting is executed by a vertical synchronization signal at predetermined time intervals, for example, 1/60 s (one frame). At this time, the imaging processing unit 135 controls the exposure unit 170 to periodically change the accumulation time of the imaging unit 140 (CMOS image sensor 141) between the first accumulation time and the second accumulation time. Thereby, the imaging unit 140 periodically generates a first imaging signal corresponding to the first accumulation time and a second imaging signal corresponding to the second accumulation time along the time axis. Then, the image processing unit 133 (compositing processing unit 134) of the control unit 130 generates a composite signal based on the first image pickup signal and the second image pickup signal output from the image pickup unit 140, and uses this composite signal as a composite image. Data is recorded in the memory 190 or the like.
When the composite signal is generated in this way, AF processing is performed on the first imaging signal and the second imaging signal for each frame.

まず、露光部170が作動し、撮像部140の光量及び露出時間が調節される。これにより、撮像部140の露出量が決定される。すると、この露出量に基づいて、上記の第1蓄積時間及び第2蓄積時間が、決定される。すると、第1蓄積時間又は第2蓄積時間に基づいて、撮像部140が、第1撮像信号又は第2撮像信号を生成する。この処理は、1フレームごとに実行され、第1撮像信号及び第2撮像信号を用いて、AF処理が実行される。
以下では、図3A〜図3Cのフローチャートを参照して、このAF処理を詳細に説明する。
まず、動画撮影が開始された時(初動作時)のAF処理について説明する。
1フレーム目の第1撮像信号(1)が生成されると、第1撮像信号(1)の第1トーン情報(1)が、検出される(S1)。すると、この第1トーン情報(1)に基づいて、第1信頼度データ(1)が算出される(S2)。次に、2フレーム目の第2撮像信号(2)が生成されると、第2撮像信号(2)の第2トーン情報(2)が、検出される(S3)。すると、この第2トーン情報(2)に基づいて、第2信頼度データ(2)が算出される(S4)。
First, the exposure unit 170 is activated, and the amount of light and the exposure time of the imaging unit 140 are adjusted. Thereby, the exposure amount of the imaging unit 140 is determined. Then, based on the exposure amount, the first accumulation time and the second accumulation time are determined. Then, based on the first accumulation time or the second accumulation time, the imaging unit 140 generates a first imaging signal or a second imaging signal. This process is executed for each frame, and the AF process is executed using the first imaging signal and the second imaging signal.
Hereinafter, this AF processing will be described in detail with reference to the flowcharts of FIGS. 3A to 3C.
First, AF processing when moving image shooting is started (at the time of initial operation) will be described.
When the first imaging signal (1) of the first frame is generated, the first tone information (1) of the first imaging signal (1) is detected (S1). Then, first reliability data (1) is calculated based on the first tone information (1) (S2). Next, when the second imaging signal (2) of the second frame is generated, the second tone information (2) of the second imaging signal (2) is detected (S3). Then, second reliability data (2) is calculated based on the second tone information (2) (S4).

なお、第1トーン情報(1)は、第1撮像信号(1)の第1コントラスト情報及び第1輝度情報を、含んでいる。第2トーン情報(2)は、第2撮像信号(2)の第2コントラスト情報及び第2輝度情報を、含んでいる。
続いて、これら第1信頼度データ(1)及び第2信頼度データ(2)に基づいて、被写体状態が判断される。具体的には、第1信頼度データ(1)及び第2信頼度データ(2)に基づいて、第1撮像信号(1)の信頼度が第2撮像信号(2)の信頼度より大きいか否かが、情報判断部137によって判断される(S5)。
ここで、第1撮像信号(1)の信頼度が第2撮像信号(2)の信頼度より大きい場合(S5でYes)、第1撮像信号(1)の第1コントラスト情報が、AF制御用のコントラスト情報として、設定される(S6)。一方で、第1撮像信号(1)の信頼度が第2撮像信号(2)の信頼度以下である場合(S5でNo)、第2撮像信号(2)の第2コントラスト情報が、AF制御用のコントラスト情報として、設定される。
The first tone information (1) includes the first contrast information and the first luminance information of the first imaging signal (1). The second tone information (2) includes the second contrast information and the second luminance information of the second imaging signal (2).
Subsequently, the subject state is determined based on the first reliability data (1) and the second reliability data (2). Specifically, based on the first reliability data (1) and the second reliability data (2), is the reliability of the first imaging signal (1) greater than the reliability of the second imaging signal (2)? No is determined by the information determination unit 137 (S5).
Here, when the reliability of the first imaging signal (1) is higher than the reliability of the second imaging signal (2) (Yes in S5), the first contrast information of the first imaging signal (1) is used for AF control. The contrast information is set (S6). On the other hand, when the reliability of the first imaging signal (1) is equal to or lower than the reliability of the second imaging signal (2) (No in S5), the second contrast information of the second imaging signal (2) is AF controlled. It is set as contrast information for use.

このように、初動時には、第1撮像信号(1)の第1コントラスト情報、又は第2撮像信号(2)の第2コントラスト情報が、AF制御用のコントラスト情報として、設定される。そして、このAF制御用のコントラスト情報を用いて、AF制御が開始される。すなわち、コントラストを検出する上で信頼性の高い撮像信号(AF制御用の撮像信号)を用いて、AF制御が実行される(S8)。
以下では、3フレーム目以下におけるAF処理について説明する。なお、以下で用いる「m」及び「n」は、フレーム数に対応している。「m」は3以上の奇数であり、「n」は4以上の偶数である。また、「m」及び「n」は、「|m−n|=1」の関係を、有している。
初動時のAF処理が終了した後において、mフレーム目の第1撮像信号(m)及びnフレーム目の第2撮像信号(n)が、周期的に生成される。
Thus, at the time of initial movement, the first contrast information of the first imaging signal (1) or the second contrast information of the second imaging signal (2) is set as contrast information for AF control. Then, AF control is started using the contrast information for AF control. That is, AF control is performed using an image signal (an image signal for AF control) that is highly reliable in detecting contrast (S8).
Hereinafter, AF processing in the third frame and below will be described. Note that “m” and “n” used in the following correspond to the number of frames. “M” is an odd number of 3 or more, and “n” is an even number of 4 or more. “M” and “n” have a relationship of “| m−n | = 1”.
After the AF process at the time of initial movement is completed, the first imaging signal (m) of the mth frame and the second imaging signal (n) of the nth frame are periodically generated.

ここで、最新の撮像信号が第1撮像信号(m)であるか否かが、判断される(S9)。そして、最新の撮像信号が第1撮像信号(m)である場合(S9でYes)、第1撮像信号(m)の第1トーン情報(m)に基づいて、第1信頼度データ(m)が算出される(S10)。続いて、AF制御において用いられているAF制御用の撮像信号が、第1撮像信号(m−2)であるか否かが、判断される(S11)。そして、AF制御用の撮像信号と最新の第1撮像信号(m)とが、同じ撮像信号である場合(S11でYes)、後述するステップ14(S14)の処理が実行される。
一方で、最新の撮像信号が第2撮像信号(n)である場合(S9でNo)、第2撮像信号(n)の第2トーン情報(n)に基づいて、第2信頼度データ(n)が算出される(S12)。続いて、AF制御において用いられているAF制御用の撮像信号が、第2撮像信号(n−2)であるか否かが、判断される(S13)。そして、AF制御用の撮像信号と最新の第2撮像信号(n)とが、同じ撮像信号である場合(S13でYes)、後述するステップ14(S14)の処理が実行される。
Here, it is determined whether or not the latest imaging signal is the first imaging signal (m) (S9). Then, when the latest imaging signal is the first imaging signal (m) (Yes in S9), the first reliability data (m) based on the first tone information (m) of the first imaging signal (m). Is calculated (S10). Subsequently, it is determined whether or not the AF control imaging signal used in the AF control is the first imaging signal (m-2) (S11). If the imaging signal for AF control and the latest first imaging signal (m) are the same imaging signal (Yes in S11), the process of step 14 (S14) described later is executed.
On the other hand, when the latest imaging signal is the second imaging signal (n) (No in S9), the second reliability data (n) is based on the second tone information (n) of the second imaging signal (n). ) Is calculated (S12). Subsequently, it is determined whether or not the AF control imaging signal used in the AF control is the second imaging signal (n−2) (S13). If the imaging signal for AF control and the latest second imaging signal (n) are the same imaging signal (Yes in S13), the process of step 14 (S14) described later is executed.

続いて、第1信頼度データ(m)(又は第2信頼度データ(n))が、データの信頼性を判断するための閾値以上であるか否かが、判断される(S14)。ここで、第1信頼度データ(m)(又は第2信頼度データ(n))が閾値以上である場合(S14でYes)、すなわち第1撮像信号(m)の信頼性(又は第2信頼度データ(n)の信頼性)が高い場合、第1撮像信号(m)の第1コントラスト情報(第2撮像信号(n)の第2コントラスト情報)が、AF制御用のコントラスト情報として、設定される(S15)。そして、このAF制御用のコントラスト情報を用いて、AF制御が実行される(S8)。
一方で、第1信頼度データ(m)(又は第2信頼度データ(n))が閾値未満である場合、すなわち第1撮像信号(m)の信頼度(又は第2撮像信号(n)の信頼度)が低い場合(S14でNo)、次に説明するステップ16(S16)の処理が、実行される。
Subsequently, it is determined whether or not the first reliability data (m) (or the second reliability data (n)) is equal to or higher than a threshold for determining the reliability of the data (S14). Here, when the first reliability data (m) (or the second reliability data (n)) is equal to or greater than the threshold (Yes in S14), that is, the reliability (or the second reliability) of the first imaging signal (m). If the degree data (n) is high in reliability, the first contrast information of the first imaging signal (m) (second contrast information of the second imaging signal (n)) is set as contrast information for AF control. (S15). Then, AF control is executed using the contrast information for AF control (S8).
On the other hand, when the first reliability data (m) (or the second reliability data (n)) is less than the threshold value, that is, the reliability of the first imaging signal (m) (or the second imaging signal (n)). If the reliability is low (No in S14), the process of step 16 (S16) described below is executed.

また、ステップ11(S11)及びステップ13(S13)の判断において、最新の撮像信号(最新の第1撮像信号(m)又は最新の第2撮像信号(n))が、AF制御用の撮像信号と異なる場合(S11でNo、又はS13でNo)、次に説明するステップ16(S16)の処理が、実行される。
続いて、第1撮像信号(m)の信頼度データが、第2撮像信号(m−1)の信頼度データと比較される。例えば、第1撮像信号(m)の信頼度データが、第2撮像信号(m−1)の信頼度データより大きいか否かが、判断される(S16)。
ここで、第1撮像信号(m)の信頼度データが、第2撮像信号(m−1)の信頼度データより大きい場合(S16でYes)、この関係が所定の期間連続しているか否かが判断される(S17)。そして、この関係が所定の期間連続している場合(S17でYes)、第1撮像信号(m)の第1コントラスト情報が、AF制御用のコントラスト情報として、設定される(S18)。すると、このAF制御用のコントラスト情報を用いて、AF制御が実行される(S8)。
Further, in the determination of step 11 (S11) and step 13 (S13), the latest imaging signal (the latest first imaging signal (m) or the latest second imaging signal (n)) is the imaging signal for AF control. (No in S11 or No in S13), the process of step 16 (S16) described next is executed.
Subsequently, the reliability data of the first imaging signal (m) is compared with the reliability data of the second imaging signal (m−1). For example, it is determined whether or not the reliability data of the first imaging signal (m) is larger than the reliability data of the second imaging signal (m−1) (S16).
Here, if the reliability data of the first imaging signal (m) is larger than the reliability data of the second imaging signal (m−1) (Yes in S16), whether or not this relationship continues for a predetermined period. Is determined (S17). If this relationship continues for a predetermined period (Yes in S17), the first contrast information of the first imaging signal (m) is set as contrast information for AF control (S18). Then, AF control is executed using the contrast information for AF control (S8).

一方で、第1撮像信号(m)の信頼度データが、第2撮像信号(m−1)の信頼度データ以下である場合(S16でNo)、この関係が所定の期間連続しているか否かが判断される(S19)。そして、この関係が所定の期間連続している場合(S19でYes)、第2撮像信号(m−1)の第2コントラスト情報が、AF制御用のコントラスト情報として、設定される(S20)。すると、このAF制御用のコントラスト情報を用いて、AF制御が実行される。
なお、ステップ17(S17)及びステップ19(S19)の判断において、所定の関係が所定の期間連続していない場合は、ステップ15(S15)の処理が実行される。
上記のAF処理は、図2に示すように、露光部170を制御することによって1フレームごとに生成された撮像信号(第1撮像信号又は第2撮像信号)に対して、実行される。一方で、複数フレームから合成される合成信号を用いてAF処理を行う場合は、合成信号を生成する必要があるので複数フレーム分の遅延が発生する。このため、上述した1フレームごとのAF処理は、合成信号を用いたAF処理より、高速に合焦することができる。
On the other hand, if the reliability data of the first imaging signal (m) is equal to or less than the reliability data of the second imaging signal (m−1) (No in S16), whether or not this relationship continues for a predetermined period. Is determined (S19). If this relationship continues for a predetermined period (Yes in S19), the second contrast information of the second imaging signal (m-1) is set as contrast information for AF control (S20). Then, AF control is executed using the contrast information for AF control.
If the predetermined relationship is not continuous for a predetermined period in the determinations at step 17 (S17) and step 19 (S19), the process at step 15 (S15) is executed.
As shown in FIG. 2, the AF process is performed on an imaging signal (first imaging signal or second imaging signal) generated for each frame by controlling the exposure unit 170. On the other hand, when AF processing is performed using a composite signal synthesized from a plurality of frames, it is necessary to generate a composite signal, which causes a delay for a plurality of frames. For this reason, the above-described AF processing for each frame can be focused at a higher speed than the AF processing using the composite signal.

また、上記のAF処理は、図3A〜図3Cに示すように、第1撮像信号及び第2撮像信号をリアルタイムで比較することによって、被写体状態が判断される。これにより、被写体状態を好適に合焦可能な撮像信号を判断した上で、AF制御を実行できる。すなわち、第1撮像信号及び第2撮像信号のいずれか一方だけを用いて被写体状態を判断し、合焦処理をする場合と比較して、より適切に合焦することができる。   In the AF process, as shown in FIGS. 3A to 3C, the subject state is determined by comparing the first imaging signal and the second imaging signal in real time. As a result, AF control can be executed after determining an imaging signal capable of suitably focusing the subject state. That is, it is possible to determine the subject state using only one of the first image pickup signal and the second image pickup signal and to focus more appropriately as compared with the case of performing the focusing process.

[他の実施形態]
本技術は以上のような実施形態に限定されるものではなく、本技術の範囲を逸脱することなく種々の変形又は修正が可能である。
(a)前記実施形態では、画像処理部133が制御部130に含まれる場合の例を指名したが、画像処理部133は、制御部130とは独立した構成としてもよい。
(b)前記実施形態では、本技術の特徴を説明するために必要な構成を説明した。しかし、ここに示されてはいないものの撮像装置100を動作させるために必要な他の構成については、従来技術と同様に構成されている。すなわち、ここで説明が省略された他の構成は、従来技術に準ずる。
[Other Embodiments]
The present technology is not limited to the above-described embodiments, and various changes or modifications can be made without departing from the scope of the present technology.
(A) In the above embodiment, an example in which the image processing unit 133 is included in the control unit 130 has been designated, but the image processing unit 133 may be configured independently of the control unit 130.
(B) In the above-described embodiment, the configuration necessary for describing the features of the present technology has been described. However, although not shown here, other configurations necessary for operating the imaging apparatus 100 are configured in the same manner as in the prior art. In other words, other configurations that are not described here conform to the prior art.

100 撮像装置
110 光学系
120 レンズ駆動部
130 制御部
135 撮像処理部
137 情報判断部
140 撮像部
DESCRIPTION OF SYMBOLS 100 Imaging device 110 Optical system 120 Lens drive part 130 Control part 135 Imaging process part 137 Information judgment part 140 Imaging part

Claims (5)

被写体からの光を周期的に蓄積することによって撮像信号を生成し出力する撮像部と、
前記撮像部の蓄積時間を第1蓄積時間及び第2蓄積時間で周期的に制御する撮像処理部と、前記第1蓄積時間で生成された第1撮像信号の第1情報、及び前記第2蓄積時間で生成された第2撮像信号の第2情報に基づいて、被写体状態を判断する判断部とを、有する制御部と、
前記被写体状態に対応する前記第1情報及び前記第2情報のいずれか一方を用いて、合焦用のレンズを駆動する駆動部と、
を備える撮像装置。
An imaging unit that generates and outputs an imaging signal by periodically accumulating light from a subject; and
An imaging processing unit that periodically controls an accumulation time of the imaging unit using a first accumulation time and a second accumulation time, first information of a first imaging signal generated at the first accumulation time, and the second accumulation A control unit having a determination unit for determining the subject state based on the second information of the second imaging signal generated in time;
A driving unit that drives a focusing lens by using one of the first information and the second information corresponding to the subject state;
An imaging apparatus comprising:
前記判断部は、前記被写体状態が実質的に同じである場合に、前記第1情報及び第2情報のいずれか一方から、前記第1情報及び第2情報のいずれか他方へと、選択中の情報を変更する、
請求項1に記載の撮像装置。
The determination unit is selecting from either the first information or the second information to the other of the first information or the second information when the subject state is substantially the same. Change information,
The imaging device according to claim 1.
前記判断部は、前記第1情報の信頼度を示す第1信頼度データを算出し、且つ前記第2情報の信頼度を示す第2信頼度データを算出することによって、前記第1信頼度データ及び前記第2信頼度データに基づいて、前記被写体状態を判断する、
請求項1又は2に記載の撮像装置。
The determination unit calculates first reliability data indicating the reliability of the first information, and calculates second reliability data indicating the reliability of the second information, thereby calculating the first reliability data. And determining the subject state based on the second reliability data.
The imaging device according to claim 1 or 2.
前記駆動部は、前記被写体状態に応じて、時間軸上において互いに隣接する前記いずれか一方の情報を用いて、前記合焦用のレンズを駆動する、
請求項1から3のいずれか1項に記載の撮像装置。
The driving unit drives the focusing lens by using any one of the information adjacent to each other on the time axis according to the subject state.
The imaging device according to any one of claims 1 to 3.
前記第1情報及び前記第2情報は、コントラスト情報及び輝度情報を、含み、
前記駆動部は、前記被写体状態とは異なる前記第1情報及び前記第2情報のいずれか一方に含まれる前記コントラスト情報を用いて、前記合焦用のレンズを駆動する、
請求項1から4のいずれか1項に記載の撮像装置。
The first information and the second information include contrast information and luminance information,
The driving unit drives the focusing lens by using the contrast information included in one of the first information and the second information different from the subject state;
The imaging device according to any one of claims 1 to 4.
JP2015010569A 2015-01-22 2015-01-22 Imaging apparatus Pending JP2016133787A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015010569A JP2016133787A (en) 2015-01-22 2015-01-22 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015010569A JP2016133787A (en) 2015-01-22 2015-01-22 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2016133787A true JP2016133787A (en) 2016-07-25

Family

ID=56438155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015010569A Pending JP2016133787A (en) 2015-01-22 2015-01-22 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2016133787A (en)

Similar Documents

Publication Publication Date Title
KR20090071471A (en) Imaging device and its shutter drive mode selection method
JP2007225763A (en) Imaging apparatus, imaging method, and program
US9706131B2 (en) Image combining apparatus for generating a combined image from a plurality of images, image combining system, and image combining method
JP2010160311A (en) Imaging apparatus
US20130010182A1 (en) Imaging apparatus and imaging method
JP2010054730A (en) Focusing position detecting device, imaging apparatus, and focusing position detecting method
JP2005202064A (en) Image pickup unit, focusing method therefor, and recording medium
US10009547B2 (en) Image pickup apparatus that compensates for flash band, control method therefor, and storage medium
JP2009169282A (en) Imaging apparatus and its program
KR20090091597A (en) Apparatus and method for compensating backlight of camera
JP6261397B2 (en) Imaging apparatus and control method thereof
JP2013098792A (en) Imaging device and control method for imaging device
JP5106283B2 (en) Video camera
JP5618765B2 (en) Imaging apparatus and control method thereof
US11153516B2 (en) Image capture apparatus and control method therefor
JP2004187087A (en) Imaging device
US10735661B2 (en) Image pickup apparatus that compensates for flash band, control method therefor, storage medium, and video processing apparatus
JP4379494B2 (en) Electronic camera
US10187559B2 (en) Flash band determination device for detecting flash band, method of controlling the same, storage medium, and image pickup apparatus
JP2016133787A (en) Imaging apparatus
JP2016134899A (en) Imaging device
JP2016134900A (en) Imaging device
WO2015182021A1 (en) Image pickup control apparatus, image pickup apparatus, and image pickup control method
JP2009118247A (en) Photographic device
JP2018151415A (en) Imaging device, method of controlling imaging device, and program