JP7241511B2 - Imaging device and its control method - Google Patents

Imaging device and its control method Download PDF

Info

Publication number
JP7241511B2
JP7241511B2 JP2018215782A JP2018215782A JP7241511B2 JP 7241511 B2 JP7241511 B2 JP 7241511B2 JP 2018215782 A JP2018215782 A JP 2018215782A JP 2018215782 A JP2018215782 A JP 2018215782A JP 7241511 B2 JP7241511 B2 JP 7241511B2
Authority
JP
Japan
Prior art keywords
image data
imaging device
signal processing
image
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018215782A
Other languages
Japanese (ja)
Other versions
JP2020088447A (en
Inventor
和彦 杉江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018215782A priority Critical patent/JP7241511B2/en
Publication of JP2020088447A publication Critical patent/JP2020088447A/en
Application granted granted Critical
Publication of JP7241511B2 publication Critical patent/JP7241511B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は撮像装置およびその制御方法に関する。 The present invention relates to an imaging device and its control method.

従来、デジタル(ビデオ)カメラにおいては、撮像素子から様々な用途の信号を取得することが知られている。特許文献1には、複数の画素を行単位で第1の画素群と第2の画素群とに分けて読み出し可能に構成した撮像素子が開示されている。そして、第1の画素群から得られる画像信号と第2の画素群から得られる画像信号とを同じ用途に用いる場合と、異なる用途に利用する場合とを切り換える技術が開示されている。 2. Description of the Related Art Conventionally, digital (video) cameras are known to acquire signals for various purposes from an imaging device. Japanese Unexamined Patent Application Publication No. 2002-200000 discloses an imaging device in which a plurality of pixels are divided into a first pixel group and a second pixel group on a row-by-row basis and configured to be readable. A technique for switching between using the image signal obtained from the first pixel group and the image signal obtained from the second pixel group for the same purpose and using them for different purposes is disclosed.

特開2014―143667号公報JP 2014-143667 A

特許文献1の技術では、第1の画素群と第2の画素群との読み出し方法(電荷蓄積時間およびフレームレート)を異ならせることで、2つの用途に適切な画像信号を得ることができる。しかしながら、さらに別の用途に適した画像信号が必要な場合には、いずれかの画素群の読み出し方法を変更する必要がある。読み出し方法の変更中は画像信号が得られないため、表示が停止したり、撮像装置の応答性低下(例えばシャッタータイムラグ)の原因となる。 In the technique disclosed in Japanese Patent Application Laid-Open No. 2002-200010, image signals suitable for two uses can be obtained by using different readout methods (charge accumulation time and frame rate) for the first pixel group and the second pixel group. However, if an image signal suitable for another application is required, it is necessary to change the readout method for one of the pixel groups. Since an image signal cannot be obtained while the reading method is being changed, the display may stop or the responsiveness of the imaging device may be lowered (for example, shutter time lag).

本発明はこのような従来技術の課題に鑑みてなされたものである。本発明の一目的は、撮像素子の読み出し方を変更する必要がある場合に、変更に要する時間が撮像装置の動作に与える影響を低減することが可能な、撮像装置およびその制御方法を提供することにある。 The present invention has been made in view of such problems of the prior art. An object of the present invention is to provide an imaging device and a control method thereof that can reduce the influence of the time required for changing the operation of the imaging device when it is necessary to change the readout method of the imaging device. That's what it is.

上述の目的は、撮像素子から第1の画像データおよび第2の画像データを取得する取得手段と、第2の画像データに基づいて撮影レンズの焦点検出用の情報を生成し、第1の画像データに基づいて表示用の画像データを生成する信号処理手段と、撮像素子の読み出し方法および信号処理手段の動作を制御する制御手段とを有し、制御手段は、静止画撮影の準備指示が検出されると、第1の画像データをフラッシュの発光量を決定するための画像データとして用いるために第1の画像データを取得するための読み出し方法を変更するとともに、第2の画像データに基づいて表示用の画像データを生成するように信号処理手段を制御する、ことを特徴とする撮像装置によって達成される。 The above-described object is to obtain means for obtaining the first image data and the second image data from the imaging element, and to generate information for focus detection of the photographing lens based on the second image data, and obtain the first image data. It has signal processing means for generating image data for display based on the data, and control means for controlling the readout method of the image sensor and the operation of the signal processing means, wherein the control means detects an instruction to prepare for still image shooting. Then, in order to use the first image data as image data for determining the amount of light emission of the flash, the reading method for acquiring the first image data is changed, and based on the second image data This is accomplished by an imaging device characterized by controlling signal processing means to generate image data for display.

本発明によれば、撮像素子の読み出し方を変更する必要がある場合に、変更に要する時間が撮像装置の動作に与える影響を低減することが可能な、撮像装置およびその制御方法を提供することができる。 According to the present invention, it is possible to provide an imaging apparatus and a control method thereof that can reduce the influence of the time required for the change on the operation of the imaging apparatus when it is necessary to change the readout method of the imaging device. can be done.

実施形態に係る撮像装置の一例としてのデジタルカメラの機能構成例を示すブロック図1 is a block diagram showing a functional configuration example of a digital camera as an example of an imaging device according to an embodiment; FIG. 図1の撮像素子の機能構成例を示すブロック図FIG. 2 is a block diagram showing an example of the functional configuration of the imaging element in FIG. 1; 実施形態に係る制御動作例のタイミングチャートTiming chart of control operation example according to the embodiment 実施形態に係る制御動作例のフローチャートFlowchart of an example of control operation according to the embodiment 実施形態の変形例に係るデジタルカメラの機能構成例を示すブロック図FIG. 4 is a block diagram showing an example of functional configuration of a digital camera according to a modified example of the embodiment;

以下、図面を参照して本発明の例示的な実施形態について詳細に説明する。なお、以下では、本発明の実施形態に係る、撮像装置の一例としてのデジタルカメラについて説明する。しかしながら、本発明は、撮像素子を利用可能な任意の電子機器や機械に適用可能である。このような電子機器や機械には、パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDA、ゲーム機、ロボット、家庭電化製品、自動車などが含まれるが、これらに限定されない。 Exemplary embodiments of the invention are described in detail below with reference to the drawings. A digital camera will be described below as an example of an imaging device according to an embodiment of the present invention. However, the present invention is applicable to any electronic device or machine that can use an imaging device. Such electronic devices and machines include, but are not limited to, personal computers, tablet computers, media players, PDAs, game consoles, robots, home appliances, automobiles, and the like.

図1は本実施形態に係るデジタルカメラ100(以下、単にカメラ100という)の機能構成例を示すブロック図である。本実施形態において、カメラ100はレンズマウント102を介して撮影レンズ120を着脱可能な構成であるものとするが、撮影レンズ120が着脱できない構成であってもよい。 FIG. 1 is a block diagram showing a functional configuration example of a digital camera 100 (hereinafter simply referred to as camera 100) according to this embodiment. In this embodiment, the camera 100 has a structure in which the photographing lens 120 can be attached and detached via the lens mount 102, but the photographing lens 120 may not be detachable.

撮影レンズ120は被写体の光学像を撮像素子110に形成する光学系である。レンズ101は、フォーカスレンズや変倍レンズなどの可動レンズを含む複数のレンズと、開口の大きさが可変の絞りと、可変レンズや絞りの駆動回路などを備える。レンズ制御部141は、プロセッサ(コンピュータ)、ROM、およびRAMを有する。レンズ制御部141は、ROMに記憶されたプログラムをRAMに読み込んでプロセッサで実行することにより、駆動回路の制御を始めとしたレンズ101の動作を制御する。撮影レンズ120の電源はレンズマウント102を通じてカメラ本体から供給される。また、レンズ制御部141と後述するカメラ制御部131とは、レンズマウント102を通じて双方向に通信可能である。 A photographing lens 120 is an optical system that forms an optical image of a subject on the image sensor 110 . The lens 101 includes a plurality of lenses including movable lenses such as a focus lens and a variable power lens, an aperture with a variable aperture size, a drive circuit for the variable lens and the aperture, and the like. The lens control unit 141 has a processor (computer), ROM, and RAM. The lens control unit 141 loads a program stored in the ROM into the RAM and executes the program in the processor, thereby controlling operations of the lens 101 including control of the drive circuit. Power for the taking lens 120 is supplied from the camera body through the lens mount 102 . Also, the lens control unit 141 and a camera control unit 131 (to be described later) can communicate bidirectionally through the lens mount 102 .

シャッタ103は、静止画撮影時に撮像素子110の露光時間を調節するフォーカルプレーンシャッタである。なお、撮像素子110の露光時間は電子シャッタ(撮像素子110の駆動制御)によって調節してもよい。 A shutter 103 is a focal plane shutter that adjusts the exposure time of the image sensor 110 when shooting a still image. Note that the exposure time of the imaging device 110 may be adjusted by an electronic shutter (driving control of the imaging device 110).

撮像素子110は、行列状に配置された複数の画素(画素群)を備える。各画素には例えばカラーフィルタ、マイクロレンズ、光電変換部などが設けられる。撮像素子110は、レンズ101が撮像面に形成する光学像を複数の画素によって電気信号(画素信号)に変換する。本実施形態において、撮像素子110はAD変換器を備え、画素信号をデジタルデータに変換する。また、撮像素子110は、画素群から読み出した画素信号を、2つに分けて出力することができる。 The imaging element 110 includes a plurality of pixels (pixel group) arranged in a matrix. Each pixel is provided with, for example, a color filter, a microlens, a photoelectric conversion unit, and the like. The imaging element 110 converts an optical image formed on an imaging surface by the lens 101 into an electric signal (pixel signal) using a plurality of pixels. In this embodiment, the imaging device 110 includes an AD converter to convert pixel signals into digital data. In addition, the image sensor 110 can divide the pixel signals read from the pixel group into two and output them.

ここで、図2を用いて撮像素子110の詳細について説明する。図2は、撮像素子110の回路構成例を機能ブロックを用いて示した図である。撮像素子110は、画素群201、行走査回路202、カラムADCブロック203、列走査回路204、セレクタ205、フレームメモリ206、画像変換部207、パラレル・シリアル変換部(P/S変換部)208を有する。 Here, details of the imaging device 110 will be described with reference to FIG. FIG. 2 is a diagram showing a circuit configuration example of the imaging device 110 using functional blocks. The image sensor 110 includes a pixel group 201 , a row scanning circuit 202 , a column ADC block 203 , a column scanning circuit 204 , a selector 205 , a frame memory 206 , an image conversion section 207 and a parallel/serial conversion section (P/S conversion section) 208 . have.

画素群201を構成する複数の画素のそれぞれは、露光期間に入射した光の強さに応じた電荷を蓄積する。行走査回路202によって画素群201の画素を行単位で選択し、選択した画素が蓄積した電荷を変換した電圧(画素信号)を、画素列ごとに設けられたAD変換器を有するカラムADCブロック203でAD変換する。そして、カラムADCブロック203内のAD変換器を列走査回路204で1つずつ選択して画素信号を読み出すことにより、1画素行分の、デジタル化された画素データ群(画像データ)を取得することができる。 Each of the plurality of pixels forming the pixel group 201 accumulates charges according to the intensity of incident light during the exposure period. A row scanning circuit 202 selects pixels of a pixel group 201 on a row-by-row basis, and converts a voltage (pixel signal) obtained by converting charges accumulated in the selected pixels into a column ADC block 203 having an AD converter provided for each pixel column. AD conversion with . Then, the column scanning circuit 204 selects the AD converters in the column ADC block 203 one by one and reads the pixel signals, thereby obtaining a group of digitized pixel data (image data) for one pixel row. be able to.

セレクタ205は、列走査回路204の動作と連動して、読み出された画素データがフレームメモリ206内で保存される領域を振り分けることができる。セレクタ205は例えば、4n(nは0以上の整数)および4n+1列目のデータと、4n+2および4n+3列目のデータとが、フレームメモリ206内の異なる先頭アドレスから保存されるように書き込みアドレスを切り換える。このようにして、撮像素子110は、並行して2種類の画像データを取得することができる。本実施形態では、この2種類の画像データをそれぞれ、メインデータ、サブデータと呼び、メインデータをフレームとする動画データをメインストリーム、サブデータをフレームとする動画データをサブストリームと呼ぶ。なお、画素データをどのようにメインデータとサブデータに割り振るかは上述の例に限定されない。 The selector 205 can allocate areas in the frame memory 206 in which the read pixel data are stored in conjunction with the operation of the column scanning circuit 204 . The selector 205 switches write addresses so that, for example, data in columns 4n (n is an integer equal to or greater than 0) and 4n+1 and data in columns 4n+2 and 4n+3 are stored from different start addresses in the frame memory 206. . In this way, the imaging device 110 can acquire two types of image data in parallel. In the present embodiment, these two types of image data are called main data and sub-data, respectively. Moving image data whose frames are main data is called a main stream, and moving image data whose frames are sub-data is called a sub-stream. It should be noted that how pixel data is allocated to main data and sub-data is not limited to the above example.

撮像素子110には、メインデータ用の画素行と、サブデータ用の画素行とで個別の読み出し方法(電荷蓄積時間、フレームレート、加算読出の有無など)を設定することができる。撮像素子110の読み出し方法は、タイミング発生部142が撮像素子110に与えるタイミング制御信号によって制御することができる。したがって、カメラ制御部131がタイミング発生部142を制御することによって、メインデータ用の画素行および/またはサブデータ用の画素行の読み出し方法を変更することができる。例えば撮像素子110の複数の読み出し方法に対応するタイミング制御パターンをタイミング発生部142に予め登録しておき、カメラ制御部131からタイミング制御パターンを指定することにより、撮像素子110の読み出し方法を変更してもよい。 In the image sensor 110, separate readout methods (charge accumulation time, frame rate, presence/absence of addition readout, etc.) can be set for main data pixel rows and sub-data pixel rows. The reading method of the image sensor 110 can be controlled by a timing control signal given to the image sensor 110 by the timing generator 142 . Therefore, by controlling the timing generating section 142 by the camera control section 131, it is possible to change the method of reading out the pixel rows for main data and/or the pixel rows for sub data. For example, timing control patterns corresponding to a plurality of readout methods of the image pickup device 110 are registered in advance in the timing generation unit 142, and the timing control pattern is specified from the camera control unit 131, thereby changing the readout method of the image pickup device 110. may

画像変換部207は、フレームメモリ206から読み出されるメインストリームおよびサブストリームのフレームに対し、例えばリサイズ処理といった変換処理を適用することができる。 The image conversion unit 207 can apply conversion processing such as resizing processing to frames of the main stream and sub-stream read from the frame memory 206 .

P/S変換部208は、パラレル・シリアル変換を行い、シリアルデータに変換した画像データを撮像素子110から出力する。なお、P/S変換部208は、メインストリームをメインレーン111に、サブストリームをサブレーン112に出力することができる。図1に示すように、メインレーン111およびサブレーン112は、撮像素子110と信号処理部121とを接続する信号経路である。P/S変換部208は、メインストリームおよびサブストリームを並列に出力することができる。 The P/S conversion unit 208 performs parallel/serial conversion and outputs the image data converted into serial data from the imaging element 110 . The P/S converter 208 can output the main stream to the main lane 111 and the sub-stream to the sub-lane 112 . As shown in FIG. 1, the main lane 111 and the sub-lane 112 are signal paths that connect the imaging element 110 and the signal processing section 121 . The P/S converter 208 can output the main stream and sub-stream in parallel.

信号処理部121は、メインレーン111およびサブレーン112を通じて入力される画像データ(メインストリームおよびサブストリームのフレーム)に対し、所定の画像処理を適用する。ここで、信号処理部121が適用する画像処理には、ホワイトバランス調整、色補間、色補正、γ変換、エッジ強調、解像度変換、ノイズ低減といった補正処理がある。信号処理部121は、画像処理後の画像データから表示用画像データを生成することができる。表示用画像データは、例えば、画像処理後の画像データの解像度を、表示部153の表示領域の解像度に合わせることによって生成することができる。読み出し解像度が表示解像度に等しい場合には、画像処理後の画像データをそのまま表示用画像データとして用いてもよい。なお、他の方法で表示用画像データを生成してもよい。 The signal processing unit 121 applies predetermined image processing to image data (main stream and sub-stream frames) input through the main lane 111 and sub-lane 112 . Image processing applied by the signal processing unit 121 includes correction processing such as white balance adjustment, color interpolation, color correction, γ conversion, edge enhancement, resolution conversion, and noise reduction. The signal processing unit 121 can generate display image data from image data after image processing. The image data for display can be generated by, for example, matching the resolution of image data after image processing with the resolution of the display area of the display unit 153 . If the reading resolution is equal to the display resolution, the image data after the image processing may be used as the display image data as it is. Note that display image data may be generated by other methods.

また、信号処理部121はまた、画像処理後の画像データに対して、画像の輝度やコントラスト情報の取得、被写体の検出および/または認識などの解析処理を適用することができる。なお、解析処理で得られた情報は、例えば自動露出制御(AE)や自動焦点検出(AF)に用いることができる。撮像素子110が焦点検出用画素を有する場合、信号処理部121は解析処理により、位相差検出方式のAFを実行するための1対の像信号を生成することができる。なお、ここに列挙した画像処理は解析処理は例示であって、全てが必須ではなく、また他の処理が適用されてもよい。 In addition, the signal processing unit 121 can also apply analysis processing such as acquisition of image luminance and contrast information, and subject detection and/or recognition to image data after image processing. Information obtained by analysis processing can be used for automatic exposure control (AE) and automatic focus detection (AF), for example. When the image sensor 110 has focus detection pixels, the signal processing unit 121 can generate a pair of image signals for performing phase difference detection AF by analysis processing. Note that the image processing listed here is an example of analysis processing, and not all of them are essential, and other processing may be applied.

信号処理部121は、メインストリームとサブストリームとに同様の処理を適用することができる。信号処理部121は、処理を適用したメインストリームおよびサブストリームを、バス150を通じてメモリ132に出力する。また、信号処理部121は、解析処理で得られた情報についてはバス150を通じてカメラ制御部131に出力する。 The signal processing unit 121 can apply similar processing to the main stream and the sub-stream. The signal processing unit 121 outputs the processed main stream and sub-stream to the memory 132 via the bus 150 . Also, the signal processing unit 121 outputs information obtained by the analysis processing to the camera control unit 131 through the bus 150 .

メモリ132は、画像データなどの一時的な格納や、カメラ制御部131が実行するプログラムや、プログラムを実行中の変数値などを格納するために用いられるシステムメモリである。また、メモリ132は表示用の画像データを格納するVRAMとしても用いられる。 The memory 132 is a system memory used for temporarily storing image data and the like, programs executed by the camera control unit 131, variable values during execution of the programs, and the like. The memory 132 is also used as a VRAM for storing image data for display.

不揮発性メモリ133は、カメラ制御部131が実行するプログラムや、GUIデータ、各種設定値などを記憶する。なお、不揮発性メモリ133は書き換え可能であってよい。
タイミング発生部142は、撮像素子110や信号処理部121などの動作を制御する信号を生成し、提供する。
バス150は接続されている構成要素間でデータや制御信号などを通信するための通信路を提供する。
The nonvolatile memory 133 stores programs executed by the camera control unit 131, GUI data, various setting values, and the like. Note that the nonvolatile memory 133 may be rewritable.
The timing generation unit 142 generates and provides signals for controlling operations of the imaging device 110, the signal processing unit 121, and the like.
Bus 150 provides a communication path for communicating data, control signals, etc. between connected components.

表示部153は例えばカラー液晶ディスプレイであり、撮影された画像、カメラ100の各種情報、GUI画面などの表示に用いられる。動画像を撮影しながら表示部153に継続的に表示することにより、表示部153を電子ビューファインダ(EVF)として機能させることができる。表示部153をEVFとして機能させるための表示用画像はライブビュー画像とも呼ばれる。表示部153にはタッチパネル156が設けられており、タッチディスプレイとして機能する。カメラ制御部131は、タッチパネル156に対する操作の位置や種類を検出することができる。 The display unit 153 is, for example, a color liquid crystal display, and is used to display captured images, various information of the camera 100, GUI screens, and the like. By continuously displaying moving images on the display unit 153 while shooting, the display unit 153 can function as an electronic viewfinder (EVF). A display image for causing the display unit 153 to function as an EVF is also called a live view image. The display unit 153 is provided with a touch panel 156 and functions as a touch display. The camera control unit 131 can detect the position and type of operation on the touch panel 156 .

表示制御部151は、バス150を介してタイミング発生部142から供給される信号に応じて、メモリ132のVRAM領域に保存された表示用画像データをD/A変換部152および/またはHDMI(登録商標)出力端子155に供給する。D/A変換部152は画像データを表示用のアナログ画像信号へと変換し、表示部153および/またはVIDEO出力端子154に出力する。 The display control unit 151 transfers the display image data stored in the VRAM area of the memory 132 to the D/A conversion unit 152 and/or HDMI (registered trademark) output terminal 155 . The D/A converter 152 converts the image data into an analog image signal for display, and outputs the analog image signal to the display 153 and/or the VIDEO output terminal 154 .

カード入出力部171は、カードスロット172に着脱可能に挿入された記録媒体173(例えばメモリカード)にデータを記録したり、記録媒体173に記録されているデータを読み出したりすることができる。 The card input/output unit 171 can record data on a recording medium 173 (for example, a memory card) detachably inserted into the card slot 172 and read data recorded on the recording medium 173 .

発光制御部181は、カメラ制御部131の指示に応じて、内蔵フラッシュ182および/または外部フラッシュ183の発光パターンや発光量を制御する。
操作部161は、カメラ100の筐体に設けられたスイッチ、ボタン、ダイヤルなどの総称である。操作部161には一般に、例えば電源スイッチ、レリーズボタン、レリーズスイッチ、方向キー、決定(SET)ボタン、メニューボタンなどが含まれるが、これらに限定されない。なお、レリーズスイッチはレリースボタンの半押し操作に応じてONする第1スイッチSW1と、全押し操作に応じてONする第2スイッチSW2とを有する。制御部131は、SW1のONを静止画撮影の準備指示、SW2のONを静止画撮影の開始指示と認識して、撮影準備処理(AE,AFなど)、撮影処理(露光、記録など)をそれぞれ実行する。
電源160は、カメラ100の各部に電源を供給する。
The light emission control section 181 controls the light emission pattern and light emission amount of the built-in flash 182 and/or the external flash 183 according to instructions from the camera control section 131 .
The operation unit 161 is a general term for switches, buttons, dials, and the like provided on the housing of the camera 100 . The operating unit 161 generally includes, but is not limited to, a power switch, a release button, a release switch, direction keys, a SET button, a menu button, and the like. The release switch has a first switch SW1 which is turned on when the release button is half-pressed, and a second switch SW2 which is turned on when the release button is fully pressed. The control unit 131 recognizes the ON of SW1 as an instruction to prepare for still image shooting, and the ON of SW2 as an instruction to start still image shooting. Execute each.
A power supply 160 supplies power to each unit of the camera 100 .

カメラ制御部131は、例えばCPUなどのプロセッサを有し、不揮発性メモリ133に記憶されたプログラムをメモリ132に読み込んで実行し、カメラ100の各部の動作をバス150を通じて制御することによりカメラ100の機能を実現する。本実施形態では、カメラ制御部131が、レンズ制御部141、タイミング発生部142、信号処理部121、表示制御部151、発光制御部181を通じてカメラ100の各部の制御を実現している。しかし、カメラ制御部131がカメラ100の各部を直接制御する構成であってもよい。また、カメラ制御部131を設けず、上述した制御部や処理部が連動して制御(処理)をおこなうことでカメラ100の各部を制御する構成であってもよい。 The camera control unit 131 has a processor such as a CPU, loads a program stored in the nonvolatile memory 133 into the memory 132 and executes it, and controls the operation of each unit of the camera 100 through the bus 150 to control the operation of the camera 100 . Realize the function. In this embodiment, the camera control section 131 realizes control of each section of the camera 100 through the lens control section 141 , the timing generation section 142 , the signal processing section 121 , the display control section 151 and the light emission control section 181 . However, the camera control section 131 may be configured to directly control each section of the camera 100 . Alternatively, the camera control unit 131 may not be provided, and each unit of the camera 100 may be controlled by performing control (processing) in conjunction with the above-described control unit and processing unit.

カメラ制御部131はまた、信号処理部121が解析処理によって取得した情報を用いて、AEやAFを実行することができる。例えばカメラ制御部131は、露出制御に関する設定と、画像の輝度情報とに基づいてシャッタースピード、絞り値、撮影感度、フラッシュ発光量といった露出条件を決定することができる。またカメラ制御部131は、コントラスト情報や像信号間の位相差に基づいてレンズ101が有するフォーカスレンズを駆動することにより、交換レンズ120の焦点を調節することができる。なお、解析処理において顔などの被写体検出を実行する場合、検出結果をAEやAFに用いることもできる。カメラ制御部131が行うAEやAFの動作は公知の技術を利用できるため、これ以上の詳細については説明を省略する。 The camera control unit 131 can also perform AE and AF using information acquired by the signal processing unit 121 through analysis processing. For example, the camera control unit 131 can determine exposure conditions such as shutter speed, aperture value, shooting sensitivity, and flash emission amount based on settings related to exposure control and luminance information of an image. Further, the camera control unit 131 can adjust the focus of the interchangeable lens 120 by driving the focus lens included in the lens 101 based on the contrast information and the phase difference between the image signals. Note that when detecting a subject such as a face in analysis processing, the detection result can also be used for AE or AF. Since known techniques can be used for the AE and AF operations performed by the camera control unit 131, further detailed description will be omitted.

次に、カメラ100における、静止画撮影のスタンバイ状態から撮影開始までのタイミング制御について、図3のタイミングチャートおよび図4のフローチャートを参照して説明する。静止画撮影のスタンバイ状態とは、カメラ100の電源スイッチがONであり、カメラ100の動作モードが撮影モードに設定され、かつ第1スイッチSW1および第2スイッチSW2がいずれもOFFの状態である。また、例えばフラッシュの強制発光モードが設定されているなど、記録時にフラッシュを点灯させる必要があるものとする。 Next, timing control from the standby state of still image shooting to the start of shooting in the camera 100 will be described with reference to the timing chart of FIG. 3 and the flowchart of FIG. A standby state for still image shooting is a state in which the power switch of the camera 100 is ON, the operation mode of the camera 100 is set to the shooting mode, and both the first switch SW1 and the second switch SW2 are OFF. It is also assumed that the flash needs to be turned on during recording, for example, the forced flash mode is set.

静止画撮影のスタンバイ状態において制御部131は、動画撮影を開始し(S101)、以下の処理を並列に実行する。
・サブストリームを用いた処理(S111~S115)
・表示用ストリーム選択処理(S121~S123)
・メインストリームを用いた処理(S131~S138)
なお、ここでは、動画の撮影フレームレートが60fpsであり、表示部153の表示フレームレートが30fpsであるものとする。
In a standby state for still image shooting, the control unit 131 starts moving image shooting (S101), and executes the following processes in parallel.
・Processing using substreams (S111 to S115)
・Display stream selection processing (S121 to S123)
・Processing using the main stream (S131 to S138)
Here, it is assumed that the shooting frame rate of moving images is 60 fps, and the display frame rate of the display unit 153 is 30 fps.

S111、S121、S131でカメラ制御部131は、撮影スタンバイ処理を終了するか否かを判定し、終了すると判定されればS140へ、判定されなければ処理をS112、S122、S132にそれぞれ進める。
本実施形態においてカメラ制御部131は、例えば再生モードへの変更指示、第2スイッチSW2のON、電源スイッチのOFF操作が検出された場合に、撮影スタンバイ処理を終了すると判断することができる。ただし、これらは例示であり、他の条件によって撮影スタンバイ処理を終了すると判定してもよい。
In S111, S121, and S131, the camera control unit 131 determines whether or not to end the shooting standby process, and if it is determined to end, the process proceeds to S140.
In this embodiment, the camera control unit 131 can determine to end the shooting standby process when, for example, an instruction to change to the playback mode, an ON operation of the second switch SW2, and an OFF operation of the power switch are detected. However, these are examples, and it may be determined to end the shooting standby process based on other conditions.

まず、第1スイッチSW1がONになるまでの状態における処理について説明する。
この状態では、表示用ストリーム選択処理(S121~S123)におけるS122の判定処理において、カメラ制御部131は処理をS123に進める。そして、S123でカメラ制御部131は、メインストリームから生成した表示用画像データを表示することを決定し、信号処理部121に通知する。
First, processing in a state until the first switch SW1 is turned on will be described.
In this state, the camera control unit 131 advances the process to S123 in the determination process of S122 in the display stream selection process (S121 to S123). Then, in S123, the camera control unit 131 determines to display the display image data generated from the main stream, and notifies the signal processing unit 121 of the decision.

信号処理部121は、撮像素子110から並列出力されるサブストリームおよびメインストリームを取得し(S112、S132)、画像処理を適用する。そして、信号処理部121は、カメラ制御部131の制御に従い、メインストリームの画像処理後の画像データから表示用画像データ(ライブビュー画像データ)を生成してメモリ132のVRAM領域に格納する。信号処理部121はさらに、サブストリームの画像処理後の画像データに対して解析処理を適用し、解析結果(例えば焦点検出用のコントラスト情報)をカメラ制御部131に供給する。 The signal processing unit 121 acquires the sub-stream and main stream output in parallel from the imaging device 110 (S112, S132), and applies image processing. Then, under the control of the camera control unit 131 , the signal processing unit 121 generates image data for display (live view image data) from the image data after image processing of the main stream and stores it in the VRAM area of the memory 132 . The signal processing unit 121 further applies analysis processing to the image data after the image processing of the substream, and supplies analysis results (for example, contrast information for focus detection) to the camera control unit 131 .

ここでは、静止画撮影スタンバイ状態における撮像素子110の読み出し方法として、メインデータ用の画素行を30fps、サブデータ用の画素行を60fpsで読み出す設定がなされているものとする。 Here, as a reading method of the image sensor 110 in the still image shooting standby state, it is assumed that the pixel rows for main data are read at 30 fps and the pixel rows for sub data are read at 60 fps.

信号処理部121は、メインストリームから30fpsの表示用画像データを生成し、メモリ132のVRAM領域に順次格納する。表示制御部151は、メモリ132のVRAM領域から表示用画像データを読み出し、D/A変換部152を通じて表示部153に表示させる。これにより、静止画撮影スタンバイ状態において、表示部153はEVFとして機能する。 The signal processing unit 121 generates display image data of 30 fps from the main stream, and sequentially stores it in the VRAM area of the memory 132 . The display control unit 151 reads display image data from the VRAM area of the memory 132 and causes the display unit 153 to display the data through the D/A conversion unit 152 . Accordingly, the display unit 153 functions as an EVF in the still image shooting standby state.

一方、信号処理部121はサブストリームについては各フレームについて解析処理を実行し、解析結果を60回/秒でカメラ制御部131に出力する。カメラ制御部131は、例えばレンズ101のフォーカスレンズを微小範囲で往復駆動(ウォブリング)させながら、解析結果(例えばコントラスト情報)の変化を監視し、レンズ101の合焦状態を把握することができる。そして、必要に応じてフォーカスレンズの往復駆動の中心位置を移動させることにより、レンズ101の合焦状態を被写体の動きに追従させることができる。また、カメラ制御部131は、ウォブリング中に得られるコントラスト情報から、コントラストが最大になるフォーカスレンズ位置を合焦位置として検出する(S113)。 On the other hand, the signal processing unit 121 executes analysis processing for each frame of the substream, and outputs the analysis result to the camera control unit 131 at 60 times/second. The camera control unit 131 can, for example, monitor changes in analysis results (for example, contrast information) while reciprocally driving (wobbling) the focus lens of the lens 101 in a minute range, and grasp the in-focus state of the lens 101 . By moving the center position of the reciprocating drive of the focus lens as necessary, the in-focus state of the lens 101 can follow the movement of the subject. Also, the camera control unit 131 detects the focus lens position where the contrast is maximized as the in-focus position from the contrast information obtained during wobbling (S113).

なお、解析処理において位相差検出方式のAF処理に用いる像信号対が得られている場合、カメラ制御部131は像信号間の位相差を検出し、位相差をデフォーカス量に換算する。デフォーカス量は合焦位置までのフォーカスレンズの移動方向と移動量を表すため、カメラ制御部131はデフォーカス量に基づいてレンズ101のフォーカスレンズを合焦位置に駆動する。なお、レンズ101に含まれるフォーカスレンズや絞りの駆動は、カメラ制御部131からレンズ制御部141に命令を与えることによって実現される。 Note that when an image signal pair used for phase difference detection AF processing is obtained in the analysis processing, the camera control unit 131 detects the phase difference between the image signals and converts the phase difference into a defocus amount. Since the defocus amount represents the direction and amount of movement of the focus lens to the in-focus position, the camera control unit 131 drives the focus lens of the lens 101 to the in-focus position based on the defocus amount. Driving the focus lens and diaphragm included in the lens 101 is realized by giving commands from the camera control unit 131 to the lens control unit 141 .

図3は、第1スイッチSW1のON前後の期間における、メインストリームおよびサブストリームの用途と、関連する処理について経時的に示した図である。なお、図3において「AF用」と記載しているのは便宜上であって、実際にはAEやAFに用いるための解析結果を取得する目的であることを示している。図3に示すように、SW1がONになるまでの期間は、メインストリームが表示用、サブストリームがAF(解析)用である。 FIG. 3 is a diagram chronologically showing the usage of the main stream and the sub-stream and the related processing in the period before and after the first switch SW1 is turned ON. Note that the description “for AF” in FIG. 3 is for the sake of convenience, and actually indicates that the purpose is to acquire analysis results for use in AE and AF. As shown in FIG. 3, during the period until SW1 is turned ON, the main stream is for display and the sub stream is for AF (analysis).

次に、レリーズボタンが半押しされ、第1スイッチSW1がON、第2スイッチSW2がOFFの状態になったときの動作について説明する。
操作部161のレリーズボタンが半押し操作され、第1スイッチSW1がONになると、表示用ストリーム選択処理(S121~S123)におけるS122の判定処理において、カメラ制御部131は処理をS124に進める。そして、S124でカメラ制御部131は、サブストリームから生成した表示用画像データを表示することを決定し、信号処理部121に通知する。
Next, the operation when the release button is half-pressed, the first switch SW1 is turned on, and the second switch SW2 is turned off will be described.
When the release button of the operation unit 161 is half-pressed and the first switch SW1 is turned ON, the camera control unit 131 advances the process to S124 in the determination process of S122 in the display stream selection process (S121 to S123). Then, in S<b>124 , the camera control unit 131 determines to display the display image data generated from the substream, and notifies the signal processing unit 121 of the decision.

これにより、信号処理部121は、60fpsで読み出されているサブストリームから、表示部153の表示フレームレートに合わせた30fpsの表示用画像データを生成して、VRAM132に格納するように動作を変更する。フレームレートを低下させる方法に特に制限は無く、2フレーム分のデータを加算してもよいし、フレームを間引いてもよい。 As a result, the signal processing unit 121 changes the operation so as to generate display image data of 30 fps matching the display frame rate of the display unit 153 from the substream read out at 60 fps, and store the data in the VRAM 132 . do. There is no particular limitation on the method for lowering the frame rate, and two frames of data may be added, or frames may be thinned.

また、カメラ制御部131は、メインストリームを用いる処理において、S133の判定処理からS134に処理を進め、撮像素子110からのメインストリームの読み出し方法を変更する。具体的には、フラッシュの発光量を決定するための画像データを取得するための読み出し方法に変更する。これは、メインストリームの用途を発光量制御用に変更することに相当する。 In addition, in the process using the main stream, the camera control unit 131 advances the process from the determination process of S133 to S134 to change the method of reading the main stream from the image sensor 110 . Specifically, the reading method is changed to acquire image data for determining the amount of light emitted by the flash. This corresponds to changing the usage of the main stream to control the amount of light emission.

ここで、サブストリームではなくメインストリームの読み出し方法を変更するのは、解析結果に基づくフォーカスレンズの駆動動作と、プリ発光を用いたフラッシュの発光量決定とを並行して実行できないためである。メインストリームを表示に用い続け、サブストリームの用途をフラッシュの発光量制御用に変更する場合、フォーカスレンズを合焦位置に移動し終えてからサブデータ用の画素行の読み出し方法を変更する必要がある。読み出し方法が変更可能になるまでの待機時間は、レリーズタイムラグの増加要因となる。 Here, the reason why the method of reading the main stream instead of the sub-stream is changed is that the driving operation of the focus lens based on the analysis result and the determination of the amount of flash light emission using the pre-flash cannot be executed in parallel. If you continue to use the main stream for display and change the purpose of the sub stream to control the amount of light emitted by the flash, you will need to change the method of reading out the pixel rows for sub data after the focus lens has been moved to the in-focus position. be. The waiting time until the reading method can be changed becomes a factor that increases the release time lag.

メインストリームの読み出し方法を変更することで、読み出しの変更とフォーカスレンズの駆動とを並行して実行できるため、フォーカスレンズの駆動終了後直ちにプリ発光を行うことができ、レリーズタイムラグの短縮が実現できる。 By changing the readout method of the main stream, it is possible to change the readout and drive the focus lens in parallel, so pre-flash can be performed immediately after the focus lens is driven, shortening the release time lag. .

なお、記録用の撮影時の発光量を精度よく行うためには、全体がプリ発光によって露光された画像のデータを取得する必要がある。撮像素子110のように、行ごとに蓄積(露光)と読み出しのタイミングが異なる場合、読み出す全ての行が露光期間になるまでプリ発光を待機する必要がある。この待機時間を短縮するため、カメラ制御部131は、例えば、メインデータ用の画素行を削減したり、画素加算を行ったり、蓄積時間を減少させたりして、読み出しフレームレートを高めるように読み出し方法を変更することができる。 It should be noted that in order to accurately determine the amount of light emission when photographing for recording, it is necessary to acquire data of an image that has been entirely exposed by pre-light emission. When the timings of accumulation (exposure) and readout are different for each row, as in the image sensor 110, it is necessary to wait for pre-light emission until the exposure period for all rows to be read out. In order to shorten this standby time, the camera control unit 131 reduces the number of pixel rows for main data, performs pixel addition, or reduces the accumulation time, thereby increasing the readout frame rate. You can change the method.

そして、S135でカメラ制御部131は、プリ発光前の画像データを取得したか否かを判定し、取得したと判定されればS137へ、判定されなければS136へ処理を進める。
S136でカメラ制御部131は、信号処理部121に対し、読み出し方法の変更後にメインストリームから得られた画像処理後の画像データ(非発光時の画像データ)をRAM132のVRAM領域以外に記憶させ、処理をS131に戻す。なお、S134における読み出し方法の変更処理は、2度目以降は実行しなくてよい。
Then, in S135, the camera control unit 131 determines whether or not the image data before pre-light emission has been acquired.
In S136, the camera control unit 131 causes the signal processing unit 121 to store image data after image processing (image data during non-emission) obtained from the main stream after changing the reading method in a region other than the VRAM area of the RAM 132, The process returns to S131. It should be noted that the process of changing the reading method in S134 does not have to be executed for the second and subsequent times.

S137でカメラ制御部131は、発光制御部181を通じて内蔵フラッシュ182もしくは外部フラッシュ183をプリ発光させる。そして、信号処理部121に対し、メインストリームから得られた画像処理後の画像データ(プリ発光時の画像データ)をRAM132のVRAM領域以外に記憶させ、処理をS138に進める。 In S<b>137 , the camera control unit 131 causes the built-in flash 182 or the external flash 183 to emit pre-light through the light emission control unit 181 . Then, the signal processing unit 121 is caused to store image data after image processing obtained from the main stream (image data at the time of pre-emission) outside the VRAM area of the RAM 132, and the process proceeds to S138.

S138でカメラ制御部131は、信号処理部121に、非発光時の画像データとプリ発光時の画像データとの差分を算出させる。そして、カメラ制御部131は、差分に基づいて記録用の撮影時のフラッシュ発光量を決定する。また、カメラ制御部131は、プリ発光時の画像データと、決定した発光量とに基づいて、記録用の撮影時の露出条件(シャッタースピード、絞り、撮影感度)を決定する。その後、カメラ制御部131はS131とS132とを繰り返し実行する。 In S138, the camera control unit 131 causes the signal processing unit 121 to calculate the difference between the image data during non-light emission and the image data during pre-light emission. Then, the camera control unit 131 determines the amount of flash light emitted when shooting for recording based on the difference. In addition, the camera control unit 131 determines the exposure conditions (shutter speed, aperture, and photographic sensitivity) at the time of photographing for recording based on the image data at the time of pre-light emission and the determined amount of light emission. After that, the camera control unit 131 repeatedly executes S131 and S132.

一方、サブストリームに対する処理において、信号処理部121は、サブストリームの画像処理後の画像データから表示用画像データ(ライブビュー画像データ)を生成してメモリ132のVRAM領域に格納する。信号処理部121はさらに、サブストリームの画像処理後の画像データに対して解析処理を適用し、解析結果(例えばコントラスト情報)をカメラ制御部131に供給する。 On the other hand, in processing the substream, the signal processing unit 121 generates image data for display (live view image data) from the image data after the image processing of the substream, and stores it in the VRAM area of the memory 132 . The signal processing unit 121 further applies analysis processing to the image data after the image processing of the substream, and supplies analysis results (for example, contrast information) to the camera control unit 131 .

また、カメラ制御部131は、S114の判定処理から処理をS115に進め、S113で求めた合焦位置へフォーカスレンズを駆動する。その後、カメラ制御部131は、処理をS111に戻す。 Further, the camera control unit 131 advances the process from the determination process of S114 to S115, and drives the focus lens to the in-focus position obtained in S113. After that, the camera control unit 131 returns the processing to S111.

図3に示すように、第1スイッチSW1のONにより、メインストリームの読み出し方法が変更され、さらに、ライブビュー画像がメインストリームからサブストリームに変更されることにより、ライブビュー表示が中断されずに維持されていることがわかる。さらに、サブストリームを用いたレンズ101の合焦制御と、メインストリームの読み出し方法の変更とを並列に実行することにより、フォーカスレンズの駆動完了後ただちにプリ発光を実施することができる。 As shown in FIG. 3, when the first switch SW1 is turned ON, the main stream readout method is changed, and furthermore, the live view image is changed from the main stream to the sub stream, so that the live view display is not interrupted. found to be maintained. Furthermore, by executing focusing control of the lens 101 using the sub-stream and changing the reading method of the main stream in parallel, pre-emission can be performed immediately after the completion of driving the focus lens.

その後、例えば第2スイッチSW2がONになると、カメラ制御部131は処理をS140へ、さらにS150に進め、記録用の静止画撮影を実行する。この際、カメラ制御部131は、発光制御部181を通じ、プリ発光によって決定した発光量でフラッシュを点灯させる。SW2のON以外の理由で静止画撮影スタンバイ処理が終了される場合には、S140からそのまま処理を終了する。 After that, for example, when the second switch SW2 is turned on, the camera control unit 131 advances the process to S140 and further to S150, and executes still image shooting for recording. At this time, the camera control unit 131 lights the flash with the light emission amount determined by the pre-light emission through the light emission control unit 181 . If the still image shooting standby process is terminated for a reason other than turning ON of SW2, the process ends directly from S140.

なお、ここではフラッシュの強制発光が設定されているものとしたが、例えばS113において解析結果に基づいてAE処理を実行した結果として、フラッシュの点灯要否が決定されてもよい。 It should be noted that here, the flash is forced to emit light, but for example, whether or not the flash needs to be turned on may be determined as a result of executing the AE process based on the analysis result in S113.

(変形例)
なお、ここでは2つの画像データを並列に出力可能な撮像素子110を用いた構成について説明した。しかし、別の方法で2つの画像データを並列に取得する構成であってもよい。例えば図5に示すように、ハーフミラー104を用い、反射した被写体光学像と透過した被写体光学像をそれぞれ第一撮像素子113と第二撮像素子114で撮影するように構成してもよい。
(Modification)
Note that the configuration using the imaging device 110 capable of outputting two pieces of image data in parallel has been described here. However, a configuration in which two image data are acquired in parallel by another method may be used. For example, as shown in FIG. 5, a half mirror 104 may be used, and the reflected and transmitted object optical images may be captured by a first imaging device 113 and a second imaging device 114, respectively.

また本実施形態では、画像データの用途を表示用からフラッシュの発光量制御用に変更するために読み出し方法を変更する場合について説明した。しかし、本発明は他の用途変更時においても適用可能である。例えば、サブストリームを用いて焦点検出を行いながら、メインストリームを通常測光用と高輝度測光用とで切り換えることにより、広いダイナミックレンジでの測光を実現してもよい。この場合、カメラ制御部131は、メインストリームから得られる画像処理後の画像データを用いて測光処理を実施する。 Further, in the present embodiment, a case has been described in which the reading method is changed in order to change the application of image data from display to flash light emission control. However, the present invention is also applicable when other uses are changed. For example, by switching the main stream between normal photometry and high-brightness photometry while performing focus detection using the sub-stream, photometry with a wide dynamic range may be realized. In this case, the camera control unit 131 performs photometric processing using image data after image processing obtained from the main stream.

そして、カメラ制御部131は、通常測光(例えば適正露出条件で撮影した画像に基づく測光)が終了したら、メインデータ用の画素行の読み出し方法を、高輝度測光用の画像データを取得するための読み出し方法に変更する。高輝度測光用の画像データは、通常測光用の画像データよりも電荷蓄積時間が短い読み出し方法とすればよい。カメラ制御部131は、通常測光処理には表示用画像データを用い、読み出し方法の切り換え処理中および高輝度測光の期間は、表示用画像データをサブストリームから生成するように信号処理部121を制御する。 Then, after normal photometry (for example, photometry based on an image captured under proper exposure conditions) is completed, the camera control unit 131 changes the method of reading out the pixel rows for main data to the method for acquiring image data for high-brightness photometry. Change the reading method. Image data for high-brightness photometry may be read out using a readout method that requires a shorter charge accumulation time than image data for normal photometry. The camera control unit 131 controls the signal processing unit 121 so that the display image data is used for normal photometry processing, and the display image data is generated from the substream during readout method switching processing and during high-brightness photometry. do.

本実施形態によれば、並列に取得した2つの画像データのうち、一方の画像データを焦点検出に用い、他方の画像を焦点検出以外に用いている状態で、撮像素子の読み出し方法を変更する場合、他方の画像データについての読み出し方法を変更するようにした。これにより、焦点検出動作と読み出し変更処理とを並列に実行できるため、例えばシャッタータイムラグを短縮することができる。さらに、他方の画像データの用途に一方の画像データを用いるように変更すれば、他方の画像データを用いていた処理を中断することなく継続できる。 According to this embodiment, of the two image data acquired in parallel, one image data is used for focus detection and the other image is used for purposes other than focus detection, and the reading method of the image sensor is changed. In this case, the reading method for the other image data is changed. As a result, the focus detection operation and the read change process can be executed in parallel, so that, for example, the shutter time lag can be shortened. Furthermore, if one image data is used for the purpose of the other image data, the processing using the other image data can be continued without interruption.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100…撮像装置、110…撮像素子、121…信号処理部、131…カメラ制御部、141…レンズ制御部、151…表示制御部、181…発光制御部 DESCRIPTION OF SYMBOLS 100... Imaging device, 110... Imaging element, 121... Signal processing part, 131... Camera control part, 141... Lens control part, 151... Display control part, 181... Light emission control part

Claims (10)

撮像素子から第1の画像データおよび第2の画像データを取得する取得手段と、
前記第2の画像データに基づいて撮影レンズの焦点検出用の情報を生成し、前記第1の画像データに基づいて表示用の画像データを生成する信号処理手段と、
前記撮像素子の読み出し方法および前記信号処理手段の動作を制御する制御手段とを有し、
前記制御手段は、静止画撮影の準備指示が検出されると、前記第1の画像データをフラッシュの発光量を決定するための画像データとして用いるために前記第1の画像データを取得するための読み出し方法を変更するとともに、前記第2の画像データに基づいて表示用の画像データを生成するように前記信号処理手段を制御する、
ことを特徴とする撮像装置。
Acquisition means for acquiring the first image data and the second image data from the imaging element;
signal processing means for generating information for focus detection of a photographing lens based on the second image data and generating image data for display based on the first image data;
a control means for controlling the readout method of the imaging element and the operation of the signal processing means;
When an instruction to prepare for photographing a still image is detected, the control means acquires the first image data to use the first image data as image data for determining the amount of flash light emission. changing the reading method and controlling the signal processing means to generate image data for display based on the second image data;
An imaging device characterized by:
前記制御手段はさらに、前記準備指示を検出すると、前記第2の画像データに基づいて生成された情報に基づいて前記撮影レンズのフォーカスレンズを駆動させることを特徴とする請求項に記載の撮像装置。 2. The imaging according to claim 1 , wherein said control means further drives a focus lens of said photographing lens based on information generated based on said second image data when said preparation instruction is detected. Device. 前記制御手段はさらに、前記フォーカスレンズの駆動が終了すると、フラッシュをプリ発光させることを特徴とする請求項に記載の撮像装置。 3. The image pickup apparatus according to claim 2 , wherein said control means further causes a flash to pre-emission when driving of said focus lens is completed. 撮像素子から第1の画像データおよび第2の画像データを取得する取得手段と、
前記第2の画像データに基づいて撮影レンズの焦点検出用の情報を生成し、前記第1の画像データに基づいて表示用の画像データを生成する信号処理手段と、
前記撮像素子の読み出し方法および前記信号処理手段の動作を制御する制御手段とを有し、
前記制御手段は、静止画撮影の準備指示が検出されると、前記第1の画像データを高輝度測光用の画像データとして用いるために、前記第1の画像データを取得するための読み出し方法を変更するとともに、前記第2の画像データに基づいて表示用の画像データを生成するように前記信号処理手段を制御する、ことを特徴とする撮像装置。
Acquisition means for acquiring the first image data and the second image data from the imaging element;
signal processing means for generating information for focus detection of a photographing lens based on the second image data and generating image data for display based on the first image data;
a control means for controlling the readout method of the imaging element and the operation of the signal processing means;
When an instruction to prepare for still image shooting is detected, the control means selects a reading method for acquiring the first image data in order to use the first image data as image data for high-brightness photometry. and controlling the signal processing means to generate display image data based on the second image data.
前記制御手段は、前記第1の画像データを取得するための読み出し方法を、前記準備指示を検出する前よりも電荷蓄積時間の短い読み出し方法に変更することを特徴とする請求項に記載の撮像装置。 5. The method according to claim 4 , wherein the control means changes the readout method for acquiring the first image data to a readout method with a shorter charge accumulation time than before detection of the preparation instruction. Imaging device. 前記第1の画像データと前記第2の画像データは、前記撮像素子の、異なる画素行から読み出された画像データであることを特徴とする請求項1からのいずれか1項に記載の撮像装置。 6. The method according to any one of claims 1 to 5 , wherein the first image data and the second image data are image data read from different pixel rows of the image sensor. Imaging device. 前記撮像素子が、前記第1の画像データを取得するための第1の撮像素子と、前記第2の画像データを取得する第2の撮像素子を含むことを特徴とする請求項1からのいずれか1項に記載の撮像装置。 6. The method according to any one of claims 1 to 5 , wherein said imaging device includes a first imaging device for acquiring said first image data and a second imaging device for acquiring said second image data. The imaging device according to any one of items 1 and 2. 撮像素子から第1の画像データおよび第2の画像データを取得する取得工程と、
前記第2の画像データに基づいて撮影レンズの焦点検出用の情報を生成し、前記第1の画像データに基づいて表示用の画像データを生成する信号処理工程と、
静止画撮影の準備指示が検出されると、前記第1の画像データをフラッシュの発光量を決定するための画像データとして用いるために前記第1の画像データを取得するための読み出し方法を変更するとともに、前記第2の画像データに基づいて表示用の画像データを生成するように前記信号処理工程を制御する制御工程と、
を有することを特徴とする撮像装置の制御方法。
an acquisition step of acquiring the first image data and the second image data from the imaging element;
a signal processing step of generating information for focus detection of a photographing lens based on the second image data and generating image data for display based on the first image data;
When a still image shooting preparation instruction is detected, the reading method for acquiring the first image data is changed so as to use the first image data as image data for determining the amount of light emitted by the flash. a control step of controlling the signal processing step to generate image data for display based on the second image data;
A control method for an imaging device, comprising :
撮像素子から第1の画像データおよび第2の画像データを取得する取得工程と、 an acquisition step of acquiring the first image data and the second image data from the imaging element;
前記第2の画像データに基づいて撮影レンズの焦点検出用の情報を生成し、前記第1の画像データに基づいて表示用の画像データを生成する信号処理工程と、 a signal processing step of generating information for focus detection of a photographing lens based on the second image data and generating image data for display based on the first image data;
静止画撮影の準備指示が検出されると、前記第1の画像データを高輝度測光用の画像データとして用いるために、前記第1の画像データを取得するための読み出し方法を変更するとともに、前記第2の画像データに基づいて表示用の画像データを生成するように前記信号処理工程を制御する制御工程と、 When a still image shooting preparation instruction is detected, the reading method for acquiring the first image data is changed in order to use the first image data as image data for high-brightness photometry, and a control step of controlling the signal processing step to generate image data for display based on the second image data;
を有することを特徴とする撮像装置の制御方法。A control method for an imaging device, comprising:
撮像装置が有するコンピュータを、請求項1からのいずれか1項に記載の撮像装置が有する制御手段として機能させるためのプログラム。 A program for causing a computer of an imaging device to function as control means of the imaging device according to any one of claims 1 to 7 .
JP2018215782A 2018-11-16 2018-11-16 Imaging device and its control method Active JP7241511B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018215782A JP7241511B2 (en) 2018-11-16 2018-11-16 Imaging device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018215782A JP7241511B2 (en) 2018-11-16 2018-11-16 Imaging device and its control method

Publications (2)

Publication Number Publication Date
JP2020088447A JP2020088447A (en) 2020-06-04
JP7241511B2 true JP7241511B2 (en) 2023-03-17

Family

ID=70908980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018215782A Active JP7241511B2 (en) 2018-11-16 2018-11-16 Imaging device and its control method

Country Status (1)

Country Link
JP (1) JP7241511B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006211640A (en) 2004-12-28 2006-08-10 Canon Inc Imaging apparatus, solid-state imaging apparatus control method, and computer program
JP2007097033A (en) 2005-09-30 2007-04-12 Casio Comput Co Ltd Imaging apparatus and program therefor
JP2012113248A (en) 2010-11-26 2012-06-14 Canon Inc Imaging apparatus
JP2015103944A (en) 2013-11-25 2015-06-04 キヤノン株式会社 Imaging apparatus and image signal processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006211640A (en) 2004-12-28 2006-08-10 Canon Inc Imaging apparatus, solid-state imaging apparatus control method, and computer program
JP2007097033A (en) 2005-09-30 2007-04-12 Casio Comput Co Ltd Imaging apparatus and program therefor
JP2012113248A (en) 2010-11-26 2012-06-14 Canon Inc Imaging apparatus
JP2015103944A (en) 2013-11-25 2015-06-04 キヤノン株式会社 Imaging apparatus and image signal processing method

Also Published As

Publication number Publication date
JP2020088447A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP5322783B2 (en) IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE
JP5623254B2 (en) Imaging apparatus and control method thereof
US9854178B2 (en) Image pickup apparatus with flicker detection and having plurality of unit pixel areas, control method therefor, and storage medium
JP4155280B2 (en) Imaging device
JP2015011320A (en) Imaging device and control method of the same
CN111133356B (en) Image pickup apparatus, image pickup apparatus main body, and focus control method for image pickup apparatus
CN111095066B (en) Image pickup apparatus and focus control method for image pickup apparatus
JP2016072695A (en) Imaging apparatus, control method thereof, program, and storage medium
JP5597243B2 (en) Imaging device
JP2009169282A (en) Imaging apparatus and its program
CN111095067B (en) Image pickup apparatus, image pickup apparatus main body, and focus control method for image pickup apparatus
JP5791765B2 (en) Imaging apparatus and control method thereof
JP6997295B2 (en) Imaging device, imaging method, and program
JP7241511B2 (en) Imaging device and its control method
JP2018081224A (en) Imaging device and control method thereof
JP6924089B2 (en) Imaging device and its control method
JP6997544B2 (en) Imaging device and its control method, program, storage medium
JP2015089012A (en) Imaging apparatus and imaging method
CN111601045B (en) Image pickup apparatus that controls flash shooting, control method thereof, and storage medium
JP5938268B2 (en) Imaging apparatus and control method thereof
JP7175704B2 (en) Imaging device and its control method
JP6501628B2 (en) Imaging device, control method therefor, and control program
JP6626332B2 (en) Imaging device and control method thereof
JP5879809B2 (en) Imaging device
JP2012247613A (en) Imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R151 Written notification of patent or utility model registration

Ref document number: 7241511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151