JP2014023114A - Imaging device and program - Google Patents

Imaging device and program Download PDF

Info

Publication number
JP2014023114A
JP2014023114A JP2012162860A JP2012162860A JP2014023114A JP 2014023114 A JP2014023114 A JP 2014023114A JP 2012162860 A JP2012162860 A JP 2012162860A JP 2012162860 A JP2012162860 A JP 2012162860A JP 2014023114 A JP2014023114 A JP 2014023114A
Authority
JP
Japan
Prior art keywords
photoelectric conversion
image data
conversion element
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012162860A
Other languages
Japanese (ja)
Inventor
Koichi Gohara
幸一 郷原
Akira Takami
亮 高見
Toru Miyakoshi
徹 宮越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012162860A priority Critical patent/JP2014023114A/en
Publication of JP2014023114A publication Critical patent/JP2014023114A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve a problem that an evaluation value cannot be calculated appropriately when dividing and reading output from an imaging element.SOLUTION: The imaging device includes: an imaging element having a plurality of first photoelectric conversion elements and a plurality of second photoelectric conversion elements; a first reading circuit for reading output of the plurality of first photoelectric conversion elements to output a first partial image data which is image data of the image corresponding to the portion to which the plurality of first photoelectric conversion elements are provided; a second reading circuit for reading output of the plurality of second photoelectric conversion elements to output a second partial image data which is image data of the image corresponding to the portion to which the plurality of second photoelectric conversion elements are provided; a first calculation section for calculating a first evaluation value from the first partial image data outputted from the first reading circuit; and a second calculation section for calculating a second evaluation value from a second partial image data output from the second reading circuit.

Description

本発明は、撮像装置およびプログラムに関する。   The present invention relates to an imaging apparatus and a program.

信号出力経路を複数有するCCDイメージセンサが知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2008−104017号公報
A CCD image sensor having a plurality of signal output paths is known (for example, see Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2008-104017

撮像素子に含まれる複数の光電変換素子の出力を分けて読み出した場合に、評価値を適切に算出することができないという課題があった。   When the outputs of a plurality of photoelectric conversion elements included in the imaging element are read out separately, there is a problem that the evaluation value cannot be calculated appropriately.

本発明の第1の態様においては、撮像装置は、複数の第1光電変換素子および複数の第2光電変換素子を有する撮像素子と、複数の第1光電変換素子の出力を読み出して、複数の第1光電変換素子が設けられた部分に対応する画像の画像データである第1部分画像データを出力する第1読み出し回路と、複数の第2光電変換素子の出力を読み出して、複数の第2光電変換素子に設けられた部分に対応する画像の画像データである第2部分画像データを出力する第2読み出し回路と、第1読み出し回路から出力された第1部分画像データから、第1評価値を算出する第1算出部と、第2読み出し回路から出力された第2部分画像データから、第2評価値を算出する第2算出部とを備える。   In the first aspect of the present invention, an imaging apparatus reads an output of a plurality of first photoelectric conversion elements and an imaging element having a plurality of first photoelectric conversion elements and a plurality of second photoelectric conversion elements. A first readout circuit that outputs first partial image data, which is image data of an image corresponding to a portion provided with the first photoelectric conversion element, and outputs of a plurality of second photoelectric conversion elements are read out, and a plurality of second photoelectric conversion elements are read out. From a second readout circuit that outputs second partial image data that is image data of an image corresponding to a portion provided in the photoelectric conversion element, and a first evaluation value based on the first partial image data output from the first readout circuit And a second calculation unit that calculates a second evaluation value from the second partial image data output from the second readout circuit.

本発明の第2の態様においては、撮像装置は、撮像部が有する複数の第1光電変換素子の出力を読み出して、複数の第1光電変換素子が設けられた部分に対応する画像の画像データである第1画像データを出力する第1読み出し回路と、撮像部が有する複数の第2光電変換素子の出力を読み出して、複数の第2光電変換素子に設けられた部分に対応する画像の画像データである第2画像データを出力する第2読み出し回路と、第1読み出し回路から出力された第1画像データから第1評価値を算出する第1算出部と、第2読み出し回路から出力された第2画像データから第2評価値を算出する第2算出部とを備え、第1算出部は、第1評価値を第2算出部へ出力し、第2算出部は、第2評価値を第1算出部へ出力する。   In the second aspect of the present invention, the imaging device reads the outputs of the plurality of first photoelectric conversion elements included in the imaging unit, and image data of an image corresponding to a portion provided with the plurality of first photoelectric conversion elements. The first readout circuit that outputs the first image data and the output of the plurality of second photoelectric conversion elements included in the imaging unit, and the image corresponding to the portion provided in the plurality of second photoelectric conversion elements A second readout circuit that outputs second image data that is data, a first calculator that calculates a first evaluation value from the first image data output from the first readout circuit, and an output from the second readout circuit A second calculation unit that calculates a second evaluation value from the second image data, the first calculation unit outputs the first evaluation value to the second calculation unit, and the second calculation unit outputs the second evaluation value. Output to the first calculator.

本発明の第3の態様においては、撮像装置は、第1の方向にそれぞれ連続して並ぶ複数の第1光電変換素子列および複数の第2光電変換素子列を有する撮像素子と、複数のタイミングのそれぞれから、複数の第1光電変換素列および複数の第2光電変換素列で、第1の方向に順次に露光させる露光制御部と、第1のタイミングから複数の第1光電変換素列で順次に露光することにより複数の第1光電変換素列から出力された第1部分画像データ、および、第1のタイミングに続く第2のタイミングから複数の第2光電変換素列で順次に露光することにより複数の第2光電変換素列から出力された第2部分画像データを、1つの第1画像の画像データとして出力する出力制御部とを備える。   In the third aspect of the present invention, an imaging device includes an imaging element having a plurality of first photoelectric conversion element arrays and a plurality of second photoelectric conversion element arrays that are successively arranged in the first direction, and a plurality of timings. An exposure controller that sequentially exposes the first photoelectric conversion element array and the plurality of second photoelectric conversion element arrays in the first direction, and the plurality of first photoelectric conversion element arrays from the first timing. The first partial image data output from the plurality of first photoelectric conversion element arrays and the second photoelectric conversion element arrays sequentially exposed from the second timing following the first timing are sequentially exposed at And an output control unit that outputs the second partial image data output from the plurality of second photoelectric conversion element arrays as image data of one first image.

本発明の第4の態様においては、複数の第1光電変換素子および複数の第2光電変換素子を有する撮像素子を有する撮像装置用のプログラムであって、第1読み出し回路に、複数の第1光電変換素子の出力を読み出して、複数の第1光電変換素子が設けられた部分に対応する画像の画像データである第1部分画像データを出力させるステップと、第2読み出し回路に、複数の第2光電変換素子の出力を読み出して、複数の第2光電変換素子に設けられた部分に対応する画像の画像データである第2部分画像データを出力させるステップと、第1算出部に、第1読み出し回路から出力された第1部分画像データから、第1評価値を算出させるステップと、第2算出部に、第2読み出し回路から出力された第2部分画像データから、第2評価値を算出させるステップとをコンピュータに実行させる。   According to a fourth aspect of the present invention, there is provided a program for an imaging apparatus having an imaging element having a plurality of first photoelectric conversion elements and a plurality of second photoelectric conversion elements, wherein the first readout circuit includes a plurality of first photoelectric conversion elements. A step of reading out the output of the photoelectric conversion element and outputting first partial image data which is image data of an image corresponding to a portion provided with the plurality of first photoelectric conversion elements; Reading out the outputs of the two photoelectric conversion elements and outputting second partial image data that is image data corresponding to the portions provided in the plurality of second photoelectric conversion elements; Calculating a first evaluation value from the first partial image data output from the readout circuit; and causing the second calculation unit to calculate a second evaluation value from the second partial image data output from the second readout circuit. And a step of causing issued computer.

本発明の第5の態様においては、第1読み出し回路に、撮像部が有する複数の第1光電変換素子の出力を読み出させて、複数の第1光電変換素子が設けられた部分に対応する画像の画像データである第1画像データを出力させるステップと、第2読み出し回路に、撮像部が有する複数の第2光電変換素子の出力を読み出させて、複数の第2光電変換素子に設けられた部分に対応する画像の画像データである第2画像データを出力させるステップと、第1算出部に、第1読み出し回路から出力された第1画像データから第1評価値を算出させるステップと、第2算出部に、第2読み出し回路から出力された第2画像データから第2評価値を算出させるステップと、第1評価値を第2算出部へ出力するステップと、第2評価値を第1算出部へ出力するステップとをコンピュータに実行させる。   In the fifth aspect of the present invention, the first readout circuit is caused to read out the outputs of the plurality of first photoelectric conversion elements included in the imaging unit, and corresponds to a portion provided with the plurality of first photoelectric conversion elements. A step of outputting first image data which is image data of an image; and a second readout circuit for reading out outputs of a plurality of second photoelectric conversion elements included in the imaging unit and providing the plurality of second photoelectric conversion elements. Outputting second image data that is image data of an image corresponding to the given portion; causing the first calculation unit to calculate a first evaluation value from the first image data output from the first readout circuit; A step of causing the second calculation unit to calculate a second evaluation value from the second image data output from the second readout circuit; a step of outputting the first evaluation value to the second calculation unit; and a second evaluation value Output to the first calculation unit To execute that the steps on a computer.

本発明の第6の態様においては、第1の方向にそれぞれ連続して並ぶ複数の第1光電変換素子列および複数の第2光電変換素子列を有する撮像素子を有する撮像装置用のプログラムであって、複数のタイミングのそれぞれから、複数の第1光電変換素列および複数の第2光電変換素列で、第1の方向に順次に露光させる露光制御ステップと、第1のタイミングから複数の第1光電変換素列で順次に露光することにより複数の第1光電変換素列から出力された第1部分画像データ、および、第1のタイミングに続く第2のタイミングから複数の第2光電変換素列で順次に露光することにより複数の第2光電変換素列から出力された第2部分画像データを、1つの第1画像の画像データとして出力する出力制御ステップとをコンピュータに実行させる。   According to a sixth aspect of the present invention, there is provided a program for an imaging apparatus having an imaging element having a plurality of first photoelectric conversion element arrays and a plurality of second photoelectric conversion element arrays that are successively arranged in the first direction. Then, from each of the plurality of timings, an exposure control step of sequentially exposing the plurality of first photoelectric conversion element arrays and the plurality of second photoelectric conversion element arrays in the first direction, and a plurality of first photoelectric conversion element arrays from the first timing. First partial image data output from a plurality of first photoelectric conversion elements by sequentially exposing with one photoelectric conversion element, and a plurality of second photoelectric conversion elements from a second timing following the first timing The computer executes an output control step of outputting the second partial image data output from the plurality of second photoelectric conversion element arrays as image data of one first image by sequentially exposing in rows. That.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

一実施形態に係るカメラ10のブロック構成の一例を示す。1 shows an example of a block configuration of a camera 10 according to an embodiment. 撮像素子132および画像処理エンジン部135のブロック構成の一例を、データ入出力関係とともに模式的に示す。An example of a block configuration of the image sensor 132 and the image processing engine unit 135 is schematically shown together with a data input / output relationship. 撮像が指示された場合の画像処理エンジン部135の動作フローの一例を示す。An example of an operation flow of the image processing engine unit 135 when imaging is instructed is shown. 画像の評価を行う場合の画像処理エンジン部135の係る動作フローの一例を示す。An example of the operation flow of the image processing engine unit 135 when an image is evaluated is shown. AF評価に係る処理情報の一例を模式的に示す。An example of processing information concerning AF evaluation is shown typically. 顔検出に係る処理情報の一例を示す。An example of processing information relating to face detection is shown. 画像処理を行う場合の画像処理エンジン部135における動作フローの一例を示す。An example of an operation flow in the image processing engine unit 135 when performing image processing is shown. 画像処理エンジン部135において各処理が行われるタイミングの一例を模式的に示す。An example of timing at which each process is performed in the image processing engine unit 135 is schematically shown. 画像処理エンジン部135に画像データを転送する転送部の変形例を示す。A modification of the transfer unit that transfers image data to the image processing engine unit 135 is shown. 出力制御部930が追加で出力する部分を模式的に示す。The part which the output control part 930 outputs additionally is shown typically. 出力制御部930が画像処理エンジン部135へ出力する列データの出力シーケンスを模式的に示す。An output sequence of column data output from the output control unit 930 to the image processing engine unit 135 is schematically shown. 画像処理を行う場合の画像処理エンジン部135における動作フローの変形例を示す。The modification of the operation | movement flow in the image processing engine part 135 in the case of performing image processing is shown. 撮像素子132から画像処理エンジン部135へ他の転送態様で転送する場合のブロック構成の一例を模式的に示す。An example of a block configuration when transferring from the image sensor 132 to the image processing engine unit 135 in another transfer mode is schematically shown. 撮像素子132の読み出しおよび出力先の切り替え制御の一例を模式的に示す。An example of readout control of the image sensor 132 and output destination switching control is schematically shown. 転送制御の変形例を示す。The modification of transfer control is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須で2あるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Moreover, not all the combinations of features described in the embodiments are essential to the solving means of the invention.

図1は、一実施形態に係るカメラ10のブロック構成の一例を示す。本図ではレンズユニット120が装着された状態のカメラ10のブロック構成を示す。カメラ10は、撮像装置の一例としての一眼レフレックスカメラである。   FIG. 1 shows an example of a block configuration of a camera 10 according to an embodiment. This figure shows a block configuration of the camera 10 with the lens unit 120 mounted. The camera 10 is a single-lens reflex camera as an example of an imaging device.

レンズユニット120は、レンズマウント接点121を有するレンズマウントを備える。カメラ本体130は、カメラマウント接点131を有するカメラマウントを備える。レンズマウントとカメラマウントとが係合してレンズユニット120とカメラ本体130とが一体化されると、レンズマウント接点121とカメラマウント接点131とが接続される。レンズMPU123は、レンズマウント接点121およびカメラマウント接点131を介してカメラMPU140と接続され、相互に通信しつつ協働してレンズユニット120を制御する。   The lens unit 120 includes a lens mount having a lens mount contact 121. The camera body 130 includes a camera mount having a camera mount contact 131. When the lens mount and the camera mount are engaged and the lens unit 120 and the camera body 130 are integrated, the lens mount contact 121 and the camera mount contact 131 are connected. The lens MPU 123 is connected to the camera MPU 140 via the lens mount contact 121 and the camera mount contact 131, and controls the lens unit 120 in cooperation with each other while communicating with each other.

レンズユニット120は、レンズ群122、レンズ駆動部124およびレンズMPU123を有する。被写体光は、レンズユニット120が有する光学系としてのレンズ群122を光軸に沿って透過して、カメラ本体130に入射する。メインミラー145は、レンズ群122の光軸を中心とする被写体光束中に斜設される斜設状態と、被写体光束から退避する退避状態を取り得る。   The lens unit 120 includes a lens group 122, a lens driving unit 124, and a lens MPU 123. The subject light passes through the lens group 122 as an optical system of the lens unit 120 along the optical axis and enters the camera body 130. The main mirror 145 can take an oblique state where the main mirror 145 is obliquely provided in the subject light flux centered on the optical axis of the lens group 122 and a retreat state where the main mirror 145 is retracted from the subject light flux.

メインミラー145が斜設状態にある場合、メインミラー145は、レンズ群122を通過した被写体光束の一部を反射する。具体的には、斜設状態におけるメインミラー145の光軸近傍領域は、ハーフミラーとして形成されている。光軸近傍領域に入射した被写体光束の一部は透過し、他の一部は反射する。メインミラー145により反射された被写体光束はファインダ部147に導かれて、ユーザに観察される。ユーザは、ファインダ部147を通じて構図等を確認することができる。ファインダ部147は、被写体光束に基づく被写体像とともに、撮像動作の設定状態を示す情報等を含む種々の情報をユーザに提示する表示デバイスを含んでよい。   When the main mirror 145 is in an oblique state, the main mirror 145 reflects a part of the subject light flux that has passed through the lens group 122. Specifically, the region near the optical axis of the main mirror 145 in the oblique state is formed as a half mirror. Part of the subject luminous flux incident on the region near the optical axis is transmitted and the other part is reflected. The subject luminous flux reflected by the main mirror 145 is guided to the finder unit 147 and observed by the user. The user can check the composition and the like through the finder unit 147. The finder unit 147 may include a display device that presents various types of information including information indicating the setting state of the imaging operation to the user, along with the subject image based on the subject luminous flux.

メインミラー145の光軸近傍領域を透過した被写体光束の一部は、サブミラー146で反射されて、AFユニット142へ導かれる。AFユニット142は、被写体光束を受光する複数の光電変換素子列を有する。光電変換素子列は、合焦状態にある場合には位相が一致した信号を出力し、前ピン状態または後ピン状態にある場合には、位相ずれした信号を出力する。位相のずれ量は、焦点状態からのずれ量に対応する。AFユニット142は、光電変換素子列の出力を相関演算することで位相差を検出して、位相差を示す位相差信号をカメラMPU140へ出力する。   Part of the subject luminous flux that has passed through the region near the optical axis of the main mirror 145 is reflected by the sub mirror 146 and guided to the AF unit 142. The AF unit 142 includes a plurality of photoelectric conversion element arrays that receive a subject light beam. The photoelectric conversion element array outputs a signal with a phase match when in a focused state, and outputs a signal with a phase shift when in a front pin state or a rear pin state. The amount of phase shift corresponds to the amount of shift from the focus state. The AF unit 142 detects a phase difference by performing a correlation operation on the output of the photoelectric conversion element array, and outputs a phase difference signal indicating the phase difference to the camera MPU 140.

レンズ群122の焦点状態は、カメラMPU140等の制御により、AFユニット142からの位相差信号を用いて調節される。例えば、位相差信号から検出された焦点状態に基づき、カメラMPU140によってレンズ群122が含むフォーカスレンズの目標位置が決定され、決定された目標位置に向けてレンズMPU123の制御によってフォーカスレンズの位置が制御される。具体的には、レンズMPU123は、一例としてフォーカスレンズモータを含むレンズ駆動部124を制御して、レンズ群122を構成するフォーカスレンズを移動させる。このように、メインミラー145がダウンして斜設状態にある場合に、位相差検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。AFユニット142は、被写体像における複数の領域のそれぞれにおいて焦点状態を調節すべく、複数の領域にそれぞれ対応する複数の位置にそれぞれ光電変換素子列が設けられる。   The focus state of the lens group 122 is adjusted using the phase difference signal from the AF unit 142 under the control of the camera MPU 140 and the like. For example, the target position of the focus lens included in the lens group 122 is determined by the camera MPU 140 based on the focus state detected from the phase difference signal, and the position of the focus lens is controlled by the control of the lens MPU 123 toward the determined target position. Is done. Specifically, the lens MPU 123 controls the lens driving unit 124 including a focus lens motor as an example, and moves the focus lens constituting the lens group 122. As described above, when the main mirror 145 is down and in the inclined state, the focus state of the lens group 122 is detected by the phase difference detection method, and the focus adjustment is performed. The AF unit 142 is provided with photoelectric conversion element arrays at a plurality of positions respectively corresponding to the plurality of regions in order to adjust the focus state in each of the plurality of regions in the subject image.

測光素子144は、光学ファインダ部に導かれた光束の一部の光束を受光する。測光素子144が有する光電変換素子で検出された被写体の輝度情報は、カメラMPU140に出力される。カメラMPU140は、測光素子144から取得した輝度情報に基づき、AE評価値を算出して露出制御に用いる。   The photometric element 144 receives a part of the light beam guided to the optical viewfinder. The luminance information of the subject detected by the photoelectric conversion element included in the photometric element 144 is output to the camera MPU 140. The camera MPU 140 calculates an AE evaluation value based on the luminance information acquired from the photometric element 144 and uses it for exposure control.

メインミラー145が被写体光束から退避すると、サブミラー146はメインミラー145に連動して被写体光束から退避する。撮像素子132のレンズ群122側には、メカニカルシャッタの一例としてのフォーカルプレーンシャッタ143が設けられる。メインミラー145が退避状態にあり、フォーカルプレーンシャッタ143が開状態にある場合、レンズ群122を透過した被写体光束は、撮像素子132の受光面に入射する。   When the main mirror 145 retracts from the subject light beam, the sub mirror 146 retracts from the subject light beam in conjunction with the main mirror 145. A focal plane shutter 143 as an example of a mechanical shutter is provided on the lens group 122 side of the image sensor 132. When the main mirror 145 is in the retracted state and the focal plane shutter 143 is in the open state, the subject light flux that has passed through the lens group 122 is incident on the light receiving surface of the image sensor 132.

撮像素子132は、撮像部の一例である。撮像素子132は、単一の撮像素子である。撮像素子132は、レンズ群122を通過した被写体光束により被写体を撮像する。撮像素子132としては、例えばCCDセンサ、CMOSセンサ等の固体撮像素子を含む。撮像素子132は、被写体光束を受光する複数の光電変換素子を有する。複数の光電変換素子は、それぞれで生じた蓄積電荷量に応じた信号を出力する。撮像素子132は、カメラMPU140からの指示を受けた駆動部148により駆動される。   The imaging element 132 is an example of an imaging unit. The image sensor 132 is a single image sensor. The image sensor 132 captures an image of the subject using the subject light flux that has passed through the lens group 122. Examples of the image sensor 132 include a solid-state image sensor such as a CCD sensor or a CMOS sensor. The image sensor 132 has a plurality of photoelectric conversion elements that receive the subject light flux. The plurality of photoelectric conversion elements output signals corresponding to the amount of accumulated charge generated in each of the photoelectric conversion elements. The image sensor 132 is driven by the drive unit 148 that has received an instruction from the camera MPU 140.

各光電変換素子で光電変換されて得られたアナログの画像信号は、撮像素子132に設けられたAD変換素子でAD変換されて、デジタルの画像信号として画像処理エンジン部135へ出力される。撮像素子132は、複数の第1光電変換素子および複数の第2光電変換素子を有する。撮像素子132が有する複数の第1光電変換素子は、複数の第2光電変換素子とは独立に読み出され、それぞれのデジタルの画像信号は、画像処理エンジン部135へ並列に出力される。画像処理エンジン部135は、複数の第1光電変換素子および複数の第2光電変換素子のそれぞれから出力された部分画像データを纏めて1つの画像として処理する。   An analog image signal obtained by photoelectric conversion by each photoelectric conversion element is AD-converted by an AD conversion element provided in the image sensor 132 and output to the image processing engine unit 135 as a digital image signal. The imaging element 132 has a plurality of first photoelectric conversion elements and a plurality of second photoelectric conversion elements. The plurality of first photoelectric conversion elements included in the imaging element 132 are read independently of the plurality of second photoelectric conversion elements, and the respective digital image signals are output to the image processing engine unit 135 in parallel. The image processing engine unit 135 collectively processes partial image data output from each of the plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements as one image.

画像処理エンジン部135は、主として画像処理機能を担う。画像処理エンジン部135は、揮発性メモリの一例としてのRAM136の少なくとも一部のメモリ領域を、画像データを一時的に記憶するバッファ領域として使用して、RAM136に記憶させた画像データに対して種々の画像処理を施す。画像処理エンジン部135による画像処理としては、ホワイトバランス補正、色補間処理、色補正、ガンマ補正、輪郭強調処理、画像データの圧縮処理等を例示することができる。撮像素子132が連続して撮像した場合、順次に出力される画像データはバッファ領域に順次に記憶される。撮像素子132が連続して撮像することにより得られた複数の画像データは、連続する静止画の画像データ、または、動画を構成する各画像の画像データとして、バッファ領域に順次に記憶される。RAM136は、画像処理エンジン部135において動画データを処理する場合にフレームを一時的に記憶するフレームメモリとしても機能する。   The image processing engine unit 135 mainly has an image processing function. The image processing engine unit 135 uses at least a part of the memory area of the RAM 136 as an example of the volatile memory as a buffer area for temporarily storing the image data, and performs various processing on the image data stored in the RAM 136. The image processing is performed. Examples of the image processing performed by the image processing engine unit 135 include white balance correction, color interpolation processing, color correction, gamma correction, contour enhancement processing, and image data compression processing. When the image sensor 132 continuously captures images, sequentially output image data is sequentially stored in the buffer area. A plurality of image data obtained by continuously capturing images by the image sensor 132 is sequentially stored in the buffer area as image data of continuous still images or image data of each image constituting the moving image. The RAM 136 also functions as a frame memory that temporarily stores frames when the image processing engine unit 135 processes moving image data.

画像処理エンジン部135は、記録用の画像データを生成する処理の他、表示用の画像データを生成する処理、自動焦点調節(AF)用の処理、自動露出調節(AE)用の処理、ホワイトバランス用の処理、顔検出処理を含む画像処理を担う。画像処理エンジン部135は、例えばAF処理用のコントラスト評価値、ホワイトバランス評価値、顔検出用の評価情報等、各種の評価値を算出して、算出した評価情報に基づいて各種の制御を行う。例えば、画像処理エンジン部135は、画像データからコントラスト量を検出してカメラMPU140に供給する。例えば、画像処理エンジン部135は、光軸方向の異なる位置にフォーカスレンズを位置させて撮像することにより得られた複数の画像データのそれぞれからコントラスト量を検出する。カメラMPU140は、検出されたコントラスト量とフォーカスレンズの位置とに基づいて、レンズ群122の焦点状態を調節する。例えば、カメラMPU140は、コントラスト量を増大させるようフォーカスレンズの目標位置を決定して、レンズMPU123に、決定された目標位置に向けてフォーカスレンズの位置を制御させる。このように、メインミラー145がアップして退避状態にある場合に、コントラスト検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。このように、カメラMPU140は、画像処理エンジン部135およびレンズMPU123と協働して、レンズ群122の焦点調節を行う。   The image processing engine unit 135 performs processing for generating image data for recording, processing for generating image data for display, processing for automatic focus adjustment (AF), processing for automatic exposure adjustment (AE), white, and the like. Responsible for image processing including balancing processing and face detection processing. The image processing engine unit 135 calculates various evaluation values such as a contrast evaluation value for AF processing, a white balance evaluation value, and evaluation information for face detection, and performs various controls based on the calculated evaluation information. . For example, the image processing engine unit 135 detects the contrast amount from the image data and supplies it to the camera MPU 140. For example, the image processing engine unit 135 detects the contrast amount from each of a plurality of image data obtained by imaging with the focus lens positioned at different positions in the optical axis direction. The camera MPU 140 adjusts the focus state of the lens group 122 based on the detected contrast amount and the position of the focus lens. For example, the camera MPU 140 determines the target position of the focus lens so as to increase the amount of contrast, and causes the lens MPU 123 to control the position of the focus lens toward the determined target position. As described above, when the main mirror 145 is up and in the retracted state, the focus state of the lens group 122 is detected by the contrast detection method, and the focus adjustment is performed. As described above, the camera MPU 140 performs the focus adjustment of the lens group 122 in cooperation with the image processing engine unit 135 and the lens MPU 123.

画像処理エンジン部135は、画像データを記録する場合、規格化された画像フォーマットの画像データに変換する。例えば、画像処理エンジン部135は、静止画の画像データを、JPEG等の規格に準拠した符号化形式で符号化された静止画データを生成するための圧縮処理を行う。また、画像処理エンジン部135は、複数のフレームを、QuickTime、H.264、MPEG2、Motion JPEG等の規格に準拠した符号化方式で符号化された動画データを生成するための圧縮処理を行う。   When recording image data, the image processing engine unit 135 converts the image data into image data in a standardized image format. For example, the image processing engine unit 135 performs compression processing for generating still image data obtained by encoding still image data in an encoding format compliant with a standard such as JPEG. In addition, the image processing engine unit 135 converts a plurality of frames into QuickTime, H.264, and the like. H.264, MPEG2, Motion JPEG, etc. A compression process for generating moving image data encoded by an encoding method compliant with a standard such as JPEG is performed.

画像処理エンジン部135は、生成した静止画データ、動画データ等の画像データを、不揮発性の記録媒体の一例としての外部メモリ180aおよび外部メモリ180bへ出力して記録させる。例えば、画像処理エンジン部135は、静止画ファイルを外部メモリ180aに記録させ、動画ファイルを外部メモリ180bに記録させる。外部メモリ180としては、フラッシュメモリ等の半導体メモリを例示することができる。具体的には、外部メモリ180としては、SDメモリカード、CFストレージカード、XQDメモリカード等の種々のメモリカードを例示することができる。RAM136に記憶されている画像データは、記録媒体IF150を通じて外部メモリ180へ転送される。また、外部メモリ180に記録されている画像データは、記録媒体IF150を通じてRAM136へ転送され、表示等の処理に供される。記録媒体IF150としては、上述したメモリカードに対するアクセスを制御するカードコントローラを例示することができる。   The image processing engine unit 135 outputs and records the generated image data such as still image data and moving image data to an external memory 180a and an external memory 180b as an example of a nonvolatile recording medium. For example, the image processing engine unit 135 records a still image file in the external memory 180a and records a moving image file in the external memory 180b. An example of the external memory 180 is a semiconductor memory such as a flash memory. Specifically, as the external memory 180, various memory cards such as an SD memory card, a CF storage card, and an XQD memory card can be exemplified. The image data stored in the RAM 136 is transferred to the external memory 180 through the recording medium IF 150. Further, the image data recorded in the external memory 180 is transferred to the RAM 136 through the recording medium IF 150 and used for processing such as display. Examples of the recording medium IF 150 include a card controller that controls access to the above-described memory card.

画像処理エンジン部135は、記録用の画像データの生成に並行して、表示用の画像データを生成する。例えば、画像処理エンジン部135は、いわゆるライブビュー動作時に、液晶表示デバイス等の表示部138に表示させる表示用の画像データを生成する。また、画像の再生時においては、画像処理エンジン部135は、外部メモリ180から読み出された画像データから表示用の画像データを生成する。生成された表示用の画像データは、表示制御部137の制御に従ってアナログの信号に変換され、表示部138に表示される。また、撮像により得られた画像データに基づく画像表示と共に、当該画像データに基づく画像表示をすることなく、カメラ10の各種設定に関する様々なメニュー項目やタッチパネル用のオブジェクトも、画像処理エンジン部135および表示制御部137の制御により重畳される等して表示部138に表示される。   The image processing engine unit 135 generates display image data in parallel with the generation of recording image data. For example, the image processing engine unit 135 generates image data for display to be displayed on the display unit 138 such as a liquid crystal display device during a so-called live view operation. Further, at the time of image reproduction, the image processing engine unit 135 generates image data for display from the image data read from the external memory 180. The generated display image data is converted into an analog signal under the control of the display control unit 137 and displayed on the display unit 138. In addition to image display based on image data obtained by imaging, various menu items and touch panel objects related to various settings of the camera 10 are also displayed without image display based on the image data. The image is displayed on the display unit 138 by being superposed under the control of the display control unit 137.

外部機器IF152は、カメラMPU140の制御に従って、外部機器との通信を担う。外部メモリ180に記録された画像データは、外部機器IF152を通じて外部機器へ転送される。また、外部機器IF152を通じて外部機器から通信により取得した画像データは、外部メモリ180に記録される。外部機器IF152は、USB通信により外部機器と通信してよい。   The external device IF 152 is responsible for communication with the external device according to the control of the camera MPU 140. The image data recorded in the external memory 180 is transferred to the external device through the external device IF 152. In addition, image data acquired by communication from an external device through the external device IF 152 is recorded in the external memory 180. The external device IF 152 may communicate with the external device by USB communication.

操作入力部141は、ユーザから操作を受け付ける。操作入力部141は、レリーズボタン、再生ボタン、ライブビュースイッチ、動画ボタン、電源スイッチ等の各種操作部材等を含む。カメラMPU140は、操作入力部141が操作されたことを検知して、操作に応じた動作を実行する。例えば、カメラMPU140は、レリーズボタンが押し込まれた場合に、撮像動作を実行するようにカメラ10の各部を制御する。   The operation input unit 141 receives an operation from the user. The operation input unit 141 includes various operation members such as a release button, a playback button, a live view switch, a moving image button, and a power switch. The camera MPU 140 detects that the operation input unit 141 has been operated, and executes an operation corresponding to the operation. For example, the camera MPU 140 controls each unit of the camera 10 so as to execute an imaging operation when a release button is pressed.

カメラ10は、上記に説明した制御を含めて、カメラMPU140および画像処理エンジン部135により直接的または間接的に制御される。カメラ10の動作に必要な定数、変数等のパラメータ、プログラム等は、システムメモリ139に格納される。システムメモリ139は、電気的に消去・記憶可能な不揮発性メモリであり、例えばフラッシュROM、EEPROM等により構成される。システムメモリ139は、パラメータ、プログラム等を、カメラ10の非動作時にも失われないように格納する。システムメモリ139に記憶されたパラメータ、プログラム等は、RAM136に展開され、カメラ10の制御に利用される。カメラ本体130内の、画像処理エンジン部135、RAM136、システムメモリ139、表示制御部137、および、カメラMPU140は、バス等の接続インタフェース149により相互に接続され、各種のデータをやりとりする。   The camera 10 is controlled directly or indirectly by the camera MPU 140 and the image processing engine unit 135, including the control described above. Constants, parameters such as variables, programs, and the like necessary for the operation of the camera 10 are stored in the system memory 139. The system memory 139 is an electrically erasable / storable nonvolatile memory, and is configured by, for example, a flash ROM, an EEPROM, or the like. The system memory 139 stores parameters, programs, and the like so that they are not lost even when the camera 10 is not operating. Parameters, programs, and the like stored in the system memory 139 are expanded in the RAM 136 and used for controlling the camera 10. The image processing engine unit 135, the RAM 136, the system memory 139, the display control unit 137, and the camera MPU 140 in the camera main body 130 are connected to each other via a connection interface 149 such as a bus and exchange various data.

カメラ本体130の各部、レンズユニット120の各部および外部メモリ180は、カメラMPU140の制御により、電源回路192を介して電源190から電力供給を受ける。電源190は、ニッケル水素電池、リチウムイオン電池等の二次電池、非充電式の電池等であってよい。電池としての電源190は、カメラ本体130に対して着脱可能に装着される。電源190は、商用電源であってもよい。   Each part of the camera main body 130, each part of the lens unit 120, and the external memory 180 are supplied with power from the power supply 190 through the power supply circuit 192 under the control of the camera MPU 140. The power source 190 may be a secondary battery such as a nickel metal hydride battery or a lithium ion battery, a non-rechargeable battery, or the like. A power source 190 as a battery is detachably attached to the camera body 130. The power source 190 may be a commercial power source.

図2は、撮像素子132および画像処理エンジン部135のブロック構成の一例を、データ入出力関係とともに模式的に示す。画像処理エンジン部135は、第1画像処理エンジン210および第2画像処理エンジン220を有する。撮像素子132は、第1光電変換素子201a、第1光電変換素子201b・・・、第2光電変換素子202a、第2光電変換素子202b・・・、第1駆動回路21および第2駆動回路22を有する。なお、複数の第1光電変換素子201a、第1光電変換素子201b・・・を、複数の第1光電変換素子201、または、単に第1光電変換素子201と総称する場合がある。また、複数の第2光電変換素子202a、第2光電変換素子202b・・・を、複数の第2光電変換素子202、または、単に第2光電変換素子202と総称する場合がある。第1光電変換素子および第2光電変換素子202は、撮像素子132の実質的に同一の面に配置される。一例として、第1光電変換素子および第2光電変換素子202は、マトリクス状に設けられる。   FIG. 2 schematically illustrates an example of a block configuration of the image sensor 132 and the image processing engine unit 135 together with a data input / output relationship. The image processing engine unit 135 includes a first image processing engine 210 and a second image processing engine 220. The imaging element 132 includes a first photoelectric conversion element 201a, a first photoelectric conversion element 201b,..., A second photoelectric conversion element 202a, a second photoelectric conversion element 202b, the first drive circuit 21, and a second drive circuit 22. Have Note that the plurality of first photoelectric conversion elements 201a, the first photoelectric conversion elements 201b,... May be collectively referred to as the plurality of first photoelectric conversion elements 201 or simply the first photoelectric conversion elements 201. In addition, the plurality of second photoelectric conversion elements 202a, the second photoelectric conversion elements 202b,... May be collectively referred to as the plurality of second photoelectric conversion elements 202 or simply the second photoelectric conversion elements 202. The first photoelectric conversion element and the second photoelectric conversion element 202 are disposed on substantially the same surface of the imaging element 132. As an example, the first photoelectric conversion element and the second photoelectric conversion element 202 are provided in a matrix.

第1光電変換素子201および複数の第2光電変換素子202は、それぞれ複数の光電変換素子列を形成する。第1光電変換素子201および第2光電変換素子202は、全体でnラインの光電変換素子列を形成する。具体的には、第1光電変換素子201は、連続するmラインの光電変換素子列L1〜Lmを形成する。また、第2光電変換素子202は、連続するmラインの光電変換素子列Lm+1〜Lnを形成する。光電変換素子列L1〜Lmおよび光電変換素子列Lm+1〜Lnは、特定の方向にそれぞれ連続して並んで設けられる。第1光電変換素子201が形成する複数の光電変換素子列のうちの1つの光電変換素子列Lmは、第2光電変換素子202が形成する複数の光電変換素子列のうちの1つの光電変換素子列Lm+1と隣接する。ここで、n=2mである。このように、第1光電変換素子201および第2光電変換素子202は、同じライン数の光電変換素子列を形成する。なお、簡単のため、第1光電変換素子201は第2光電変換素子202の上部に設けられ、出力された画像データで表される画像領域においても、第1光電変換素子201に対応する部分領域は、第2光電変換素子202に対応する部分領域の上部に位置するものとして説明する。   The first photoelectric conversion element 201 and the plurality of second photoelectric conversion elements 202 each form a plurality of photoelectric conversion element arrays. The first photoelectric conversion element 201 and the second photoelectric conversion element 202 form an n-line photoelectric conversion element array as a whole. Specifically, the first photoelectric conversion element 201 forms continuous m-line photoelectric conversion element arrays L1 to Lm. In addition, the second photoelectric conversion element 202 forms continuous m-line photoelectric conversion element arrays Lm + 1 to Ln. The photoelectric conversion element arrays L1 to Lm and the photoelectric conversion element arrays Lm + 1 to Ln are provided side by side in a specific direction. One photoelectric conversion element array Lm among the plurality of photoelectric conversion element arrays formed by the first photoelectric conversion element 201 is one photoelectric conversion element among the plurality of photoelectric conversion element arrays formed by the second photoelectric conversion element 202. Adjacent to column Lm + 1. Here, n = 2m. As described above, the first photoelectric conversion element 201 and the second photoelectric conversion element 202 form a photoelectric conversion element array having the same number of lines. For the sake of simplicity, the first photoelectric conversion element 201 is provided above the second photoelectric conversion element 202, and a partial area corresponding to the first photoelectric conversion element 201 also in the image area represented by the output image data. Will be described as being located above the partial region corresponding to the second photoelectric conversion element 202.

第1光電変換素子201の出力は、第1駆動回路21で読み出されて、デジタルの画像信号である第1部分画像データとして第1画像処理エンジン210へ出力される。第2光電変換素子202の出力は、第2駆動回路22で読み出されて、デジタルの画像信号である第2部分画像データとして第2画像処理エンジン220へ出力される。第1部分画像データおよび第2部分画像データは、並列に出力される。第1駆動回路21は、第1光電変換素子201の出力を読み出して、第1光電変換素子201が設けられた部分に対応する画像の画像データである第1部分画像データを出力する第1読み出し回路の一例である。第2駆動回路22は、第2光電変換素子202の出力を読み出して、第2光電変換素子202に設けられた部分に対応する画像の画像データである第2部分画像データを出力する第2読み出し回路の一例である。   The output of the first photoelectric conversion element 201 is read by the first drive circuit 21 and output to the first image processing engine 210 as first partial image data that is a digital image signal. The output of the second photoelectric conversion element 202 is read by the second drive circuit 22 and output to the second image processing engine 220 as second partial image data that is a digital image signal. The first partial image data and the second partial image data are output in parallel. The first drive circuit 21 reads the output of the first photoelectric conversion element 201 and outputs first partial image data that is image data of an image corresponding to the portion where the first photoelectric conversion element 201 is provided. It is an example of a circuit. The second drive circuit 22 reads the output of the second photoelectric conversion element 202 and outputs second partial image data that is image data of an image corresponding to a portion provided in the second photoelectric conversion element 202. It is an example of a circuit.

一例として、第1光電変換素子201は、光電変換素子列Lm、・・・L4、L3、L2、L1の順で露光が開始されて読み出される。また、第2光電変換素子202は、光電変換素子列Lm+1、Lm+2、Lm+3、Lm+4・・・Lnの順で露光が開始されて読み出される。このように、第1光電変換素子201の読み出し方向は、第2光電変換素子202の読み出し方向とは逆方向であってよい。駆動部148は、各光電変換素子列の光電変換素子の露光タイミングおよび読み出しタイミングを制御するタイミングクロックを、撮像素子132に供給する。第1駆動回路21および第2駆動回路22は、供給されたタイミングクロックに基づいて、対応する光電変換素子列に対する露光および読み出しを制御する。   As an example, the first photoelectric conversion element 201 is read by starting exposure in the order of photoelectric conversion element arrays Lm,... L4, L3, L2, and L1. In addition, the second photoelectric conversion element 202 starts reading in the order of photoelectric conversion element arrays Lm + 1, Lm + 2, Lm + 3, Lm + 4. Thus, the reading direction of the first photoelectric conversion element 201 may be opposite to the reading direction of the second photoelectric conversion element 202. The drive unit 148 supplies a timing clock that controls the exposure timing and readout timing of the photoelectric conversion elements of each photoelectric conversion element array to the imaging element 132. The first drive circuit 21 and the second drive circuit 22 control the exposure and readout of the corresponding photoelectric conversion element array based on the supplied timing clock.

第1駆動回路21で読み出された第1部分画像データは、第1画像処理エンジン210へ出力される。第2駆動回路22で読み出された第2部分画像データは、第2画像処理エンジン220へ出力される。第1画像処理エンジン210は、第1部分画像データから第1評価値を算出する。また、第2画像処理エンジン220は、第2部分画像データから第2評価値を算出する。第2画像処理エンジン220は、第2評価値を第1画像処理エンジン210へ出力して、第1画像処理エンジン210に評価させる。第1画像処理エンジン210は、第1評価値および第2評価値に基づいて、第1部分画像データおよび第2部分画像データで表される1つの画像を評価する。第1画像処理エンジン210は、第1評価値を第2画像処理エンジン220へ出力して、第2画像処理エンジン220に評価させる。第2画像処理エンジン220は、第1評価値および第2評価値に基づいて、第1部分画像データおよび第2部分画像データで表される1つの画像を評価する。第1画像処理エンジン210および第2画像処理エンジン220の機能および動作の詳細については後述する。   The first partial image data read by the first drive circuit 21 is output to the first image processing engine 210. The second partial image data read by the second drive circuit 22 is output to the second image processing engine 220. The first image processing engine 210 calculates a first evaluation value from the first partial image data. Further, the second image processing engine 220 calculates a second evaluation value from the second partial image data. The second image processing engine 220 outputs the second evaluation value to the first image processing engine 210 and causes the first image processing engine 210 to evaluate. The first image processing engine 210 evaluates one image represented by the first partial image data and the second partial image data based on the first evaluation value and the second evaluation value. The first image processing engine 210 outputs the first evaluation value to the second image processing engine 220 and causes the second image processing engine 220 to evaluate. The second image processing engine 220 evaluates one image represented by the first partial image data and the second partial image data based on the first evaluation value and the second evaluation value. Details of functions and operations of the first image processing engine 210 and the second image processing engine 220 will be described later.

図3は、撮像が指示された場合の画像処理エンジン部135の動作フローの一例を示す。本フローは、動画の撮像動作を開始するユーザ指示をカメラMPU140が検出した場合に、開始される。例えば、動画記録ボタンの押し込みを検出した場合に、開始される。   FIG. 3 shows an example of an operation flow of the image processing engine unit 135 when imaging is instructed. This flow is started when the camera MPU 140 detects a user instruction to start a moving image capturing operation. For example, it is started when the pressing of the moving image recording button is detected.

本フローが開始すると、第1画像処理エンジン210は、第1駆動回路21から第1部分画像データを取得する(ステップS302)。また、第1画像処理エンジン210は、第2駆動回路22から第2部分画像データを取得する(ステップS352)。第1部分画像データおよび第2部分画像データは、RAW画像データである。   When this flow starts, the first image processing engine 210 acquires first partial image data from the first drive circuit 21 (step S302). In addition, the first image processing engine 210 acquires second partial image data from the second drive circuit 22 (step S352). The first partial image data and the second partial image data are RAW image data.

続いて、第1画像処理エンジン210は、画像の評価に関する処理を行う(ステップS304)。また、第2画像処理エンジン220は、画像の評価に関する処理を行う(ステップS354)。ここでは、画像の評価情報が、第1画像処理エンジン210と第2画像処理エンジン220との間で相互に交換される。本処理については、図4等に関連して説明する。   Subsequently, the first image processing engine 210 performs processing related to image evaluation (step S304). The second image processing engine 220 performs processing related to image evaluation (step S354). Here, image evaluation information is exchanged between the first image processing engine 210 and the second image processing engine 220. This process will be described with reference to FIG.

続いて、第1画像処理エンジン210は、画像処理に係る処理を行う(ステップS306)。また、第2画像処理エンジン220は、画像処理に係る処理を行う(ステップS354)。ここでは、第2部分画像データが第2画像処理エンジン220から第1画像処理エンジン210へ送信されるか、第1部分画像データが第1画像処理エンジン210から第2画像処理エンジン220へ送信される。本処理については、図7等に関連して説明する。   Subsequently, the first image processing engine 210 performs processing related to image processing (step S306). The second image processing engine 220 performs processing related to image processing (step S354). Here, the second partial image data is transmitted from the second image processing engine 220 to the first image processing engine 210 or the first partial image data is transmitted from the first image processing engine 210 to the second image processing engine 220. The This process will be described with reference to FIG.

続いて、第1画像処理エンジン210は、動画の撮像動作を終了するか否かを判断する(ステップS308)。また、第2画像処理エンジン220は、撮像動作を終了するか否かを判断する(ステップS358)。例えば、カメラMPU140は、動画の撮像動作を開始する旨の指示を受け付けた場合に、動画の撮像動作を終了する旨の指示を第1画像処理エンジン210および第2画像処理エンジン220へ出力する。第1画像処理エンジン210および第2画像処理エンジン220は、動画の撮像動作を終了する旨の指示をカメラMPU140から取得した場合に、動画の撮像動作を終了する旨を判断する。第1画像処理エンジン210は、動画の撮像動作を終了しない旨を判断した場合に、ステップS302に処理を移行し、第2画像処理エンジン220は、動画の撮像動作を終了しない旨を判断した場合に、ステップS352に処理を移行する。第1画像処理エンジン210および第2画像処理エンジン220は、動画の撮像動作を終了しない旨を判断した場合は、撮像動作を終了する。   Subsequently, the first image processing engine 210 determines whether or not to end the moving image capturing operation (step S308). Further, the second image processing engine 220 determines whether or not to end the imaging operation (step S358). For example, when receiving an instruction to start a moving image capturing operation, the camera MPU 140 outputs an instruction to end the moving image capturing operation to the first image processing engine 210 and the second image processing engine 220. When the first image processing engine 210 and the second image processing engine 220 obtain an instruction to end the moving image capturing operation from the camera MPU 140, the first image processing engine 210 and the second image processing engine 220 determine to end the moving image capturing operation. When the first image processing engine 210 determines that the moving image capturing operation is not ended, the process proceeds to step S302, and the second image processing engine 220 determines that the moving image capturing operation is not ended. Then, the process proceeds to step S352. When the first image processing engine 210 and the second image processing engine 220 determine that the moving image capturing operation is not ended, the first image processing engine 210 and the second image processing engine 220 end the imaging operation.

図4は、画像の評価を行う場合の画像処理エンジン部135の係る動作フローの一例を示す。本フローは、図3のステップS304、ステップS354の内部フローとして適用できる。   FIG. 4 shows an example of an operation flow related to the image processing engine unit 135 when an image is evaluated. This flow can be applied as the internal flow of steps S304 and S354 of FIG.

本フローが開始すると、ステップS402において、第1画像処理エンジン210は、第1部分画像データから第1評価値を算出する。具体的には、AF評価値、ホワイトバランス補正評価値、AE評価値、人物検出用の評価情報を、第1評価値として算出する。また、ステップS452において、第2画像処理エンジン220は、第2部分画像データから第2評価値を算出する。具体的には、第1画像処理エンジン210と同種の評価値を算出する。AF評価値、AE評価値、ホワイトバランス評価値、人物検出用の評価情報は、それぞれ焦点状態を評価するための評価値、露出状態を評価するための評価値、ホワイトバランス状態を評価するための評価値、人物の顔の位置を評価するための顔検出情報の一例である。   When this flow starts, in step S402, the first image processing engine 210 calculates a first evaluation value from the first partial image data. Specifically, an AF evaluation value, a white balance correction evaluation value, an AE evaluation value, and person detection evaluation information are calculated as the first evaluation value. In step S452, the second image processing engine 220 calculates a second evaluation value from the second partial image data. Specifically, an evaluation value of the same type as that of the first image processing engine 210 is calculated. The AF evaluation value, the AE evaluation value, the white balance evaluation value, and the evaluation information for person detection are an evaluation value for evaluating the focus state, an evaluation value for evaluating the exposure state, and a white balance state, respectively. It is an example of face detection information for evaluating an evaluation value and the position of a person's face.

そして、ステップS404において、第1画像処理エンジン210は、第2画像処理エンジン220へ送信する種類の評価値を決定する。また、ステップS454において、第2画像処理エンジン220は、第1画像処理エンジン210へ送信する種類の評価値を決定する。一例として、第1画像処理エンジン210は、現在のフレームが奇数番目のフレームである場合に、人物検出用の評価値以外の評価値を、第2画像処理エンジン220へ送信する評価値として決定する。また、第1画像処理エンジン210は、現在のフレームが偶数番目のフレームである場合に、人物検出用の評価値を、第2画像処理エンジン220へ送信する評価値として決定する。一方、第2画像処理エンジン220は、現在のフレームが奇数番目のフレームである場合に、人物検出用の評価値を、第1画像処理エンジン210へ送信する評価値として決定する。また、第2画像処理エンジン220は、現在のフレームが偶数番目のフレームである場合に、人物検出用の評価値以外の評価値を、第1画像処理エンジン210へ送信する評価値として決定する。本処理については、図5、6等に関連して後述する。   In step S <b> 404, the first image processing engine 210 determines the type of evaluation value to be transmitted to the second image processing engine 220. In step S454, the second image processing engine 220 determines the type of evaluation value to be transmitted to the first image processing engine 210. As an example, when the current frame is an odd-numbered frame, the first image processing engine 210 determines an evaluation value other than the person detection evaluation value as an evaluation value to be transmitted to the second image processing engine 220. . Further, the first image processing engine 210 determines the evaluation value for person detection as an evaluation value to be transmitted to the second image processing engine 220 when the current frame is an even-numbered frame. On the other hand, the second image processing engine 220 determines a person detection evaluation value as an evaluation value to be transmitted to the first image processing engine 210 when the current frame is an odd-numbered frame. The second image processing engine 220 determines an evaluation value other than the evaluation value for person detection as an evaluation value to be transmitted to the first image processing engine 210 when the current frame is an even-numbered frame. This process will be described later with reference to FIGS.

続いて、ステップS406において、第1画像処理エンジン210は、ステップS404で決定した種類の第1評価値を、第2画像処理エンジン220へ出力する。また、ステップS456において、第2画像処理エンジン220は、ステップS454で決定した種類の第2評価値を、第1画像処理エンジン210へ出力する。このように、第1画像処理エンジン210は、第1評価値として第1の種類の評価値を算出して第2画像処理エンジン220へ出力する。また、第2画像処理エンジン220は、第2評価値として第2の種類の評価値を算出して第1画像処理エンジン210へ出力する。具体的には、第1画像処理エンジン210は、撮像素子132が第1のタイミングで撮像した場合において、第1評価値として第1の種類の評価値を算出して第2画像処理エンジン220へ出力し、第2画像処理エンジン220は、撮像素子132が第1のタイミングで撮像した場合において、第2評価値として第2の種類の評価値を算出して第1画像処理エンジン210へ出力する。また、第1画像処理エンジン210は、撮像素子132が第1のタイミングに続く第2のタイミングで撮像した場合において、第1評価値として第2の種類の評価値を算出して第2画像処理エンジン220へ出力し、第2画像処理エンジン220は、撮像素子132が第2のタイミングで撮像した場合において、第2評価値として第1の種類の評価値を算出して第1画像処理エンジン210へ出力する。   Subsequently, in step S406, the first image processing engine 210 outputs the first evaluation value of the type determined in step S404 to the second image processing engine 220. In step S456, the second image processing engine 220 outputs the second evaluation value of the type determined in step S454 to the first image processing engine 210. In this way, the first image processing engine 210 calculates the first type of evaluation value as the first evaluation value and outputs it to the second image processing engine 220. In addition, the second image processing engine 220 calculates a second type of evaluation value as the second evaluation value and outputs the second type of evaluation value to the first image processing engine 210. Specifically, the first image processing engine 210 calculates a first type of evaluation value as the first evaluation value when the image sensor 132 captures an image at the first timing, and sends the first type of evaluation value to the second image processing engine 220. The second image processing engine 220 outputs the second type of evaluation value as the second evaluation value and outputs the second evaluation value to the first image processing engine 210 when the image sensor 132 captures the image at the first timing. . The first image processing engine 210 calculates the second type of evaluation value as the first evaluation value when the image sensor 132 captures an image at the second timing following the first timing, and performs the second image processing. The second image processing engine 220 outputs to the engine 220, and the second image processing engine 220 calculates the first type of evaluation value as the second evaluation value when the image sensor 132 images at the second timing, and the first image processing engine 210. Output to.

続いて、ステップS408において、第1画像処理エンジン210は、全体画像に対する評価を行う。具体的には、第1画像処理エンジン210は、第2画像処理エンジン220から受信した種類の評価値に基づいて、評価を行う。例えば、現在のフレームが奇数番目のフレームである場合、第1画像処理エンジン210は、全体画像における人物の位置を特定する処理を行う。また、ステップS458において、第2画像処理エンジン220は、全体画像に対する評価を行う。具体的には、第2画像処理エンジン220は、第1画像処理エンジン210から受信した種類の評価値に基づいて、評価を行う。例えば、現在のフレームが奇数番目のフレームである場合、第2画像処理エンジン220は、画像全体の総コントラスト量を算出する。また、第2画像処理エンジン220は、総コントラスト量に基づいて被写体に対して合焦状態にあるか否かの判断を行う。このように、第1画像処理エンジン210は、撮像素子132が第1のタイミングで撮像した場合において、第1評価値および第2評価値に基づいて、第1のタイミングで撮像することにより得られた第1部分画像データおよび第2部分画像データで表される1つの画像を評価する。第2画像処理エンジン220は、撮像素子132が第1のタイミングに続く第2のタイミングで撮像した場合において、第1評価値および第2評価値に基づいて、第2のタイミングで撮像することにより得られた第1部分画像データおよび第2部分画像データで表される1つの画像を評価する。   Subsequently, in step S408, the first image processing engine 210 evaluates the entire image. Specifically, the first image processing engine 210 performs evaluation based on the type of evaluation value received from the second image processing engine 220. For example, when the current frame is an odd-numbered frame, the first image processing engine 210 performs processing for specifying the position of a person in the entire image. In step S458, the second image processing engine 220 evaluates the entire image. Specifically, the second image processing engine 220 performs evaluation based on the type of evaluation value received from the first image processing engine 210. For example, when the current frame is an odd-numbered frame, the second image processing engine 220 calculates the total contrast amount of the entire image. Further, the second image processing engine 220 determines whether or not the subject is in focus based on the total contrast amount. As described above, the first image processing engine 210 is obtained by imaging at the first timing based on the first evaluation value and the second evaluation value when the imaging element 132 images at the first timing. One image represented by the first partial image data and the second partial image data is evaluated. When the image sensor 132 captures an image at the second timing following the first timing, the second image processing engine 220 captures an image at the second timing based on the first evaluation value and the second evaluation value. One image represented by the obtained first partial image data and second partial image data is evaluated.

続いて、ステップS460において、第2画像処理エンジン220は、ステップS458の評価結果を、第1画像処理エンジン210に送信する。例えば、第2画像処理エンジン220は、合焦度合いを示す判断結果を、第1画像処理エンジン210へ送信する。そして、S410において、第1画像処理エンジン210は、ステップS408の評価結果および第2画像処理エンジン220から受信した評価結果に基づいて、制御を行う。例えば、総コントラスト量や合焦状態の判断結果をカメラMPU140へ送信する。また、第1画像処理エンジン210は、特定した人物の位置に基づいて、顔検出枠を表示する等の処理を行う。第1画像処理エンジン210および第2画像処理エンジン220は、それぞれステップS410およびs460の処理が終了すると、本フローを終了する。   Subsequently, in step S460, the second image processing engine 220 transmits the evaluation result of step S458 to the first image processing engine 210. For example, the second image processing engine 220 transmits a determination result indicating the degree of focus to the first image processing engine 210. In step S410, the first image processing engine 210 performs control based on the evaluation result in step S408 and the evaluation result received from the second image processing engine 220. For example, the determination result of the total contrast amount and the in-focus state is transmitted to the camera MPU 140. Further, the first image processing engine 210 performs processing such as displaying a face detection frame based on the position of the identified person. The first image processing engine 210 and the second image processing engine 220 end this flow when the processes of steps S410 and s460 are completed, respectively.

図5は、AF評価に係る処理情報の一例を模式的に示す。第1画像処理エンジン210には、第1部分画像データ501が出力される。第1画像処理エンジン210は、第1部分画像データ501に対して、焦点調節領域に対応する各画像領域510に、コントラスト量を抽出するフィルタを適用する。第2画像処理エンジン220には、第2部分画像データ502が出力される。第2画像処理エンジン220は、第2部分画像データ502に対して、焦点調節領域に対応する各画像領域520に、コントラスト量を抽出するフィルタを適用する。そして、第1画像処理エンジン210は、各画像領域510のコントラスト量を示す情報を第2画像処理エンジン220へ送信する。第2画像処理エンジン220は、各画像領域510および各画像領域520のそれぞれのコントラスト量に基づいて、画像領域530における総コントラスト量を算出する。例えば、第2画像処理エンジン220は、焦点調節する旨が指示された画像領域のコントラスト量に基づいて、総コントラスト量を算出する。また、第2画像処理エンジン220は、総コントラスト量に基づいて、合焦状態にあるか否かの判断を行う。そして、第1画像処理エンジン210は、第2画像処理エンジン220から判断結果を取得して、第1画像処理エンジン210における判断結果に基づいて、各種の制御を行う。例えば、第1画像処理エンジン210は、合焦状態にある旨を表示部138に表示させる。また、合焦状態にある旨をカメラMPU140に通知して、コントラストAFの制御を停止させる。   FIG. 5 schematically shows an example of processing information relating to AF evaluation. First partial image data 501 is output to the first image processing engine 210. The first image processing engine 210 applies a filter that extracts a contrast amount to each image region 510 corresponding to the focus adjustment region, with respect to the first partial image data 501. Second partial image data 502 is output to the second image processing engine 220. The second image processing engine 220 applies a filter for extracting a contrast amount to each image region 520 corresponding to the focus adjustment region with respect to the second partial image data 502. Then, the first image processing engine 210 transmits information indicating the contrast amount of each image region 510 to the second image processing engine 220. The second image processing engine 220 calculates the total contrast amount in the image region 530 based on the contrast amounts in each image region 510 and each image region 520. For example, the second image processing engine 220 calculates the total contrast amount based on the contrast amount of the image area instructed to adjust the focus. Further, the second image processing engine 220 determines whether or not it is in an in-focus state based on the total contrast amount. Then, the first image processing engine 210 acquires the determination result from the second image processing engine 220 and performs various controls based on the determination result in the first image processing engine 210. For example, the first image processing engine 210 causes the display unit 138 to display that it is in focus. In addition, the camera MPU 140 is notified that it is in focus, and the contrast AF control is stopped.

図6は、顔検出に係る処理情報の一例を示す。第1画像処理エンジン210には、第1部分画像データ601が出力される。第1画像処理エンジン210は、第1部分画像データ601を縮小した縮小画像データ610を、顔検出用の評価値として生成する。第2画像処理エンジン220には、第2部分画像データ602が出力される。第2画像処理エンジン220は、第2部分画像データ602を縮小した縮小画像データ620を、顔検出用の評価値として生成する。そして、第2画像処理エンジン220は、縮小画像データ620を第1画像処理エンジン210へ送信する。第2画像処理エンジン220は、縮小画像データ610および縮小画像データ620から全体画像の縮小画像データ630を生成して、縮小画像データ630に対して顔検出の画像処理を行う。   FIG. 6 shows an example of processing information related to face detection. First partial image data 601 is output to the first image processing engine 210. The first image processing engine 210 generates reduced image data 610 obtained by reducing the first partial image data 601 as an evaluation value for face detection. The second partial image data 602 is output to the second image processing engine 220. The second image processing engine 220 generates reduced image data 620 obtained by reducing the second partial image data 602 as an evaluation value for face detection. Then, the second image processing engine 220 transmits the reduced image data 620 to the first image processing engine 210. The second image processing engine 220 generates reduced image data 630 of the entire image from the reduced image data 610 and the reduced image data 620, and performs face detection image processing on the reduced image data 630.

一例として、第1画像処理エンジン210は、パターンマッチング等により、人物の顔領域640のそれぞれの位置および大きさを特定する。そして、第1画像処理エンジン210は、特定した領域の位置および大きさに基づいて、顔が検出された位置をユーザに提示する顔検出枠等を、表示部138に表示させる。また、顔検出領域に対して人物の顔用の処理が施されるよう、カメラ10の各部を制御してよい。   As an example, the first image processing engine 210 identifies the position and size of the person's face area 640 by pattern matching or the like. Then, the first image processing engine 210 causes the display unit 138 to display a face detection frame or the like that presents the position where the face is detected to the user based on the position and size of the identified region. Further, each part of the camera 10 may be controlled so that processing for a human face is performed on the face detection area.

図7は、画像処理を行う場合の画像処理エンジン部135における動作フローの一例を示す。本フローは、図3のステップS306、ステップS356の内部フローとして適用できる。   FIG. 7 shows an example of an operation flow in the image processing engine unit 135 when performing image processing. This flow can be applied as the internal flow of steps S306 and S356 of FIG.

本フローが開始すると、第1画像処理エンジン210においては、第1部分画像データを第2画像処理エンジン220へ送信するか否かを判断する(ステップS702)。例えば、第1画像処理エンジン210は、現在のフレームが奇数番目のフレームである場合に、第1部分画像データを第2画像処理エンジン220へ送信する旨を判断する。第1部分画像データを第2画像処理エンジン220へ送信すると判断した場合、ステップS712において第1部分画像データを第2画像処理エンジン220へ送信し、ステップS710に処理を進める。第1部分画像データを第2画像処理エンジン220へ送信しない旨を判断した場合、ステップS704に処理を進める。   When this flow starts, the first image processing engine 210 determines whether or not to transmit the first partial image data to the second image processing engine 220 (step S702). For example, the first image processing engine 210 determines to transmit the first partial image data to the second image processing engine 220 when the current frame is an odd-numbered frame. If it is determined that the first partial image data is to be transmitted to the second image processing engine 220, the first partial image data is transmitted to the second image processing engine 220 in step S712, and the process proceeds to step S710. If it is determined not to transmit the first partial image data to the second image processing engine 220, the process proceeds to step S704.

第2画像処理エンジン220においては、第2部分画像データを第1画像処理エンジン210へ送信するか否かを判断する(ステップS752)。例えば、第2画像処理エンジン220は、現在のフレームが偶数番目のフレームである場合に、第2部分画像データを第1画像処理エンジン210へ送信する旨を判断する。第2部分画像データを第1画像処理エンジン210へ送信すると判断した場合、ステップS762において第2部分画像データを第1画像処理エンジン210へ送信し、本フローを終了する。第2部分画像データを第1画像処理エンジン210へ送信しない旨を判断した場合、ステップS754に処理を進める。   The second image processing engine 220 determines whether or not to transmit the second partial image data to the first image processing engine 210 (step S752). For example, the second image processing engine 220 determines to transmit the second partial image data to the first image processing engine 210 when the current frame is an even-numbered frame. If it is determined that the second partial image data is to be transmitted to the first image processing engine 210, the second partial image data is transmitted to the first image processing engine 210 in step S762, and this flow ends. If it is determined not to transmit the second partial image data to the first image processing engine 210, the process proceeds to step S754.

第1画像処理エンジン210では、ステップS704において、第1部分画像データと、第2画像処理エンジン220から送信された第2部分画像データとから、全体画像データを生成する。続いて、第1画像処理エンジン210は、全体画像データに画像処理を施す(ステップS706)。そして、第1画像処理エンジン210は、画像処理後の全体画像データに圧縮処理を施す(ステップS708)。このように、第2画像処理エンジン220は、第2部分画像データを第1画像処理エンジン210へ出力し、第1画像処理エンジン210は、第1部分画像データおよび第2部分画像データで表される1つの画像の画像データに画像処理を施す。具体的には、第2画像処理エンジン220は、RAW画像データである第2部分画像データを、第1画像処理エンジン210へ出力し、第1画像処理エンジン210は、RAW画像データである第1部分画像データおよびRAW画像データである第2部分画像データで表される1つの画像の画像データに、色補完処理および圧縮処理を含む画像処理を施す。そして、第1画像処理エンジン210は、ステップS710において、圧縮処理により得られた圧縮画像データを、外部メモリ180へ記録し、本フローを終了する。   In step S <b> 704, the first image processing engine 210 generates whole image data from the first partial image data and the second partial image data transmitted from the second image processing engine 220. Subsequently, the first image processing engine 210 performs image processing on the entire image data (step S706). Then, the first image processing engine 210 performs compression processing on the entire image data after image processing (step S708). As described above, the second image processing engine 220 outputs the second partial image data to the first image processing engine 210, and the first image processing engine 210 is represented by the first partial image data and the second partial image data. Image processing is performed on image data of one image. Specifically, the second image processing engine 220 outputs the second partial image data that is RAW image data to the first image processing engine 210, and the first image processing engine 210 is the first image data that is RAW image data. Image processing including color interpolation processing and compression processing is performed on the image data of one image represented by the partial image data and the second partial image data which is the RAW image data. Then, in step S710, the first image processing engine 210 records the compressed image data obtained by the compression process in the external memory 180, and ends this flow.

第2画像処理エンジン220では、ステップS754において、第2部分画像データと、第1画像処理エンジン210から送信された第1部分画像データとから、全体画像データを生成する。続いて、第2画像処理エンジン220は、全体画像データに画像処理を施す(ステップS756)。ここでは、第2画像処理エンジン220は、ステップS706における画像処理と同種の画像処理を行う。そして、第2画像処理エンジン220は、画像処理後の全体画像データに圧縮処理を施す(ステップS758)。そして、第2画像処理エンジン220は、ステップS760において、圧縮処理により得られた圧縮画像データを、第1画像処理エンジン210へ送信する。このように、第1画像処理エンジン210は、第1部分画像データを、第2画像処理エンジン220へ出力し、第2画像処理エンジン220は、第2部分画像データおよび第1部分画像データで表される1つの画像の画像データに画像処理を施す。具体的には、第2画像処理エンジン220は、RAW画像データである第1部分画像データおよびRAW画像データである第2部分画像データで表される1つの画像の画像データに色補間処理および圧縮処理を含む画像処理を施して、当該画像処理を施すことにより得られた圧縮された画像データを第1画像処理エンジン210へ出力する。   In step S754, the second image processing engine 220 generates whole image data from the second partial image data and the first partial image data transmitted from the first image processing engine 210. Subsequently, the second image processing engine 220 performs image processing on the entire image data (step S756). Here, the second image processing engine 220 performs the same type of image processing as the image processing in step S706. Then, the second image processing engine 220 performs compression processing on the entire image data after image processing (step S758). Then, the second image processing engine 220 transmits the compressed image data obtained by the compression processing to the first image processing engine 210 in step S760. As described above, the first image processing engine 210 outputs the first partial image data to the second image processing engine 220, and the second image processing engine 220 represents the second partial image data and the first partial image data. Image processing is performed on the image data of one image to be processed. Specifically, the second image processing engine 220 performs color interpolation processing and compression on the image data of one image represented by the first partial image data that is RAW image data and the second partial image data that is RAW image data. Image processing including processing is performed, and compressed image data obtained by performing the image processing is output to the first image processing engine 210.

第1画像処理エンジン210では、ステップS712において第1部分画像データを第2画像処理エンジン220へ送信した後、ステップS710において、第1画像処理エンジン210から受信した圧縮画像データを外部メモリ180へ記録する。このように、第1画像処理エンジン210は、圧縮された画像データを外部メモリ180に記録する。   The first image processing engine 210 transmits the first partial image data to the second image processing engine 220 in step S712, and then records the compressed image data received from the first image processing engine 210 in the external memory 180 in step S710. To do. As described above, the first image processing engine 210 records the compressed image data in the external memory 180.

図8は、画像処理エンジン部135において各処理が行われるタイミングの一例を模式的に示す。本図において、奇数フレームであるN番目のフレームの読み出しが完了した時刻t0以後の処理について説明する。   FIG. 8 schematically illustrates an example of the timing at which each process is performed in the image processing engine unit 135. In this figure, the processing after time t0 when the reading of the Nth frame, which is an odd frame, is completed will be described.

N番目のフレームの読み出しが完了すると、第1画像処理エンジン210および第2画像処理エンジン220は、それぞれ対応する部分画像データから評価値を算出する。そして、第1画像処理エンジン210は、顔検出用以外の種類の評価値を、第2画像処理エンジン220へ送信する。第2画像処理エンジン220は、顔検出用の評価値を、第1画像処理エンジン210へ送信する。評価値を受信すると、時刻t1から、第1画像処理エンジン210は、顔検出用の評価を行う。第2画像処理エンジン220は、総コントラスト量、焦点状態の判断、適正露出であるか否か、ホワイトバランスの決定等の処理を行う。   When the reading of the Nth frame is completed, the first image processing engine 210 and the second image processing engine 220 each calculate an evaluation value from the corresponding partial image data. Then, the first image processing engine 210 transmits an evaluation value of a type other than for face detection to the second image processing engine 220. The second image processing engine 220 transmits the face detection evaluation value to the first image processing engine 210. When the evaluation value is received, the first image processing engine 210 performs evaluation for face detection from time t1. The second image processing engine 220 performs processing such as determining the total contrast amount, determining the focus state, determining whether the exposure is appropriate, and determining white balance.

また、第1画像処理エンジン210は、N番目のフレームの読み出しが完了すると、上述の処理に並行して、第1部分画像データを第2画像処理エンジン220へ送信する。第2画像処理エンジン220は、第2駆動回路22から出力された第2部分画像データと、第1画像処理エンジン210から受け取った第1部分画像データとから全体画像データを生成して、画像処理および圧縮処理を施す。   In addition, when the reading of the Nth frame is completed, the first image processing engine 210 transmits the first partial image data to the second image processing engine 220 in parallel with the above-described processing. The second image processing engine 220 generates whole image data from the second partial image data output from the second drive circuit 22 and the first partial image data received from the first image processing engine 210 to perform image processing. And compression processing.

時刻t2において、N+1番目のフレームの読み出しが完了すると、第1画像処理エンジン210および第2画像処理エンジン220は、それぞれ対応する部分画像データから評価値を算出する。そして、第1画像処理エンジン210は、顔検出用の評価値を、第2画像処理エンジン220へ送信する。第2画像処理エンジン220は、顔検出用以外の種類の評価値を、第1画像処理エンジン210へ送信する。評価値を受信すると、時刻t3から、第1画像処理エンジン210は、総コントラスト量、焦点状態の判断、適正露出であるか否か、ホワイトバランスの決定等の処理を行う。第2画像処理エンジン220は、顔検出用の評価を行う。   When the reading of the (N + 1) th frame is completed at time t2, the first image processing engine 210 and the second image processing engine 220 each calculate an evaluation value from the corresponding partial image data. Then, the first image processing engine 210 transmits the evaluation value for face detection to the second image processing engine 220. The second image processing engine 220 transmits evaluation values of a type other than for face detection to the first image processing engine 210. When the evaluation value is received, from time t3, the first image processing engine 210 performs processing such as determining the total contrast, determining the focus state, determining whether the exposure is appropriate, and determining white balance. The second image processing engine 220 performs face detection evaluation.

また、第2画像処理エンジン220は、N+1番目のフレームの読み出しが完了すると、上述の処理に並行して、第2部分画像データを第1画像処理エンジン210へ送信する。第1画像処理エンジン210は、第1駆動回路21から出力された第1部分画像データと、第2画像処理エンジン220から受け取った第2部分画像データとから全体画像データを生成して、画像処理および圧縮処理を施す。このように、撮像素子132は複数のタイミングで連続して撮像した場合に、第2画像処理エンジン220は、撮像素子132が第1のタイミングで撮像した場合において、第2部分画像データから算出された第2評価値を第1画像処理エンジン210へ出力し、第1画像処理エンジン210は、撮像素子132が第1のタイミングに続く第2のタイミングで撮像した場合において、第1部分画像データから算出された第1評価値を第2画像処理エンジン220へ出力する。また、第2画像処理エンジン220は、撮像素子132が第1のタイミングで撮像した場合において、第2部分画像データを第1画像処理エンジン210へ出力し、第1画像処理エンジン210は、撮像素子132が第1のタイミングに続く第2のタイミングで撮像した場合において、第1部分画像データを第2画像処理エンジン220へ出力する。このように、第1画像処理エンジン210および第2画像処理エンジン220において評価値の算出、評価の処理、および画像処理や圧縮処理を分担することで、各エンジンにおける負荷を均等化することができる。また、演算に長い時間を要する処理を1つの画像処理エンジンで行わせることができる。   When the reading of the (N + 1) th frame is completed, the second image processing engine 220 transmits the second partial image data to the first image processing engine 210 in parallel with the above-described processing. The first image processing engine 210 generates whole image data from the first partial image data output from the first drive circuit 21 and the second partial image data received from the second image processing engine 220 to perform image processing. And compression processing. Thus, when the image sensor 132 continuously captures images at a plurality of timings, the second image processing engine 220 is calculated from the second partial image data when the image sensor 132 captures images at the first timing. The second evaluation value is output to the first image processing engine 210, and the first image processing engine 210 starts from the first partial image data when the image sensor 132 captures an image at the second timing following the first timing. The calculated first evaluation value is output to the second image processing engine 220. The second image processing engine 220 outputs the second partial image data to the first image processing engine 210 when the image sensor 132 captures an image at the first timing, and the first image processing engine 210 When the image is captured at the second timing 132 following the first timing, the first partial image data is output to the second image processing engine 220. As described above, the first image processing engine 210 and the second image processing engine 220 share the calculation of the evaluation value, the processing of the evaluation, the image processing, and the compression processing, so that the load on each engine can be equalized. . In addition, processing that takes a long time for calculation can be performed by one image processing engine.

図9は、画像処理エンジン部135に部分画像データを転送する転送部の変形例を示す。本変形例のカメラ10は、図1から図8等に関連して説明した機能ブロックに加えて、第1駆動回路21および第2駆動回路22の間に、第1バッファ部910、第2バッファ部920および出力制御部930をさらに有する。   FIG. 9 shows a modification of the transfer unit that transfers the partial image data to the image processing engine unit 135. In addition to the functional blocks described in relation to FIGS. 1 to 8 and the like, the camera 10 of this modification includes a first buffer unit 910 and a second buffer between the first drive circuit 21 and the second drive circuit 22. A unit 920 and an output control unit 930.

なお、本図では、第1駆動回路21および第2駆動回路22と、画像処理エンジン部135との間のブロック構成を、画像処理エンジン部135とともに示す。カメラ10における他の機能ブロックは、図1から図8等に関連して説明した対応する機能ブロックと略同様の機能および動作を有するので、図示を省略する。また、ここでは、図1から図8等に関連して説明したカメラ10の機能ブロックの機能および動作との相違点を中心に説明する。   In the drawing, a block configuration between the first drive circuit 21 and the second drive circuit 22 and the image processing engine unit 135 is shown together with the image processing engine unit 135. Other functional blocks in the camera 10 have substantially the same functions and operations as the corresponding functional blocks described with reference to FIGS. Here, the description will focus on differences from the functions and operations of the functional blocks of the camera 10 described with reference to FIGS.

第1バッファ部910は、第1駆動回路21から順次に出力される光電変換素子列の列データのうち、予め定められた数の列データを保持する。第1バッファ部910には、予め定められた数の最新の列データが保持される。第2バッファ部920は、第2駆動回路22から順次に出力される光電変換素子列の列データのうち、予め定められた数の列データを保持する。第2バッファ部920には、予め定められた数の最新の列データが保持される。出力制御部930は、第2バッファ部920に保持されている光電変換素子列の列データを第1画像処理エンジン210へ出力し、第1バッファ部910に保持されている光電変換素子列の列データを第1画像処理エンジン210へ出力する。   The first buffer unit 910 holds a predetermined number of column data among the column data of the photoelectric conversion element columns sequentially output from the first drive circuit 21. The first buffer unit 910 holds a predetermined number of the latest column data. The second buffer unit 920 holds a predetermined number of column data among the column data of the photoelectric conversion element columns sequentially output from the second drive circuit 22. The second buffer unit 920 holds a predetermined number of the latest column data. The output control unit 930 outputs the column data of the photoelectric conversion element array held in the second buffer unit 920 to the first image processing engine 210, and the column of photoelectric conversion element arrays held in the first buffer unit 910. Data is output to the first image processing engine 210.

出力制御部930は、第L1〜Lm行目の第2光電変換素子列の列データに加えて、第2バッファ部920が保持している列データのうち、予め定められた数の光電変換素子列の列データを第1画像処理エンジン210へ出力する。具体的には、出力制御部930は、第2バッファ部920が保持している列データのうち、予め定められた数の光電変換素子列の列データが、第Lm行目の第2光電変換素子列の列データより先に第1画像処理エンジン210へ出力する。   The output control unit 930 includes a predetermined number of photoelectric conversion elements among the column data held by the second buffer unit 920 in addition to the column data of the second photoelectric conversion element columns in the L1 to Lm rows. The column data of the column is output to the first image processing engine 210. Specifically, the output control unit 930 outputs the second photoelectric conversion of the Lm-th row from column data of a predetermined number of column data held by the second buffer unit 920. The data is output to the first image processing engine 210 before the column data of the element column.

また、出力制御部930は、第Lm+1〜Ln行目の第2光電変換素子列の列データに加えて、第1バッファ部910が保持している列データのうち、予め定められた数の光電変換素子列の列データを第2画像処理エンジン220へ出力する。具体的には、出力制御部930は、第1バッファ部910が保持している列データのうち、予め定められた数の光電変換素子列の列データが、第Lm+1行目の第2光電変換素子列の列データより先に第2画像処理エンジン220へ出力させる。すなわち、第1光電変換素子201および第2光電変換素子202の隣接部分において、予め定められたライン数分の画像データが、第1画像処理エンジン210および第2画像処理エンジン220へ出力されるようにする。   In addition to the column data of the second photoelectric conversion element columns in the (Lm + 1) th to (Ln) th rows, the output control unit 930 also includes a predetermined number of photoelectrical data among the column data held by the first buffer unit 910. The row data of the conversion element row is output to the second image processing engine 220. Specifically, the output control unit 930 outputs the second photoelectric conversion of the (Lm + 1) th row from among the column data held by the first buffer unit 910 and the column data of a predetermined number of photoelectric conversion element columns. Output to the second image processing engine 220 prior to the column data of the element column. That is, image data for a predetermined number of lines is output to the first image processing engine 210 and the second image processing engine 220 in the adjacent portions of the first photoelectric conversion element 201 and the second photoelectric conversion element 202. To.

図10は、出力制御部930が追加で出力する部分を模式的に示す。出力制御部930は、第2光電変換素子202で形成される光電変換素子列群1020の列データを、第1画像処理エンジン210へ追加で出力する。光電変換素子列群1020は、第Lm+1行目の第2光電変換素子202を含み、読み出し方向に連続する光電変換素子列で形成される。また、出力制御部930は、第1光電変換素子201で形成される光電変換素子列群1020の列データを、第2画像処理エンジン220へ追加で出力する。光電変換素子列群1020は、第Lm行目の第1光電変換素子201を含み、読み出し方向に連続する光電変換素子列で形成される。   FIG. 10 schematically shows a portion additionally output by the output control unit 930. The output control unit 930 additionally outputs column data of the photoelectric conversion element column group 1020 formed by the second photoelectric conversion elements 202 to the first image processing engine 210. The photoelectric conversion element array group 1020 includes the second photoelectric conversion elements 202 in the (Lm + 1) th row, and is formed of photoelectric conversion element arrays that are continuous in the reading direction. Further, the output control unit 930 additionally outputs column data of the photoelectric conversion element column group 1020 formed by the first photoelectric conversion elements 201 to the second image processing engine 220. The photoelectric conversion element array group 1020 includes the first photoelectric conversion elements 201 in the Lm-th row, and is formed of photoelectric conversion element arrays that are continuous in the reading direction.

このように、光電変換素子列群1010または光電変換素子列群1020に含まれる光電変換素子列の列データは、第1画像処理エンジン210および第2画像処理エンジン220に重複して出力される。そして、第1画像処理エンジン210は、光電変換素子列群1020に含まれる光電変換素子列の列データおよび第1光電変換素子201が形成する複数の光電変換素子列の列データで表される1つの画像の画像データを処理する。具体的には、第1画像処理エンジン210は、光電変換素子列群1020に含まれる光電変換素子列の列データおよび第1光電変換素子201が形成する光電変換素子列L1〜Lmの列データで表される1つの画像の画像データから第1評価値を算出する。また、第2画像処理エンジン220は、光電変換素子列群1010に含まれる光電変換素子列の列データおよび第2光電変換素子202が形成する複数の光電変換素子列の列データで表される1つの画像の画像データを処理する。具体的には、第2画像処理エンジン220は、光電変換素子列群1010に含まれる光電変換素子列の列データおよび第2光電変換素子202が形成する複数の光電変換素子列Lm+1〜Lnの列データで表される1つの画像の画像データから第2評価値を算出する。このため、第1画像処理エンジン210および第2画像処理エンジン220は、複数列にわたって画像フィルタを適用できる。例えば、2次元の画像フィルタを適用することが可能になる。なお、光電変換素子列群1010および光電変換素子列群1020に含まれる光電変換素子列の列数は、第1画像処理エンジン210および第2画像処理エンジン220で適用する画像フィルタの列数で決定されてよい。例えば、4×4の画像フィルタを適用する場合、光電変換素子列群1010および光電変換素子列群1020にはそれぞれ少なくとも2列の光電変換素子列を含ませてよい。   As described above, the column data of the photoelectric conversion element columns included in the photoelectric conversion element column group 1010 or the photoelectric conversion element column group 1020 is output to the first image processing engine 210 and the second image processing engine 220 in an overlapping manner. The first image processing engine 210 is represented by column data of photoelectric conversion element columns included in the photoelectric conversion element column group 1020 and column data of a plurality of photoelectric conversion element columns formed by the first photoelectric conversion element 201. Process image data for one image. Specifically, the first image processing engine 210 uses the column data of the photoelectric conversion element columns included in the photoelectric conversion element column group 1020 and the column data of the photoelectric conversion element columns L1 to Lm formed by the first photoelectric conversion element 201. A first evaluation value is calculated from image data of one represented image. The second image processing engine 220 is represented by column data of photoelectric conversion element columns included in the photoelectric conversion element column group 1010 and column data of a plurality of photoelectric conversion element columns formed by the second photoelectric conversion element 202. Process image data for one image. Specifically, the second image processing engine 220 includes column data of photoelectric conversion element columns included in the photoelectric conversion element column group 1010 and a plurality of photoelectric conversion element columns Lm + 1 to Ln formed by the second photoelectric conversion element 202. A second evaluation value is calculated from the image data of one image represented by the data. For this reason, the first image processing engine 210 and the second image processing engine 220 can apply image filters over a plurality of columns. For example, a two-dimensional image filter can be applied. Note that the number of photoelectric conversion element columns included in the photoelectric conversion element column group 1010 and the photoelectric conversion element column group 1020 is determined by the number of image filter columns applied by the first image processing engine 210 and the second image processing engine 220. May be. For example, when a 4 × 4 image filter is applied, each of the photoelectric conversion element array group 1010 and the photoelectric conversion element array group 1020 may include at least two photoelectric conversion element arrays.

図11は、出力制御部930が画像処理エンジン部135へ出力する列データの出力シーケンスを模式的に示す。本例では、光電変換素子列群1010および光電変換素子列群1020のそれぞれに2列の光電変換素子列を含ませる場合の構成を説明する。第1バッファ部910は、5ライ分の列データを保持するラインバッファ1110−1〜5を有する。第2バッファ部920は、5ライン分の列データを保持するラインバッファラインバッファ1120−1〜5を有する。   FIG. 11 schematically illustrates an output sequence of column data output from the output control unit 930 to the image processing engine unit 135. In this example, a configuration in which two photoelectric conversion element arrays are included in each of the photoelectric conversion element array group 1010 and the photoelectric conversion element array group 1020 will be described. The first buffer unit 910 includes line buffers 1110-1 to 11-5 that hold column data for 5 lines. The second buffer unit 920 includes line buffers 1120-1 to 1120-5 that hold column data for five lines.

ラインバッファ1110には、ラインバッファ1110−1、ラインバッファ1110−2、ラインバッファ1110−3・・・の順で、列データが格納される。ラインバッファ1110−5に列データが格納された後、次の列データは、ラインバッファ1110−1に格納され、再び上記の順で列データが格納されていく。ラインバッファ1120も同様に、ラインバッファ1120−1、ラインバッファ1120−2、ラインバッファ1120−3・・・の順で、列データが格納され、ラインバッファ1110−5に列データが格納された後、次の列データはラインバッファ1120−1に格納される。本図は、読み出しを開始してから4列のデータがラインバッファ1110およびラインバッファ1120に格納されたタイミングにおける状態を示す。   The line buffer 1110 stores column data in the order of the line buffer 1110-1, the line buffer 1110-2, the line buffer 1110-3,. After the column data is stored in the line buffer 1110-5, the next column data is stored in the line buffer 1110-1, and the column data is stored again in the above order. Similarly, the line buffer 1120 stores the column data in the order of the line buffer 1120-1, the line buffer 1120-2, the line buffer 1120-3..., And after the column data is stored in the line buffer 1110-5. The next column data is stored in the line buffer 1120-1. This figure shows a state at a timing when four columns of data are stored in the line buffer 1110 and the line buffer 1120 after the start of reading.

具体的には、第1の転送タイミングで、第1光電変換素子201の第Lm行の列データが、ラインバッファ1110−1に格納され、第2光電変換素子202の第Lm+1行の列データが、ラインバッファ1120−1に格納される。続く第2の転送タイミングで、第1光電変換素子201の第Lm−1行の列データが、ラインバッファ1110−2に格納され、第2光電変換素子202の第Lm+2行の列データが、ラインバッファ1120−2に格納される。   Specifically, at the first transfer timing, the column data of the Lm row of the first photoelectric conversion element 201 is stored in the line buffer 1110-1, and the column data of the Lm + 1 row of the second photoelectric conversion element 202 is stored. Are stored in the line buffer 1120-1. At the subsequent second transfer timing, the column data of the (Lm-1) th row of the first photoelectric conversion element 201 is stored in the line buffer 1110-2, and the column data of the (Lm + 2) th row of the second photoelectric conversion element 202 is It is stored in the buffer 1120-2.

続いて、第3の転送タイミングで、第1光電変換素子201の第Lm−2行の列データが、ラインバッファ1110−3に格納され、第2光電変換素子202の第Lm+3行の列データが、ラインバッファ1120−3に格納される。この転送タイミングで、出力制御部930は、ラインバッファ1110−2に格納されている第Lm−1行の列データを、第2画像処理エンジン220に出力し、ラインバッファ1120−2に格納されている第Lm+2行の列データを、第1画像処理エンジン210に出力する。第1画像処理エンジン210に出力された列データは、第1部分画像データにおける最下部のラインの列データとしてバッファ領域に格納される。また、第2画像処理エンジン220に出力された列データは、第2部分画像データにおける最上部のラインの列データとしてバッファ領域に格納される。   Subsequently, at the third transfer timing, the column data of the (Lm-2) th row of the first photoelectric conversion element 201 is stored in the line buffer 1110-3, and the column data of the (Lm + 3) th row of the second photoelectric conversion element 202 is stored. Are stored in the line buffer 1120-3. At this transfer timing, the output control unit 930 outputs the column data of the (Lm−1) th row stored in the line buffer 1110-2 to the second image processing engine 220, and is stored in the line buffer 1120-2. The column data of the (Lm + 2) th row is output to the first image processing engine 210. The column data output to the first image processing engine 210 is stored in the buffer area as column data of the lowermost line in the first partial image data. Further, the column data output to the second image processing engine 220 is stored in the buffer area as column data of the uppermost line in the second partial image data.

続いて、第4の転送タイミングで、第1光電変換素子201の第Lm−3行の列データが、ラインバッファ1110−4に格納され、第2光電変換素子202の第Lm+4行の列データが、ラインバッファ1120−4に格納される。この転送タイミングで、出力制御部930は、ラインバッファ1110−1に格納されている第Lm行の列データを、第2画像処理エンジン220に出力し、ラインバッファ1120−1に格納されている第Lm+1行の列データを、第1画像処理エンジン210に出力する。第1画像処理エンジン210に出力された列データは、第1部分画像データにおける最下部から1つ上のラインの列データとしてバッファ領域に格納される。また、第2画像処理エンジン220に出力された列データは、第2部分画像データにおける最上部から1つ下のラインの列データとしてバッファ領域に格納される。   Subsequently, at the fourth transfer timing, the column data of the (Lm-3) th row of the first photoelectric conversion element 201 is stored in the line buffer 1110-4, and the column data of the (Lm + 4) th row of the second photoelectric conversion element 202 is stored. Are stored in the line buffer 1120-4. At this transfer timing, the output control unit 930 outputs the Lm-th column data stored in the line buffer 1110-1 to the second image processing engine 220, and stores it in the line buffer 1120-1. The column data of Lm + 1 rows is output to the first image processing engine 210. The column data output to the first image processing engine 210 is stored in the buffer area as column data of the line one line above the bottom in the first partial image data. Further, the column data output to the second image processing engine 220 is stored in the buffer area as column data of the line one line below the uppermost part in the second partial image data.

第1光電変換素子201の第Lm−4行の列データが、ラインバッファ1110−5に格納され、第2光電変換素子202の第Lm+5行の列データが、ラインバッファ1120−5に格納される。この転送タイミングで、出力制御部930は、ラインバッファ1120−1に格納されている第Lm+1行の列データを、第2画像処理エンジン220に出力し、ラインバッファ1110−1に格納されている第Lm行の列データを、第1画像処理エンジン210に出力する。第1画像処理エンジン210に出力された列データは、第1部分画像データにおける最下部から3つ上のラインの列データとしてバッファ領域に格納される。また、第2画像処理エンジン220に出力された列データは、第2部分画像データにおける最上部から3つ下のラインの列データとしてバッファ領域に格納される。   The column data of the (Lm−4) th row of the first photoelectric conversion element 201 is stored in the line buffer 1110-5, and the column data of the (Lm + 5) th row of the second photoelectric conversion element 202 is stored in the line buffer 1120-5. . At this transfer timing, the output control unit 930 outputs the column data of the (Lm + 1) th row stored in the line buffer 1120-1 to the second image processing engine 220, and stores it in the first line stored in the line buffer 1110-1. The Lm row column data is output to the first image processing engine 210. The column data output to the first image processing engine 210 is stored in the buffer area as column data of three lines above the bottom in the first partial image data. In addition, the column data output to the second image processing engine 220 is stored in the buffer area as column data of a line three lines below the top in the second partial image data.

この後、出力制御部930は、第1光電変換素子201および第2光電変換素子202からの読み出しに同期して、ラインバッファ1110からの列データの読み出し位置を順次にシフトして、第1画像処理エンジン210へ出力する。また、出力制御部930は、ラインバッファ1120からの列データの読み出し位置を順次にシフトして、第2画像処理エンジン220へ出力する。これにより、ラインバッファ1110およびラインバッファ1120から、第1画像処理エンジン210および第2画像処理エンジン220への列データの転送が完了すると、第1画像処理エンジン210のバッファ領域には、第Lm行の光電変換素子列より2行下の光電変換素子列の出力を含む第1部分画像データが格納された状態になる。また、第2画像処理エンジン220のバッファ領域には、第Lm+1行の光電変換素子列より2行上の光電変換素子列の出力を含む第2部分画像データが格納された状態になる。   Thereafter, the output control unit 930 sequentially shifts the reading position of the column data from the line buffer 1110 in synchronization with the reading from the first photoelectric conversion element 201 and the second photoelectric conversion element 202, and thereby the first image. Output to the processing engine 210. In addition, the output control unit 930 sequentially shifts the reading position of the column data from the line buffer 1120 and outputs it to the second image processing engine 220. Thus, when the transfer of the column data from the line buffer 1110 and the line buffer 1120 to the first image processing engine 210 and the second image processing engine 220 is completed, the buffer area of the first image processing engine 210 has the Lmth row. Thus, the first partial image data including the output of the photoelectric conversion element row two rows below the photoelectric conversion element row is stored. In addition, the buffer area of the second image processing engine 220 stores the second partial image data including the outputs of the photoelectric conversion element columns that are two rows higher than the (Lm + 1) th photoelectric conversion element columns.

図12は、画像処理を行う場合の画像処理エンジン部135における動作フローの変形例を示す。本フローは、図3のステップS306、ステップS356の内部フローとして適用できる。なお、本変形例を適用する場合、図3のS302においては、第1画像処理エンジン210は、第1光電変換素子201およびデータ光電変換素子列群1020に属する第2光電変換素子202に対応する部分の画像データを取得する。当該画像データを第1拡張部分画像データと呼ぶ。図3のS352においては、第2画像処理エンジン220は、光電変換素子列群1010に属する第1光電変換素子201および第2光電変換素子202に対応する画像の画像データを取得する。当該画像データを第2拡張部分画像データと呼ぶ。   FIG. 12 shows a modification of the operation flow in the image processing engine unit 135 when image processing is performed. This flow can be applied as the internal flow of steps S306 and S356 of FIG. When applying this modification, in S302 of FIG. 3, the first image processing engine 210 corresponds to the first photoelectric conversion element 201 and the second photoelectric conversion element 202 belonging to the data photoelectric conversion element column group 1020. Get the image data of the part. The image data is referred to as first extended partial image data. In S <b> 352 of FIG. 3, the second image processing engine 220 acquires image data of images corresponding to the first photoelectric conversion element 201 and the second photoelectric conversion element 202 belonging to the photoelectric conversion element array group 1010. The image data is referred to as second extended partial image data.

本フローが開始すると、第1画像処理エンジン210においては、第1拡張部分画像データに画像処理を施す(ステップS1202)。本処理では、第1画像処理エンジン210は、フィルタを適用して、RAW画像データに色補間処理を施して、YUV形式の画像データに変換する。輪郭強調処理等、種々の画像処理を施してよい。そして、第1画像処理エンジン210は、画像処理後の第1拡張部分画像データに圧縮処理を施し(ステップS1204)、ステップS1206に処理を進める。一例として、ステップS1204では、第1画像処理エンジン210は、JPEG形式の画像データを生成する。   When this flow starts, the first image processing engine 210 performs image processing on the first extended partial image data (step S1202). In this process, the first image processing engine 210 applies a filter, performs color interpolation processing on the RAW image data, and converts the image data into YUV format image data. Various image processing such as contour enhancement processing may be performed. Then, the first image processing engine 210 performs compression processing on the first extended partial image data after the image processing (step S1204), and proceeds to step S1206. As an example, in step S1204, the first image processing engine 210 generates JPEG image data.

第2画像処理エンジン220では、ステップS1202において、第2画像処理エンジン220においては、第2拡張部分画像データに画像処理を施す(ステップS1252)。本処理では、ステップS1202で第1拡張部分画像データに施された画像処理と同種の画像処理を施す。そして、第2画像処理エンジン220は、画像処理後の第2拡張部分画像データに圧縮処理を施す(ステップS1254)。本処理では、ステップS1202で第1拡張部分画像データに施された圧縮処理と同種の圧縮処理を施す。そして、第2画像処理エンジン220は、ステップS1254で第2拡張部分画像デーを圧縮することにより得られた圧縮部分画像データを、第1画像処理エンジン210へ送信する(ステップS1256)。   In the second image processing engine 220, in step S1202, the second image processing engine 220 performs image processing on the second extended partial image data (step S1252). In this processing, the same type of image processing as that performed on the first extended partial image data in step S1202 is performed. Then, the second image processing engine 220 performs compression processing on the second expanded partial image data after the image processing (step S1254). In this processing, the same type of compression processing as that performed on the first extended partial image data in step S1202 is performed. Then, the second image processing engine 220 transmits the compressed partial image data obtained by compressing the second extended partial image data in step S1254 to the first image processing engine 210 (step S1256).

第1画像処理エンジン210では、ステップS1206において第1拡張部分画像デーを圧縮することにより得られた圧縮部分画像データと、第2画像処理エンジン220から受信した圧縮部分画像データとをマージする。本処理では、第1画像処理エンジン210は、JPEG形式のデータを生成する。そして、第1画像処理エンジン210は、マージして得られた全体画像の圧縮画像データを、外部メモリ180へ記録し、本フローを終了する。   In the first image processing engine 210, the compressed partial image data obtained by compressing the first extended partial image data in step S1206 and the compressed partial image data received from the second image processing engine 220 are merged. In this process, the first image processing engine 210 generates JPEG format data. Then, the first image processing engine 210 records the compressed image data of the entire image obtained by merging in the external memory 180, and ends this flow.

本変形例によれば、第1画像処理エンジン210および第2画像処理エンジン220は、第1光電変換素子201と第2光電変換素子202との境界の画像領域にも、2次元フィルタを用いた画像処理を行うことができる。このため、第1画像処理エンジン210および第2画像処理エンジン220においてそれぞれ色補間処理や、YUV信号への変換処理等の種々の画像処理を行うことができる。そのため、第1画像処理エンジン210および第2画像処理エンジン220で画像処理を分担することができる。また、本フローで説明したように、第2画像処理エンジン220は、圧縮後の部分画像データを第1画像処理エンジン210へ送信するので、第1画像処理エンジン210への転送データ量を削減することができる。   According to this modification, the first image processing engine 210 and the second image processing engine 220 also use a two-dimensional filter in the image region at the boundary between the first photoelectric conversion element 201 and the second photoelectric conversion element 202. Image processing can be performed. Therefore, the first image processing engine 210 and the second image processing engine 220 can perform various image processing such as color interpolation processing and conversion processing to YUV signals. Therefore, the first image processing engine 210 and the second image processing engine 220 can share image processing. Further, as described in this flow, the second image processing engine 220 transmits the partial image data after compression to the first image processing engine 210, so that the amount of data transferred to the first image processing engine 210 is reduced. be able to.

本図においては、圧縮後の部分画像データを第1画像処理エンジン210へ送信する場合を取り上げて説明した。しかし、YUV形式の部分画像データを、第1画像処理エンジン210へ送信してもよい。そして、第1画像処理エンジン210において、YUV形式の部分画像データのマージを行ってもよい。なお、マージにより得られた全体画像の画像データは、第1画像処理エンジン210において圧縮され、外部メモリ180に記録されてよい。また、第1画像処理エンジン210は、マージにより得られた全体画像の画像データから、表示用の画像データを生成して、表示制御部137を介して表示部138に表示させてよい。   In this figure, the case where the compressed partial image data is transmitted to the first image processing engine 210 has been described. However, partial image data in YUV format may be transmitted to the first image processing engine 210. Then, the first image processing engine 210 may merge the partial image data in the YUV format. Note that the image data of the entire image obtained by merging may be compressed by the first image processing engine 210 and recorded in the external memory 180. The first image processing engine 210 may generate image data for display from the image data of the entire image obtained by merging and display it on the display unit 138 via the display control unit 137.

なお、表示用の画像データおよび記録用の圧縮画像データを生成する場合、第1画像処理エンジン210が圧縮画像データの生成を担い、第2画像処理エンジン220が表示用の画像データの生成を担ってもよい。第2画像処理エンジン220が表示用の画像データの生成を担う場合、本図のステップS1202において画像処理により得られた画像データを、第2画像処理エンジン220へ送信して、第2画像処理エンジン220において、表示用の全体画像の画像データを生成してもよい。この場合、第1画像処理エンジン210は、表示部138が有する表示画素数に応じて画素の間引き処理が施された画像データを生成して、第2画像処理エンジン220へ送信してもよい。   When generating display image data and recording compressed image data, the first image processing engine 210 is responsible for generating compressed image data, and the second image processing engine 220 is responsible for generating image data for display. May be. When the second image processing engine 220 is responsible for generating image data for display, the image data obtained by the image processing in step S1202 in the figure is transmitted to the second image processing engine 220, and the second image processing engine 220 At 220, image data for the entire display image may be generated. In this case, the first image processing engine 210 may generate image data that has been subjected to pixel thinning processing in accordance with the number of display pixels of the display unit 138 and transmit the image data to the second image processing engine 220.

図13は、撮像素子132から画像処理エンジン部135へ他の転送態様で転送するブロック構成の一例を模式的に示す。本例のカメラ10は、図1から図8等に関連して説明した機能ブロックに加えて、出力切換部1300をさらに有する。本転送形態では、出力切換部1300の制御により、同一のタイミングで露光を開始して出力された第1部分画像データおよび第2部分画像データは、異なるフレームの部分画像データとして画像処理エンジン部135へ出力される。出力切換部1300は、第1部分画像データの出力先を、第1画像処理エンジン210と第2画像処理エンジン220との間でフレーム毎に切り換える。また、出力切換部1300は、第2部分画像データの出力先を、第1画像処理エンジン210と第2画像処理エンジン220との間でフレーム毎に切り換える。   FIG. 13 schematically shows an example of a block configuration for transferring from the image sensor 132 to the image processing engine unit 135 in another transfer mode. The camera 10 of this example further includes an output switching unit 1300 in addition to the functional blocks described with reference to FIGS. In this transfer mode, the first partial image data and the second partial image data output by starting exposure at the same timing under the control of the output switching unit 1300 are the partial image data of different frames as the image processing engine unit 135. Is output. The output switching unit 1300 switches the output destination of the first partial image data between the first image processing engine 210 and the second image processing engine 220 for each frame. The output switching unit 1300 switches the output destination of the second partial image data between the first image processing engine 210 and the second image processing engine 220 for each frame.

図14は、撮像素子132の読み出しおよび出力先の切り替え制御の一例を模式的に示す。本図の例では、時刻t1、t2、t3から、第1光電変換素子201および第2光電変換素子202の露光が開始されるとする。本転送態様では、複数のタイミングのそれぞれから、光電変換素子列L1〜Lmおよび第2光電変換素子列Lm+1〜Lnで、光電変換素子列L1〜Lnが並ぶ特定の方向に順次に露光させる。具体的には、第1光電変換素子201においてはL1、L2、L3・・・の順で露光が開始され、第2光電変換素子202においてはLm+1、Lm+2、Lm+3・・・の順で露光が開始される。すなわち、第1光電変換素子201の光電変換素子列および第2光電変換素子202の光電変換素子列は、同一方向に順次に読み出しが開始される。そして、光電変換素子列L1〜Lmのうち光電変換素子列Lmが、順次に露光した場合に最後に露光される。光電変換素子列Lm+1〜Lnのうち、光電変換素子列Lmに隣接する光電変換素子列Lm+1が、順次に露光した場合に最初に露光される。   FIG. 14 schematically shows an example of reading control of the image sensor 132 and output destination switching control. In the example of this figure, it is assumed that the exposure of the first photoelectric conversion element 201 and the second photoelectric conversion element 202 is started at times t1, t2, and t3. In this transfer mode, the photoelectric conversion element arrays L1 to Lm and the second photoelectric conversion element arrays Lm + 1 to Ln are sequentially exposed in a specific direction in which the photoelectric conversion element arrays L1 to Ln are arranged from each of a plurality of timings. Specifically, the first photoelectric conversion element 201 starts exposure in the order of L1, L2, L3..., And the second photoelectric conversion element 202 performs exposure in the order of Lm + 1, Lm + 2, Lm + 3. Be started. That is, reading of the photoelectric conversion element array of the first photoelectric conversion element 201 and the photoelectric conversion element array of the second photoelectric conversion element 202 is sequentially started in the same direction. And when photoelectric conversion element row | line | column Lm exposes sequentially among photoelectric conversion element row | line | columns L1-Lm, it exposes last. Of the photoelectric conversion element arrays Lm + 1 to Ln, the photoelectric conversion element array Lm + 1 adjacent to the photoelectric conversion element array Lm is first exposed when sequentially exposed.

時刻t1から露光が開始されて第1光電変換素子201から出力された第1部分画像データは、出力切換部1300の制御により第1画像処理エンジン210へ出力され、第Nフレームの上領域の画像の画像データとして、バッファ領域に格納される。また、時刻t1から露光が開始されて第2光電変換素子202から出力された第2部分画像データは、出力切換部1300の制御により第2画像処理エンジン220へ出力され、第N−1フレームの上領域の画像の画像データとして、バッファ領域に格納される。   The first partial image data output from the first photoelectric conversion element 201 after the exposure is started at time t1 is output to the first image processing engine 210 under the control of the output switching unit 1300, and an image in the upper region of the Nth frame. Is stored in the buffer area. Further, the second partial image data output from the second photoelectric conversion element 202 after the exposure is started from the time t1 is output to the second image processing engine 220 under the control of the output switching unit 1300, and the N-1th frame. The image data of the upper area is stored in the buffer area.

時刻t1から光電変換素子列Lmの露光を開始した後の時刻t2から、第1光電変換素子列L1〜Lmおよび第2光電変換素子列Lm+1〜Lnで、順次に露光させる。時刻t2は、光電変換素子列Lmの露光が終了する時刻より前の時刻であってよい。時刻t2から露光が開始されて第2光電変換素子202から出力された第2部分画像データは、出力切換部1300の制御により第1画像処理エンジン210へ出力され、第Nフレームの下領域の画像の画像データとして、バッファ領域に格納される。そして、第1画像処理エンジン210において、第Nフレームの画像データに対して画像処理および符号化が行われ、表示部138の表示や外部メモリ180への記録に供される。   From the time t2 after the exposure of the photoelectric conversion element rows Lm is started from the time t1, the first photoelectric conversion element rows L1 to Lm and the second photoelectric conversion element rows Lm + 1 to Ln are sequentially exposed. The time t2 may be a time before the time when the exposure of the photoelectric conversion element array Lm ends. The second partial image data output from the second photoelectric conversion element 202 after the exposure is started at time t2 is output to the first image processing engine 210 under the control of the output switching unit 1300, and an image in the lower region of the Nth frame. Is stored in the buffer area. Then, the first image processing engine 210 performs image processing and encoding on the image data of the Nth frame, and is used for display on the display unit 138 and recording in the external memory 180.

時刻t3以後の部分画像データについても同様に、出力切換部1300の制御により、画像データの出力先は交互に切り替わる。このため、時刻t3から露光が開始されて得られた第2部分画像データは、第2画像処理エンジン220へ出力され、第2画像処理エンジン220において第N+1フレームの画像データに対して画像処理および符号化が行われ、表示部138の表示や外部メモリ180への記録に供される。   Similarly, for the partial image data after time t3, the output destination of the image data is alternately switched under the control of the output switching unit 1300. For this reason, the second partial image data obtained by starting the exposure from time t3 is output to the second image processing engine 220, and the second image processing engine 220 performs image processing and image processing on the image data of the (N + 1) th frame. Encoding is performed for display on the display unit 138 and recording in the external memory 180.

このように、本転送態様によれば、出力切換部1300は、第1のタイミングから光電変換素子列L1〜Lmで順次に露光することにより複数の光電変換素子列L1〜Lmから出力された第1部分画像データ、および、第1のタイミングに続く第2のタイミングから光電変換素子列Lm+1〜Lnで順次に露光することにより光電変換素子列Lm+1〜Lnから出力された第2部分画像データを、1つの第1画像の画像データとして出力する。また、出力切換部1300は、第2のタイミングから複数の光電変換素子列L1〜Lmで順次に露光することにより光電変換素子列L1〜Lmから出力された第3部分画像データ、および、第2のタイミングに続く第3のタイミングから光電変換素子列Lm+1〜Lnで順次に露光することにより第2光電変換素子列Lm+1〜Lnから出力された第2部分画像データを、第1画像に続く第2画像の画像データとして出力する。第1画像処理エンジン210および第2画像処理エンジン220は、それぞれ第1画像の画像データおよび第2画像の画像データに画像処理を施す。なお、出力切換部1300は、光電変換素子列L1〜Lmから出力された部分画像データおよび光電変換素子列Lm+1〜Lnから出力された部分画像データの出力先を第1画像処理エンジン210および第2画像処理エンジン220との間で順次に切り替えるセレクタを有してよい。本転送制御例によれば、光電変換素子を2分割して並列に読み出すことで読み出し時間を短縮することができる。高速な読み出しを実現しつつ、第1光電変換素子201および第2光電変換素子202の出力を、1つの画像処理エンジンで画像処理させることができる。このため、第1光電変換素子201および第2光電変換素子202の境界の領域の列データを各画像処理エンジンへ重複して供給する必要がない。また、第1画像処理エンジン210および第2画像処理エンジン220のそれぞれへ出力される画像データは、1つの全体画像の画像データであるので、画像処理エンジンにおけるセンサ補正処理等の画像処理機能を大きく変更する必要がない。   As described above, according to the present transfer mode, the output switching unit 1300 performs the sequential exposure with the photoelectric conversion element arrays L1 to Lm from the first timing to output the first output from the plurality of photoelectric conversion element arrays L1 to Lm. 1 partial image data, and second partial image data output from the photoelectric conversion element arrays Lm + 1 to Ln by sequentially exposing the photoelectric conversion element arrays Lm + 1 to Ln from the second timing following the first timing, Output as image data of one first image. In addition, the output switching unit 1300 sequentially exposes the plurality of photoelectric conversion element arrays L1 to Lm from the second timing, and outputs the third partial image data output from the photoelectric conversion element arrays L1 to Lm. The second partial image data output from the second photoelectric conversion element arrays Lm + 1 to Ln by sequentially exposing with the photoelectric conversion element arrays Lm + 1 to Ln from the third timing subsequent to the second timing is the second following the first image. Output as image data. The first image processing engine 210 and the second image processing engine 220 perform image processing on the image data of the first image and the image data of the second image, respectively. The output switching unit 1300 sets the output destinations of the partial image data output from the photoelectric conversion element arrays L1 to Lm and the partial image data output from the photoelectric conversion element arrays Lm + 1 to Ln as the first image processing engine 210 and the second image data. A selector that sequentially switches with the image processing engine 220 may be provided. According to this transfer control example, the readout time can be shortened by dividing the photoelectric conversion element into two and reading in parallel. The output of the first photoelectric conversion element 201 and the second photoelectric conversion element 202 can be image-processed by one image processing engine while realizing high-speed reading. For this reason, it is not necessary to redundantly supply the column data of the boundary region between the first photoelectric conversion element 201 and the second photoelectric conversion element 202 to each image processing engine. Further, since the image data output to each of the first image processing engine 210 and the second image processing engine 220 is image data of one whole image, the image processing function such as sensor correction processing in the image processing engine is greatly increased. There is no need to change.

また、被写体に動きがあり、被写体像にローリング歪が生じる場合でも、いわゆるローリング歪は一定方向の歪となる。1つの全体画像の全領域にわたって、ローリング歪の方向が一定になるので、閲覧者にとって違和感の少ない動画データをすることができる。   Further, even when a subject moves and rolling distortion occurs in the subject image, so-called rolling distortion becomes distortion in a certain direction. Since the direction of rolling distortion is constant over the entire area of one entire image, moving image data with less discomfort for the viewer can be obtained.

図15は、転送制御の変形例を示す。本変形例では、第1駆動回路21および第2駆動回路22のそれぞれは、第1画像処理エンジン210および第2画像処理エンジン220のいずれに画像処理させるかを識別する識別信号を、光電変換素子列L1〜Lmから出力された部分画像データおよび光電変換素子列Lm+1〜Lnから出力された部分画像データにそれぞれ対応づけて出力する。第1駆動回路21および第2駆動回路22が出力する識別情報と、第1画像処理エンジン210および第2画像処理エンジン220が識別情報に基づいて部分画像データの受け入れを決定することによって、第1画像処理エンジン210および第2画像処理エンジン220が扱う部分画像データが切り替えられる。具体的には、第1駆動回路21および第2駆動回路22の出力は、それぞれ第1画像処理エンジン210および第2画像処理エンジン220に供給される。ここで、第1駆動回路21および第2駆動回路22は、それぞれを識別する識別コードと、出力先の画像処理エンジンを識別する同期コードに対応づけて、部分画像データを出力する。   FIG. 15 shows a modification of transfer control. In the present modification, each of the first drive circuit 21 and the second drive circuit 22 outputs an identification signal for identifying which of the first image processing engine 210 and the second image processing engine 220 is to perform image processing to the photoelectric conversion element. The partial image data output from the columns L1 to Lm and the partial image data output from the photoelectric conversion element columns Lm + 1 to Ln are output in association with each other. The first drive circuit 21 and the second drive circuit 22 determine the acceptance of the partial image data based on the identification information output from the first image processing engine 210 and the second image processing engine 220 based on the identification information. The partial image data handled by the image processing engine 210 and the second image processing engine 220 are switched. Specifically, the outputs of the first drive circuit 21 and the second drive circuit 22 are supplied to the first image processing engine 210 and the second image processing engine 220, respectively. Here, the first drive circuit 21 and the second drive circuit 22 output partial image data in association with an identification code for identifying each and a synchronization code for identifying an output image processing engine.

図14に例示したシーケンスで画像処理させる場合、第1駆動回路21は、時刻t1から露光を開始して得られた部分画像データに対応づけて、同期コードSyncAを出力する。一方、第2駆動回路22は、時刻t1から露光を開始して得られた部分画像データに対応づけて、同期コードSyncBを出力する。そして、第1駆動回路21は、時刻t2から露光を開始して得られた部分画像データに対応づけて、同期コードSyncBを出力する。また、第2駆動回路22は、時刻t2から露光を開始して得られた部分画像データに対応づけて、同期コードSyncAを出力する。   When image processing is performed in the sequence illustrated in FIG. 14, the first drive circuit 21 outputs the synchronization code SyncA in association with the partial image data obtained by starting exposure from time t1. On the other hand, the second drive circuit 22 outputs a synchronization code SyncB in association with the partial image data obtained by starting exposure from time t1. Then, the first drive circuit 21 outputs a synchronization code SyncB in association with the partial image data obtained by starting exposure from time t2. The second drive circuit 22 outputs a synchronization code SyncA in association with the partial image data obtained by starting exposure from time t2.

第1画像処理エンジン210は、同期コードSyncAに対応づけて出力された部分画像データを受け取って、バッファ領域に格納する。第2画像処理エンジン220は、SyncBに対応づけて出力された部分画像データを受け取って、バッファ領域に格納する。このため、時刻t1から露光を開始して得られた第1部分画像データは、SyncAに対応づけて第1駆動回路21から出力されたものと判断され、第1画像処理エンジン210が第1部分画像データを受け入れて、第Nフレームの下領域の部分領域の画像データとしてバッファ領域に格納する。そして、時刻t2から露光を開始して得られた第2部分画像データは、SyncAに対応づけて第2駆動回路22から出力されたものと判断され、第1画像処理エンジン210が第2部分画像データを受け入れて、第Nフレームの下領域の部分領域の画像データとしてバッファ領域に格納する。   The first image processing engine 210 receives the partial image data output in association with the synchronization code SyncA and stores it in the buffer area. The second image processing engine 220 receives the partial image data output in association with SyncB and stores it in the buffer area. Therefore, it is determined that the first partial image data obtained by starting exposure from time t1 is output from the first drive circuit 21 in association with SyncA, and the first image processing engine 210 performs the first partial image data. Image data is received and stored in the buffer area as image data of a partial area below the Nth frame. Then, it is determined that the second partial image data obtained by starting the exposure from time t2 is output from the second drive circuit 22 in association with SyncA, and the first image processing engine 210 performs the second partial image. The data is received and stored in the buffer area as image data of a partial area below the Nth frame.

なお、以上の例では、いわゆるローリングシャッタ方式で撮像動作を行う場合について説明した。静止画を撮像する場合等、いわゆるグローバルシャッタ動作を行う場合には、第1光電変換素子201および第2光電変換素子202の蓄積電荷をリセットした後、第1光電変換素子201、第2光電変換素子202の順に読み出しを行い、第1光電変換素子201の出力および第2光電変換素子202からの出力を、第1画像処理エンジン210へ出力するようにすればよい。すなわち、1つの静止画の画像データを生成する撮像動作を行う場合に、露光開始タイミングから、第1光電変換素子列L1からLmで第1の方向に順次に露光させ、第1の露光開始タイミングに続くタイミングから、第2光電変換素子列Lm+1〜Lnで光電変換素子列L1〜Lnが並ぶ方向に順次に露光させる。出力切換部1300は、第1の露光開始タイミングの続くタイミングから光電変換素子列L1〜Lmで順次に露光することにより光電変換素子列L1〜Lmから出力された第1部分画像データ、および、続くタイミングから光電変換素子列Lm+1〜Lnで順次に露光することにより光電変換素子列Lm+1〜Lnから出力された部分画像データを、静止画の画像データとして出力してよい。   In the above example, the case where the imaging operation is performed by the so-called rolling shutter method has been described. In the case of performing a so-called global shutter operation, such as when capturing a still image, the first photoelectric conversion element 201 and the second photoelectric conversion are performed after resetting the accumulated charges of the first photoelectric conversion element 201 and the second photoelectric conversion element 202. Reading may be performed in the order of the elements 202, and the output of the first photoelectric conversion element 201 and the output from the second photoelectric conversion element 202 may be output to the first image processing engine 210. That is, when performing an imaging operation for generating image data of one still image, the first photoelectric conversion element arrays L1 to Lm sequentially expose in the first direction from the exposure start timing, and the first exposure start timing. Are sequentially exposed in the direction in which the photoelectric conversion element arrays L1 to Ln are arranged in the second photoelectric conversion element arrays Lm + 1 to Ln. The output switching unit 1300 first exposes the first partial image data output from the photoelectric conversion element arrays L1 to Lm by sequentially exposing with the photoelectric conversion element arrays L1 to Lm from the timing after the first exposure start timing, and continues. The partial image data output from the photoelectric conversion element arrays Lm + 1 to Ln by sequentially exposing the photoelectric conversion element arrays Lm + 1 to Ln from the timing may be output as still image data.

また、図1から図12等に関連して説明したように、評価値算出処理等の種々の処理を第1画像処理エンジン210および第2画像処理エンジン220で分担してもよい。例えば、処理の種類毎に、第1画像処理エンジン210および第2画像処理エンジン220の間で演算を分担してもよい。例えば、第1画像処理エンジン210が顔検出を行い、第2画像処理エンジン220がテンプレートマッチングを行うようにしてもよい。   Further, as described with reference to FIGS. 1 to 12 and the like, various processes such as the evaluation value calculation process may be shared by the first image processing engine 210 and the second image processing engine 220. For example, the calculation may be shared between the first image processing engine 210 and the second image processing engine 220 for each type of processing. For example, the first image processing engine 210 may perform face detection, and the second image processing engine 220 may perform template matching.

以上に説明した転送態様によれば、第1画像処理エンジン210、第2画像処理エンジン220を大きく設計変更することなく、撮像素子132が有する光電変換素子を複数組に分けて並列に読み出す読み出し制御に対応させることができる。   According to the transfer mode described above, readout control for reading out the photoelectric conversion elements included in the image sensor 132 in multiple sets in parallel without greatly changing the design of the first image processing engine 210 and the second image processing engine 220. It can be made to correspond.

なお、以上の説明では、撮像素子132は、光電変換素子の組を2組有するとした。しかし、撮像素子132は、光電変換素子の組を3組以上有してもよい。画像処理エンジン部135は、光電変換素子の組の数と同数の画像処理エンジンを有してよい。また、光電変換素子の組の配置態様としては、本例に説明したように上下方向に分離して配置する態様だけでなく、種々の配置態様を適用できる。例えば、第1光電変換素子と第2光電変換素子を、行方向および列方向の少なくとも一方に、交互に設けてもよい。   In the above description, the imaging element 132 has two sets of photoelectric conversion elements. However, the imaging element 132 may have three or more sets of photoelectric conversion elements. The image processing engine unit 135 may include the same number of image processing engines as the number of sets of photoelectric conversion elements. Moreover, as an arrangement mode of the set of photoelectric conversion elements, not only an aspect in which the photoelectric conversion elements are arranged separately in the vertical direction as described in this example but also various arrangement modes can be applied. For example, the first photoelectric conversion element and the second photoelectric conversion element may be alternately provided in at least one of the row direction and the column direction.

上記の説明において、カメラMPU140の動作として説明した処理は、カメラMPU140がプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。また、上記の説明において画像処理エンジン部135により実現される処理は、プロセッサによって実現することができる。例えば、画像処理エンジン部135の動作として説明した処理は、プロセッサがプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。すなわち、本実施形態のカメラ10に関連して説明した処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。   In the above description, the processing described as the operation of the camera MPU 140 is realized by the camera MPU 140 controlling each hardware of the camera 10 according to a program. Further, the processing realized by the image processing engine unit 135 in the above description can be realized by a processor. For example, the processing described as the operation of the image processing engine unit 135 is realized by the processor controlling each hardware of the camera 10 according to the program. That is, the processing described in relation to the camera 10 of the present embodiment is performed by the processor operating in accordance with the program to control each hardware, so that each hardware including the processor, the memory, and the like cooperates with the program. It can be realized by operating. That is, the process can be realized by a so-called computer device. The computer device may load a program for controlling the execution of the above-described process, operate according to the read program, and execute the process. The computer device can load the program from a computer-readable recording medium storing the program.

また、本実施形態において、レンズユニット120が装着された状態のカメラ10を、撮像装置の一例として取り上げた。しかし、撮像装置とは、レンズユニット120が装着されていないカメラ本体130を含む概念である。撮像装置としては、レンズ交換式カメラの一例である一眼レフレックスカメラの他に、レンズ非交換式カメラの一例であるコンパクトデジタルカメラ、ミラーレス式カメラ、ビデオカメラ、撮像機能付きの携帯電話機、撮像機能付きの携帯情報端末、撮像機能付きのゲーム機器等の娯楽装置等、撮像機能を有する種々の電子機器を適用の対象とすることができる。   In the present embodiment, the camera 10 with the lens unit 120 attached is taken as an example of an imaging apparatus. However, the imaging device is a concept including the camera body 130 to which the lens unit 120 is not attached. As an imaging device, in addition to a single-lens reflex camera that is an example of an interchangeable lens camera, a compact digital camera that is an example of a non-interchangeable camera, a mirrorless camera, a video camera, a mobile phone with an imaging function, imaging Various electronic devices having an imaging function, such as a portable information terminal with a function and an entertainment device such as a game machine with an imaging function, can be applied.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 カメラ、20 レンズユニット、121 レンズマウント接点、122 レンズ群、123 レンズMPU、124 レンズ駆動部、130 カメラ本体、131 カメラマウント接点、132 撮像素子、135 画像処理エンジン部、136 RAM、137 表示制御部、138 表示部、139 システムメモリ、140 カメラMPU、141 操作入力部、142 AFユニット、143 フォーカルプレーンシャッタ、144 測光素子、145 メインミラー、146 サブミラー、147 ファインダ部、148 駆動部、149 接続インタフェース、150 記録媒体IF、180 外部メモリ、190 電源、192 電源回路 DESCRIPTION OF SYMBOLS 10 Camera, 20 Lens unit, 121 Lens mount contact, 122 Lens group, 123 Lens MPU, 124 Lens drive part, 130 Camera body, 131 Camera mount contact, 132 Image sensor, 135 Image processing engine part, 136 RAM, 137 Display control Unit, 138 display unit, 139 system memory, 140 camera MPU, 141 operation input unit, 142 AF unit, 143 focal plane shutter, 144 photometric element, 145 main mirror, 146 sub mirror, 147 finder unit, 148 drive unit, 149 connection interface 150 recording medium IF, 180 external memory, 190 power supply, 192 power supply circuit

Claims (26)

複数の第1光電変換素子および複数の第2光電変換素子を有する撮像素子と、
前記複数の第1光電変換素子の出力を読み出して、前記複数の第1光電変換素子が設けられた部分に対応する画像の画像データである第1部分画像データを出力する第1読み出し回路と、
前記複数の第2光電変換素子の出力を読み出して、前記複数の第2光電変換素子に設けられた部分に対応する画像の画像データである第2部分画像データを出力する第2読み出し回路と、
前記第1読み出し回路から出力された前記第1部分画像データから、第1評価値を算出する第1算出部と、
前記第2読み出し回路から出力された前記第2部分画像データから、第2評価値を算出する第2算出部と
を備える撮像装置。
An imaging device having a plurality of first photoelectric conversion elements and a plurality of second photoelectric conversion elements;
A first readout circuit that reads out the outputs of the plurality of first photoelectric conversion elements and outputs first partial image data that is image data of an image corresponding to a portion provided with the plurality of first photoelectric conversion elements;
A second readout circuit that reads out the outputs of the plurality of second photoelectric conversion elements and outputs second partial image data that is image data of an image corresponding to a portion provided in the plurality of second photoelectric conversion elements;
A first calculator that calculates a first evaluation value from the first partial image data output from the first readout circuit;
An imaging apparatus comprising: a second calculation unit that calculates a second evaluation value from the second partial image data output from the second readout circuit.
前記第1評価値および前記第2評価値に基づいて、前記第1部分画像データおよび前記第2部分画像データで表される1つの画像を評価する第1評価部
をさらに備える請求項1に記載の撮像装置。
The first evaluation unit that evaluates one image represented by the first partial image data and the second partial image data based on the first evaluation value and the second evaluation value. Imaging device.
前記第1評価値および前記第2評価値に基づいて、前記第1部分画像データおよび前記第2部分画像データで表される1つの画像を評価する第2評価部
をさらに備える請求項2に記載の撮像装置。
The second evaluation unit that evaluates one image represented by the first partial image data and the second partial image data based on the first evaluation value and the second evaluation value. Imaging device.
前記撮像素子は複数のタイミングで連続して撮像し、
前記第1評価部は、前記撮像素子が第1のタイミングで撮像した場合において、前記第1評価値および前記第2評価値に基づいて、前記第1のタイミングで撮像することにより得られた前記第1部分画像データおよび前記第2部分画像データで表される1つの画像を評価し、
前記第2評価部は、前記撮像素子が前記第1のタイミングに続く第2のタイミングで撮像した場合において、前記第1評価値および前記第2評価値に基づいて、前記第2のタイミングで撮像することにより得られた前記第1部分画像データおよび前記第2部分画像データで表される1つの画像を評価する
請求項3に記載の撮像装置。
The image sensor continuously images at a plurality of timings,
The first evaluation unit is obtained by imaging at the first timing based on the first evaluation value and the second evaluation value when the imaging element images at the first timing. Evaluating one image represented by the first partial image data and the second partial image data;
The second evaluation unit picks up an image at the second timing based on the first evaluation value and the second evaluation value when the image pickup device picks up an image at the second timing following the first timing. The imaging apparatus according to claim 3, wherein one image represented by the first partial image data and the second partial image data obtained by performing the evaluation is evaluated.
前記第1算出部は、前記第1評価値として第1の種類の評価値を算出し、
前記第2算出部は、前記第2評価値として第2の種類の評価値を算出する
請求項3に記載の撮像装置。
The first calculation unit calculates a first type of evaluation value as the first evaluation value;
The imaging apparatus according to claim 3, wherein the second calculation unit calculates a second type of evaluation value as the second evaluation value.
前記撮像素子は複数のタイミングで連続して撮像し、
前記第1算出部は、前記撮像素子が第1のタイミングで撮像した場合において、前記第1評価値として第1の種類の評価値を算出し、
前記第2算出部は、前記撮像素子が前記第1のタイミングで撮像した場合において、前記第2評価値として第2の種類の評価値を算出し、
前記第1算出部は、前記撮像素子が前記第1のタイミングに続く第2のタイミングで撮像した場合において、前記第1評価値として前記第2の種類の評価値を算出し、
前記第2算出部は、前記撮像素子が前記第2のタイミングで撮像した場合において、前記第2評価値として前記第1の種類の評価値を算出する
請求項3に記載の撮像装置。
The image sensor continuously images at a plurality of timings,
The first calculation unit calculates a first type of evaluation value as the first evaluation value when the image sensor has imaged at a first timing;
The second calculation unit calculates a second type of evaluation value as the second evaluation value when the image sensor has imaged at the first timing,
The first calculation unit calculates the second type of evaluation value as the first evaluation value when the imaging element images at a second timing following the first timing,
The imaging apparatus according to claim 3, wherein the second calculation unit calculates the first type of evaluation value as the second evaluation value when the imaging device captures an image at the second timing.
前記第1評価値および前記第2評価値は、焦点状態を評価するためのAF評価値、露出状態を評価するための露出評価値、ホワイトバランス状態を評価するためのホワイトバランス評価値、人物の顔の位置を評価するための顔検出情報の少なくともいずれかを含む
請求項1から6のいずれか一項に記載の撮像装置。
The first evaluation value and the second evaluation value are an AF evaluation value for evaluating a focus state, an exposure evaluation value for evaluating an exposure state, a white balance evaluation value for evaluating a white balance state, The imaging apparatus according to claim 1, comprising at least one of face detection information for evaluating a face position.
前記第2算出部と、前記第2部分画像データを出力する第2出力部とを有する第2処理部と、
前記第1算出部と、前記第1部分画像データおよび前記第2出力部が出力した前記第2部分画像データで表される1つの画像の画像データに画像処理を施す第1画像処理部とを有する第1処理部と
を備える請求項1から7のいずれか一項に記載の撮像装置。
A second processing unit having the second calculation unit and a second output unit for outputting the second partial image data;
A first image processing unit configured to perform image processing on image data of one image represented by the first partial image data and the second partial image data output by the second output unit; The imaging device according to any one of claims 1 to 7, further comprising a first processing unit.
前記第1処理部は、前記第1部分画像データを前記第2処理部へ出力する第1出力部をさらに有し、
前記第2処理部は、前記第2部分画像データおよび前記第1出力部が出力した前記第1部分画像データで表される1つの画像の画像データに画像処理を施す第2画像処理部をさらに有する
請求項8に記載の撮像装置。
The first processing unit further includes a first output unit that outputs the first partial image data to the second processing unit,
The second processing unit further includes a second image processing unit that performs image processing on image data of one image represented by the second partial image data and the first partial image data output by the first output unit. The imaging apparatus according to claim 8.
前記撮像素子は複数のタイミングで連続して撮像し、
前記第2出力部は、前記撮像素子が第1のタイミングで撮像した場合において、前記第2部分画像データを前記第1画像処理部へ出力し、
前記第1出力部は、前記撮像素子が前記第1のタイミングに続く第2のタイミングで撮像した場合において、前記第1部分画像データを前記第2画像処理部へ出力する
請求項9に記載の撮像装置。
The image sensor continuously images at a plurality of timings,
The second output unit outputs the second partial image data to the first image processing unit when the imaging element captures an image at a first timing,
The said 1st output part outputs the said 1st partial image data to the said 2nd image process part, when the said image pick-up element imaged at the 2nd timing following the said 1st timing. Imaging device.
前記第1出力部は、RAW画像データである前記第1部分画像データを、前記第2処理部へ出力し、
前記第2画像処理部は、前記第1部分画像データおよびRAW画像データである前記第2部分画像データで表される1つの画像の画像データに色補間処理および圧縮処理を含む画像処理を施し、
前記第2出力部は、前記第2画像処理部が前記画像処理を施すことにより得られた圧縮された画像データを、前記第1処理部へ出力し、
前記第1処理部は、前記圧縮された画像データを記録媒体に記録する記録制御部をさらに有する
請求項10に記載の撮像装置。
The first output unit outputs the first partial image data, which is RAW image data, to the second processing unit,
The second image processing unit performs image processing including color interpolation processing and compression processing on image data of one image represented by the second partial image data which is the first partial image data and RAW image data,
The second output unit outputs the compressed image data obtained by the second image processing unit performing the image processing to the first processing unit,
The imaging apparatus according to claim 10, wherein the first processing unit further includes a recording control unit that records the compressed image data on a recording medium.
前記第2出力部は、RAW画像データである前記第2部分画像データを、前記第1処理部へ出力し、
前記第1画像処理部は、RAW画像データである前記第1部分画像データおよび前記第2部分画像データで表される1つの画像の画像データに、色補間処理および圧縮処理を含む画像処理を施す
請求項8から11のいずれか一項に記載の撮像装置。
The second output unit outputs the second partial image data, which is RAW image data, to the first processing unit,
The first image processing unit performs image processing including color interpolation processing and compression processing on image data of one image represented by the first partial image data and the second partial image data which are RAW image data. The imaging device according to any one of claims 8 to 11.
撮像部が有する複数の第1光電変換素子の出力を読み出して、前記複数の第1光電変換素子が設けられた部分に対応する画像の画像データである第1画像データを出力する第1読み出し回路と、
前記撮像部が有する複数の第2光電変換素子の出力を読み出して、前記複数の第2光電変換素子に設けられた部分に対応する画像の画像データである第2画像データを出力する第2読み出し回路と、
前記第1読み出し回路から出力された前記第1画像データから第1評価値を算出する第1算出部と、
前記第2読み出し回路から出力された前記第2画像データから第2評価値を算出する第2算出部と
を備え、
前記第1算出部は、前記第1評価値を前記第2算出部へ出力し、
前記第2算出部は、前記第2評価値を前記第1算出部へ出力する
撮像装置。
A first readout circuit that reads out outputs of a plurality of first photoelectric conversion elements included in the imaging unit and outputs first image data that is image data of an image corresponding to a portion provided with the plurality of first photoelectric conversion elements. When,
Second readout for reading out outputs of a plurality of second photoelectric conversion elements included in the imaging unit and outputting second image data that is image data corresponding to portions provided in the plurality of second photoelectric conversion elements. Circuit,
A first calculator that calculates a first evaluation value from the first image data output from the first readout circuit;
A second calculation unit that calculates a second evaluation value from the second image data output from the second readout circuit;
The first calculation unit outputs the first evaluation value to the second calculation unit,
The second calculation unit is an imaging apparatus that outputs the second evaluation value to the first calculation unit.
前記複数の第1光電変換素子および前記複数の第2光電変換素子は、それぞれ複数の光電変換素子列を形成し、
前記複数の第1光電変換素子が形成する複数の光電変換素子列のうちの1つの第1光電変換素子列は、前記複数の第2光電変換素子が形成する複数の光電変換素子列のうちの1つの第2光電変換素子列と隣接し、
前記撮像装置は、
前記第1読み出し回路から順次に出力された、予め定められた数の光電変換素子列の列データを保持する第1バッファ部と、
前記第2読み出し回路から順次に出力された、予め定められた数の光電変換素子列の列データを保持する第2バッファ部と、
前記第2バッファ部に保持されている前記第2光電変換素子列の列データを前記第1算出部へ出力し、前記第1バッファ部に保持されている前記第1光電変換素子列の列データを前記第1算出部へ出力する出力制御部と
をさらに備える請求項1から13のいずれか一項に記載の撮像装置。
The plurality of first photoelectric conversion elements and the plurality of second photoelectric conversion elements each form a plurality of photoelectric conversion element arrays,
One of the plurality of photoelectric conversion element arrays formed by the plurality of first photoelectric conversion elements is one of the plurality of photoelectric conversion element arrays formed by the plurality of second photoelectric conversion elements. Adjacent to one second photoelectric conversion element array,
The imaging device
A first buffer unit that holds column data of a predetermined number of photoelectric conversion element columns sequentially output from the first readout circuit;
A second buffer unit that holds column data of a predetermined number of photoelectric conversion element columns sequentially output from the second readout circuit;
Column data of the second photoelectric conversion element array held in the second buffer section is output to the first calculation section, and column data of the first photoelectric conversion element array held in the first buffer section is output. The imaging apparatus according to claim 1, further comprising: an output control unit that outputs the output to the first calculation unit.
前記第1算出部は、前記第2光電変換素子列の列データおよび前記複数の第1光電変換素子が形成する前記複数の光電変換素子列の列データで表される1つの画像の画像データから前記第1評価値を算出する
請求項14に記載の撮像装置。
The first calculation unit is configured based on image data of one image represented by column data of the second photoelectric conversion element array and column data of the plurality of photoelectric conversion element arrays formed by the plurality of first photoelectric conversion elements. The imaging device according to claim 14, wherein the first evaluation value is calculated.
第1の方向にそれぞれ連続して並ぶ複数の第1光電変換素子列および複数の第2光電変換素子列を有する撮像素子と、
複数のタイミングのそれぞれから、前記複数の第1光電変換素子列および前記複数の第2光電変換素子列で、前記第1の方向に順次に露光させる露光制御部と、
第1のタイミングから前記複数の第1光電変換素子列で順次に露光することにより前記複数の第1光電変換素子列から出力された第1部分画像データ、および、前記第1のタイミングに続く第2のタイミングから前記複数の第2光電変換素子列で順次に露光することにより前記複数の第2光電変換素子列から出力された第2部分画像データを、1つの第1画像の画像データとして出力する出力制御部と
を備える撮像装置。
An imaging device having a plurality of first photoelectric conversion element rows and a plurality of second photoelectric conversion element rows that are successively arranged in the first direction;
An exposure control unit that sequentially exposes the first photoelectric conversion element array and the plurality of second photoelectric conversion element arrays in the first direction from each of a plurality of timings;
The first partial image data output from the plurality of first photoelectric conversion element arrays by sequentially exposing the plurality of first photoelectric conversion element arrays from the first timing, and the first timing following the first timing. The second partial image data output from the plurality of second photoelectric conversion element arrays is output as image data of one first image by sequentially exposing the plurality of second photoelectric conversion element arrays from the timing of 2. And an output control unit.
前記出力制御部は、前記第2のタイミングから前記複数の第1光電変換素子列で順次に露光することにより前記複数の第1光電変換素子列から出力された第3部分画像データ、および、前記第2のタイミングに続く第3のタイミングから前記複数の第2光電変換素子列で順次に露光することにより前記複数の第2光電変換素子列から出力された第4部分画像データを、前記第1画像に続く第2画像の画像データとして出力する
請求項16に記載の撮像装置。
The output control unit is configured to sequentially expose the plurality of first photoelectric conversion element arrays from the second timing to output third partial image data output from the plurality of first photoelectric conversion element arrays, and The fourth partial image data output from the plurality of second photoelectric conversion element arrays by sequentially exposing with the plurality of second photoelectric conversion element arrays from a third timing following the second timing, The image pickup apparatus according to claim 16, wherein the image pickup apparatus outputs image data of a second image following the image.
前記第1画像の画像データに画像処理を施す第1画像処理部と、
前記第2画像の画像データに画像処理を施す第2画像処理部と
をさらに備える請求項17に記載の撮像装置。
A first image processing unit that performs image processing on image data of the first image;
The imaging apparatus according to claim 17, further comprising: a second image processing unit that performs image processing on image data of the second image.
前記出力制御部は、前記複数の第1光電変換素子列から出力された部分画像データおよび前記複数の第2光電変換素子列から出力された部分画像データの出力先を、前記第1画像処理部および前記第2画像処理部との間で順次に切り替えるセレクタを有する
請求項18に記載の撮像装置。
The output control unit outputs the partial image data output from the plurality of first photoelectric conversion element arrays and the output destination of the partial image data output from the plurality of second photoelectric conversion element arrays to the first image processing unit. The imaging apparatus according to claim 18, further comprising a selector that sequentially switches between the second image processing unit and the second image processing unit.
前記出力制御部は、前記第1画像処理部および前記第2画像処理部のいずれに画像処理させるかを識別する識別信号を、前記複数の第1光電変換素子列から出力された部分画像データおよび前記複数の第2光電変換素子列から出力された部分画像データにそれぞれ対応づけて出力する
請求項18に記載の撮像装置。
The output control unit outputs an identification signal for identifying which of the first image processing unit and the second image processing unit to perform image processing, partial image data output from the plurality of first photoelectric conversion element arrays, and The image pickup apparatus according to claim 18, wherein the image pickup apparatus outputs the image data in association with the partial image data output from the plurality of second photoelectric conversion element arrays.
前記複数の第1光電変換素子列のうち、順次に露光した場合に最後に露光される光電変換素子列は、前記複数の第2光電変換素子列で順次に露光した場合に最初に露光される光電変換素子列と隣接し、
前記露光制御部は、第1のタイミングから前記複数の第1光電変換素子列で露光した場合に前記最後に露光される光電変換素子列の露光を開始した後の前記第2のタイミングから、前記複数の第1光電変換素子列および前記複数の第2光電変換素子列で、順次に露光させる
請求項16から20のいずれか一項に記載の撮像装置。
Among the plurality of first photoelectric conversion element arrays, the photoelectric conversion element array that is exposed last when sequentially exposed is first exposed when the plurality of second photoelectric conversion element arrays are sequentially exposed. Adjacent to the photoelectric conversion element array,
The exposure control unit, from the second timing after starting exposure of the photoelectric conversion element row exposed last when the plurality of first photoelectric conversion element rows are exposed from the first timing, The imaging device according to any one of claims 16 to 20, wherein the plurality of first photoelectric conversion element arrays and the plurality of second photoelectric conversion element arrays are sequentially exposed.
前記露光制御部は、第1のタイミングから前記複数の第1光電変換素子列で露光した場合に前記最後に露光される光電変換素子列の露光が終了する前の前記第2のタイミングから、前記複数の第1光電変換素子列および前記複数の第2光電変換素子列で、順次に露光させる
請求項21に記載の撮像装置。
When the exposure control unit is exposed from the first timing with the plurality of first photoelectric conversion element arrays, from the second timing before the exposure of the photoelectric conversion element array exposed last is completed, The imaging apparatus according to claim 21, wherein the plurality of first photoelectric conversion element arrays and the plurality of second photoelectric conversion element arrays are sequentially exposed.
前記複数の第1光電変換素子列のうち、順次に露光した場合に最後に露光される光電変換素子列は、前記複数の第2光電変換素子列で順次に露光した場合に最初に露光される光電変換素子列と隣接し、
前記露光制御部は、1つの静止画の画像データを生成する撮像動作を行う場合に、第4のタイミングから、前記複数の第1光電変換素子列で前記第1の方向に順次に露光させ、前記第4のタイミングに続く第5のタイミングから、前記複数の第2光電変換素子列で前記第1の方向に順次に露光させ、
前記出力制御部は、前記第4のタイミングから前記複数の第1光電変換素子列で順次に露光することにより前記複数の第1光電変換素子列から出力された前記第1部分画像データ、および、前記第5のタイミングから前記複数の第2光電変換素子列で順次に露光することにより前記複数の第2光電変換素子列から出力された前記第2部分画像データを、前記静止画の画像データとして出力する
請求項16から22のいずれか一項に記載の撮像装置。
Among the plurality of first photoelectric conversion element arrays, the photoelectric conversion element array that is exposed last when sequentially exposed is first exposed when the plurality of second photoelectric conversion element arrays are sequentially exposed. Adjacent to the photoelectric conversion element array,
When performing an imaging operation for generating image data of one still image, the exposure control unit sequentially exposes the plurality of first photoelectric conversion element arrays in the first direction from a fourth timing, From the fifth timing following the fourth timing, the plurality of second photoelectric conversion element arrays are sequentially exposed in the first direction,
The output control unit, the first partial image data output from the plurality of first photoelectric conversion element rows by sequentially exposing the plurality of first photoelectric conversion element rows from the fourth timing, and The second partial image data output from the plurality of second photoelectric conversion element arrays by sequentially exposing the plurality of second photoelectric conversion element arrays from the fifth timing is used as image data of the still image. The imaging device according to any one of claims 16 to 22, wherein the imaging device outputs the image.
複数の第1光電変換素子および複数の第2光電変換素子を有する撮像素子を有する撮像装置用のプログラムであって、
第1読み出し回路に、前記複数の第1光電変換素子の出力を読み出して、前記複数の第1光電変換素子が設けられた部分に対応する画像の画像データである第1部分画像データを出力させるステップと、
第2読み出し回路に、前記複数の第2光電変換素子の出力を読み出して、前記複数の第2光電変換素子に設けられた部分に対応する画像の画像データである第2部分画像データを出力させるステップと、
第1算出部に、前記第1読み出し回路から出力された前記第1部分画像データから、第1評価値を算出させるステップと、
第2算出部に、前記第2読み出し回路から出力された前記第2部分画像データから、第2評価値を算出させるステップと
をコンピュータに実行させるためのプログラム。
A program for an imaging apparatus having an imaging element having a plurality of first photoelectric conversion elements and a plurality of second photoelectric conversion elements,
The first readout circuit reads out the outputs of the plurality of first photoelectric conversion elements, and outputs first partial image data that is image data of an image corresponding to a portion provided with the plurality of first photoelectric conversion elements. Steps,
The second readout circuit reads out the outputs of the plurality of second photoelectric conversion elements, and outputs second partial image data that is image data of an image corresponding to a portion provided in the plurality of second photoelectric conversion elements. Steps,
Causing the first calculation unit to calculate a first evaluation value from the first partial image data output from the first readout circuit;
A program for causing a computer to execute a step of causing a second calculation unit to calculate a second evaluation value from the second partial image data output from the second readout circuit.
第1読み出し回路に、撮像部が有する複数の第1光電変換素子の出力を読み出させて、前記複数の第1光電変換素子が設けられた部分に対応する画像の画像データである第1画像データを出力させるステップと、
第2読み出し回路に、前記撮像部が有する複数の第2光電変換素子の出力を読み出させて、前記複数の第2光電変換素子に設けられた部分に対応する画像の画像データである第2画像データを出力させるステップと、
第1算出部に、前記第1読み出し回路から出力された前記第1画像データから第1評価値を算出させるステップと、
第2算出部に、前記第2読み出し回路から出力された前記第2画像データから第2評価値を算出させるステップと、
前記第1評価値を前記第2算出部へ出力するステップと、
前記第2評価値を前記第1算出部へ出力するステップと
をコンピュータに実行させるためのプログラム。
A first image which is image data of an image corresponding to a portion provided with the plurality of first photoelectric conversion elements by causing the first reading circuit to read the outputs of the plurality of first photoelectric conversion elements included in the imaging unit. Outputting data; and
Second output is image data of an image corresponding to a portion provided in the plurality of second photoelectric conversion elements by causing the second reading circuit to read outputs of the plurality of second photoelectric conversion elements included in the imaging unit. Outputting image data; and
Causing the first calculator to calculate a first evaluation value from the first image data output from the first readout circuit;
Causing the second calculator to calculate a second evaluation value from the second image data output from the second readout circuit;
Outputting the first evaluation value to the second calculation unit;
A program for causing a computer to execute the step of outputting the second evaluation value to the first calculation unit.
第1の方向にそれぞれ連続して並ぶ複数の第1光電変換素子列および複数の第2光電変換素子列を有する撮像素子を有する撮像装置用のプログラムであって、
複数のタイミングのそれぞれから、前記複数の第1光電変換素子列および前記複数の第2光電変換素子列で、前記第1の方向に順次に露光させる露光制御ステップと、
第1のタイミングから前記複数の第1光電変換素子列で順次に露光することにより前記複数の第1光電変換素子列から出力された第1部分画像データ、および、前記第1のタイミングに続く第2のタイミングから前記複数の第2光電変換素子列で順次に露光することにより前記複数の第2光電変換素子列から出力された第2部分画像データを、1つの第1画像の画像データとして出力する出力制御ステップと
をコンピュータに実行させるためのプログラム。
A program for an imaging apparatus having an imaging element having a plurality of first photoelectric conversion element rows and a plurality of second photoelectric conversion element rows that are successively arranged in a first direction,
An exposure control step of sequentially exposing the plurality of first photoelectric conversion element arrays and the plurality of second photoelectric conversion element arrays in the first direction from each of a plurality of timings;
The first partial image data output from the plurality of first photoelectric conversion element arrays by sequentially exposing the plurality of first photoelectric conversion element arrays from the first timing, and the first timing following the first timing. The second partial image data output from the plurality of second photoelectric conversion element arrays is output as image data of one first image by sequentially exposing the plurality of second photoelectric conversion element arrays from the timing of 2. A program for causing a computer to execute an output control step.
JP2012162860A 2012-07-23 2012-07-23 Imaging device and program Pending JP2014023114A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012162860A JP2014023114A (en) 2012-07-23 2012-07-23 Imaging device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012162860A JP2014023114A (en) 2012-07-23 2012-07-23 Imaging device and program

Publications (1)

Publication Number Publication Date
JP2014023114A true JP2014023114A (en) 2014-02-03

Family

ID=50197499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012162860A Pending JP2014023114A (en) 2012-07-23 2012-07-23 Imaging device and program

Country Status (1)

Country Link
JP (1) JP2014023114A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190021A1 (en) * 2014-06-10 2015-12-17 ソニー株式会社 Imaging control device, imaging device, imaging system, and imaging control method
US9900531B2 (en) 2015-02-02 2018-02-20 Samsung Electronics Co., Ltd. Photographing apparatus and method for the light leakage correction

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064596A (en) * 2002-07-31 2004-02-26 Sanyo Electric Co Ltd Digital camera and image sensor
JP2006094192A (en) * 2004-09-24 2006-04-06 Canon Inc Imaging device
JP2006287914A (en) * 2005-03-07 2006-10-19 Fuji Photo Film Co Ltd Solid-state image pickup apparatus, image input apparatus, and image correcting method therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064596A (en) * 2002-07-31 2004-02-26 Sanyo Electric Co Ltd Digital camera and image sensor
JP2006094192A (en) * 2004-09-24 2006-04-06 Canon Inc Imaging device
JP2006287914A (en) * 2005-03-07 2006-10-19 Fuji Photo Film Co Ltd Solid-state image pickup apparatus, image input apparatus, and image correcting method therefor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190021A1 (en) * 2014-06-10 2015-12-17 ソニー株式会社 Imaging control device, imaging device, imaging system, and imaging control method
JPWO2015190021A1 (en) * 2014-06-10 2017-04-20 ソニー株式会社 Imaging control apparatus, imaging apparatus, imaging system, and imaging control method
US10623669B2 (en) 2014-06-10 2020-04-14 Sony Corporation Image capturing control apparatus, image capturing apparatus, image capturing system and image capturing control method
US9900531B2 (en) 2015-02-02 2018-02-20 Samsung Electronics Co., Ltd. Photographing apparatus and method for the light leakage correction

Similar Documents

Publication Publication Date Title
US8593531B2 (en) Imaging device, image processing method, and computer program
KR101391042B1 (en) Image processing device capable of generating wide-range image
KR101346426B1 (en) Image processing device capable of generating wide-range image
JP6561428B2 (en) Electronic device, control method, and control program
US20110050856A1 (en) Stereoscopic imaging apparatus
JP2014164172A (en) Imaging apparatus and program
CN113498604B (en) Imaging element, imaging apparatus, method of operating imaging element, and computer-readable storage medium
JP2010193277A (en) Information processing apparatus, imaging device, and method of controlling information processing apparatus
JP2014003496A (en) Image processing device, imaging device, and program
JP6595797B2 (en) Imaging apparatus and control method thereof
JP7004852B2 (en) Image sensor, image sensor, operation method of image sensor, and program
JP2014023114A (en) Imaging device and program
US11381762B2 (en) Integrated circuit chip and image capturing apparatus
JP2011040801A (en) Electronic camera
WO2011101928A1 (en) Three-dimensional image capturing adopter, hybrid image-capturing system, and electronic camera
JP2012235396A (en) Imaging device and program
JP5882957B2 (en) Information processing apparatus, information processing apparatus control method, and control program
JP2014017560A (en) Electronic apparatus, imaging device, system, and program
JP6161307B2 (en) Imaging apparatus and control method thereof
JP5641352B2 (en) Image processing apparatus, image processing method, and program
WO2020137664A1 (en) Imaging element, imaging device, imaging element operation method, and program
JP2013072988A (en) Compound eye camera, continuous automatic focus control method using the same, control program and readable storage medium
JP2014023121A (en) Image processing device and program
JP4914460B2 (en) Imaging device
JP2012248026A (en) Image generation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161108