JP2016158294A - Electronic apparatus, control method for electronic apparatus and control program - Google Patents

Electronic apparatus, control method for electronic apparatus and control program Download PDF

Info

Publication number
JP2016158294A
JP2016158294A JP2016092479A JP2016092479A JP2016158294A JP 2016158294 A JP2016158294 A JP 2016158294A JP 2016092479 A JP2016092479 A JP 2016092479A JP 2016092479 A JP2016092479 A JP 2016092479A JP 2016158294 A JP2016158294 A JP 2016158294A
Authority
JP
Japan
Prior art keywords
imaging
image
unit
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016092479A
Other languages
Japanese (ja)
Other versions
JP2016158294A5 (en
Inventor
岳志 西
Takashi Nishi
岳志 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016092479A priority Critical patent/JP2016158294A/en
Publication of JP2016158294A publication Critical patent/JP2016158294A/en
Publication of JP2016158294A5 publication Critical patent/JP2016158294A5/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To check change of an image corresponding to change of imaging conditions by displaying a plurality of images picked up under different imaging conditions at a display part.SOLUTION: An electronic apparatus comprises: an imaging part 20 which has first imaging elements (imaging elements as some of imaging elements 100) picking up images under a first imaging condition and second imaging elements (imaging elements different from the imaging element as some of the imaging elements 100) picking up images under a second imaging condition different from the first imaging condition, which are plurally arrayed, and outputs first image data generated according to a subject image made incident on the first imaging elements and second image data generated according to a subject image made incident on the second imaging elements; and a control part 71 which displays the first image shown with the first data and the second image shown with the second image data at a display part 50 so as to present recording modes of the fist image data and second image data in a selectable state.SELECTED DRAWING: Figure 7

Description

本発明は、電子機器、電子機器の制御方法、及び制御プログラムに関する。   The present invention relates to an electronic device, an electronic device control method, and a control program.

裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、この撮像素子を積層型撮像素子という。)を備えた電子機器が提案されている(例えば特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、複数画素をまとめたブロック単位ごとにマイクロバンプを介して接続されるように積層されている。   There has been proposed an electronic apparatus provided with an imaging element in which a back-illuminated imaging chip and a signal processing chip are laminated (hereinafter, this imaging element is referred to as a laminated imaging element) (for example, see Patent Document 1). The multilayer imaging element is laminated so that the back-illuminated imaging chip and the signal processing chip are connected via a micro bump for each block unit including a plurality of pixels.

特開2006−49361号公報JP 2006-49361 A

しかし、従来の積層型撮像素子を備えた電子機器において、複数のブロック単位ごとに撮像して画像を取得する提案は多くなく、積層型撮像素子を備えた電子機器の使い勝手が十分ではなかった。   However, there are not many proposals for acquiring an image by capturing an image for each of a plurality of block units in an electronic device including a conventional multilayer image sensor, and the usability of the electronic device including the multilayer image sensor is not sufficient.

本発明の態様では、異なる撮像条件で撮像された複数の画像を表示部に表示させることにより、撮像条件の変更に対応する画像の変化を確認することを目的とする。   In an aspect of the present invention, an object is to check a change in an image corresponding to a change in an imaging condition by displaying a plurality of images captured under different imaging conditions on a display unit.

本発明の第1態様によれば、第1撮像条件で撮像を行う第1撮像素子と第1撮像条件とは異なる第2撮像条件で撮像を行う第2撮像素子とが複数配列され、第1撮像素子に入射した被写体像に応じて生成された第1画像データと第2撮像素子に入射した被写体像に応じて生成された第2画像データとを出力する撮像部と、第1画像データにより示される第1画像と第2画像データにより示される第2画像とを表示部に表示して第1画像データ及び第2画像データの記録態様を選択可能なように提示する制御部と、を備える電子機器が提供される。   According to the first aspect of the present invention, a plurality of first imaging elements that perform imaging under the first imaging condition and second imaging elements that perform imaging under a second imaging condition different from the first imaging condition are arranged, and the first An imaging unit that outputs first image data generated according to a subject image incident on the image sensor and second image data generated according to a subject image incident on the second image sensor, and the first image data A control unit that displays the first image to be displayed and the second image represented by the second image data on the display unit so as to select the recording mode of the first image data and the second image data. Electronic equipment is provided.

本発明の第2態様によれば、第1撮像条件で撮像を行う第1撮像素子と第1撮像条件とは異なる第2撮像条件で撮像を行う第2撮像素子とが複数配列され、第1撮像素子に入射した被写体像に応じて生成された第1画像データと第2撮像素子に入射した被写体像に応じて生成された第2画像データとを出力する撮像部を有する電子機器の制御方法であって、第1画像データにより示される第1画像と第2画像データにより示される第2画像とを表示部に表示して第1画像データ及び第2画像データの記録態様を選択可能なように提示することを含む電子機器の制御方法が提供される。   According to the second aspect of the present invention, a plurality of first imaging elements that perform imaging under the first imaging condition and a plurality of second imaging elements that perform imaging under a second imaging condition different from the first imaging condition are arranged. Method for controlling an electronic apparatus having an imaging unit that outputs first image data generated according to a subject image incident on an image sensor and second image data generated according to a subject image incident on a second image sensor The first image indicated by the first image data and the second image indicated by the second image data are displayed on the display unit so that the recording mode of the first image data and the second image data can be selected. A method for controlling an electronic device is provided.

本発明の第3態様によれば、第1撮像条件で撮像を行う第1撮像素子と第1撮像条件とは異なる第2撮像条件で撮像を行う第2撮像素子とが複数配列され、第1撮像素子に入射した被写体像に応じて生成された第1画像データと第2撮像素子に入射した被写体像に応じて生成された第2画像データとを出力する撮像部を有する電子機器の制御装置に、第1画像データにより示される第1画像と第2画像データにより示される第2画像とを表示部に表示して第1画像データ及び第2画像データの記録態様を選択可能なように提示する処理を実行させる制御プログラムが提供される。   According to the third aspect of the present invention, a plurality of first imaging elements that perform imaging under the first imaging condition and a plurality of second imaging elements that perform imaging under a second imaging condition different from the first imaging condition are arranged. Control apparatus for an electronic device having an imaging unit that outputs first image data generated according to a subject image incident on an image sensor and second image data generated according to a subject image incident on a second image sensor In addition, the first image indicated by the first image data and the second image indicated by the second image data are displayed on the display unit so that the recording mode of the first image data and the second image data can be selected. A control program for executing the processing to be performed is provided.

本発明の態様によれば、異なる撮像条件で撮像された複数の画像を表示部に表示させることにより、撮像条件の変更に対応する画像の変化を確認することができる。   According to the aspect of the present invention, it is possible to confirm a change in an image corresponding to a change in the imaging condition by displaying a plurality of images captured under different imaging conditions on the display unit.

本実施形態の撮像素子の断面図である。It is sectional drawing of the image pick-up element of this embodiment. 撮像チップの画素配列と単位グループを説明する図である。It is a figure explaining the pixel arrangement | sequence and unit group of an imaging chip. 撮像チップの単位グループに対応する回路図である。It is a circuit diagram corresponding to the unit group of an imaging chip. 撮像素子の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an image pick-up element. 各ブロックにおける配列パターンを示す図である。It is a figure which shows the arrangement | sequence pattern in each block. 電子機器の一例であるデジタルカメラの概略構成を示す横断面図である。It is a cross-sectional view which shows schematic structure of the digital camera which is an example of an electronic device. 第1実施形態に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on 1st Embodiment. 第1実施形態のデジタルカメラに係る表示部を示す図である。It is a figure which shows the display part which concerns on the digital camera of 1st Embodiment. 第1実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography operation | movement which the system control part of 1st Embodiment performs. 第1実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 1st Embodiment. 第1実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 1st Embodiment. 第1実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 1st Embodiment. 第1実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 1st Embodiment. 第2実施形態のデジタルカメラに係る表示部を示す図である。It is a figure which shows the display part which concerns on the digital camera of 2nd Embodiment. 第2実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography operation | movement which the system control part of 2nd Embodiment performs. 第2実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 2nd Embodiment. 第2実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 2nd Embodiment. 第3実施形態のデジタルカメラに係る画像処理部及びシステム制御部の機能ブロック図である。It is a functional block diagram of the image processing part and system control part which concern on the digital camera of 3rd Embodiment. 第3実施形態における第1表示部及び第2表示部に画像を表示する場合の表示例を示す図である。It is a figure which shows the example of a display in the case of displaying an image on the 1st display part and 2nd display part in 3rd Embodiment. 第4実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 4th Embodiment. 第5実施形態における電子ズームを行った場合の表示面51Dの表示例を示す図である。It is a figure which shows the example of a display of 51D of display surfaces at the time of performing electronic zoom in 5th Embodiment. 第6実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 6th Embodiment. 第7実施形態における表示面の表示例を示す図である。It is a figure which shows the example of a display of the display surface in 7th Embodiment. 第8実施形態におけるストロボの発光タイミングと電荷蓄積のタイミングとを示すタイミングチャートである。It is a timing chart which shows the light emission timing of the strobe and the timing of charge accumulation in the eighth embodiment. 第9実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device and electronic device which concern on 9th Embodiment.

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。なお、以下の各実施形態では、電子機器の例としてレンズ交換式のデジタルカメラを例に挙げて説明する。   Embodiments of the present invention will be described below with reference to the drawings. However, the present invention is not limited to this. Further, in the drawings, in order to describe the embodiment, the scale may be appropriately changed and expressed, for example, a part of the drawing may be enlarged or emphasized. In the following embodiments, an interchangeable lens digital camera will be described as an example of an electronic device.

<第1実施形態>
図1は、本実施形態の撮像素子100の断面図である。撮像素子100は、本願出願人が先に出願した特願2012−139026号に記載されているものである。撮像素子100は、入射光に対応した画素信号を出力する撮像チップ113と撮像チップ113から出力された画素信号を処理する信号処理チップ111と信号処理チップ111で処理された画素信号を記憶するメモリチップ112とを備える。撮像チップ113、信号処理チップ111及びメモリチップ112は積層されており、撮像チップ113及び信号処理チップ111は、Cu等の導電性を有するバンプ109により互いに電気的に接続される。また、信号処理チップ111及びメモリチップ112は、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
<First Embodiment>
FIG. 1 is a cross-sectional view of the image sensor 100 of the present embodiment. The image sensor 100 is described in Japanese Patent Application No. 2012-139026 filed earlier by the present applicant. The imaging device 100 includes an imaging chip 113 that outputs a pixel signal corresponding to incident light, a signal processing chip 111 that processes the pixel signal output from the imaging chip 113, and a memory that stores the pixel signal processed by the signal processing chip 111. Chip 112. The imaging chip 113, the signal processing chip 111, and the memory chip 112 are stacked, and the imaging chip 113 and the signal processing chip 111 are electrically connected to each other by a conductive bump 109 such as Cu. Further, the signal processing chip 111 and the memory chip 112 are electrically connected to each other by a conductive bump 109 such as Cu.

図示した座標軸で示すように、入射光は主にZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸で示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸及びX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。   As indicated by the illustrated coordinate axes, incident light is incident mainly in the positive direction of the Z axis. In the present embodiment, in the imaging chip 113, the surface on the side where incident light is incident is referred to as a back surface. Also, as indicated by the coordinate axes, the left direction on the paper orthogonal to the Z axis is the X axis plus direction, and the front side of the paper orthogonal to the Z axis and X axis is the Y axis plus direction. In the following several figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のフォトダイオード(Photodiode;以下、PDという。)104、及び、PD104に対応して設けられたトランジスタ105を有する。   An example of the imaging chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is disposed on the back side of the wiring layer 108. The PD layer 106 includes a plurality of photodiodes (Photodiode; hereinafter referred to as PD) 104 that are two-dimensionally arranged and accumulate electric charges according to incident light, and a transistor 105 provided corresponding to the PD 104. .

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、可視光のうち特定の波長領域を通過させるフィルタである。このカラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104、及びトランジスタ105の組が一つの画素を形成する。   A color filter 102 is provided on the incident side of incident light in the PD layer 106 via a passivation film 103. The color filter 102 is a filter that passes a specific wavelength region of visible light. The color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each of the PDs 104. The arrangement of the color filter 102 will be described later. A set of the color filter 102, the PD 104, and the transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。   On the incident light incident side of the color filter 102, a microlens 101 is provided corresponding to each pixel. The microlens 101 condenses incident light toward the corresponding PD 104.

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子及び能動素子が設けられてもよい。配線層108の表面には複数のバンプ109が配される。これら複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされる。そして、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   The wiring layer 108 includes a wiring 107 that transmits the pixel signal from the PD layer 106 to the signal processing chip 111. The wiring 107 may be multilayer, and a passive element and an active element may be provided. A plurality of bumps 109 are disposed on the surface of the wiring layer 108. The plurality of bumps 109 are aligned with the plurality of bumps 109 provided on the opposing surface of the signal processing chip 111. Then, by pressing the imaging chip 113 and the signal processing chip 111, the aligned bumps 109 are joined and electrically connected.

同様に、信号処理チップ111及びメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされる。そして、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。   Similarly, a plurality of bumps 109 are disposed on the mutually facing surfaces of the signal processing chip 111 and the memory chip 112. These bumps 109 are aligned with each other. Then, when the signal processing chip 111 and the memory chip 112 are pressurized or the like, the aligned bumps 109 are joined and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位グループに対して一つ程度設ければよい。従って、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域(図2に示す画素領域113A)以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。   The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and micro bump bonding by solder melting may be employed. Further, for example, about one bump 109 may be provided for one unit group described later. Therefore, the size of the bump 109 may be larger than the pitch of the PD 104. In addition, a bump larger than the bump 109 corresponding to the pixel region may be provided in a peripheral region other than the pixel region where the pixels are arranged (the pixel region 113A shown in FIG. 2).

信号処理チップ111は、表面及び裏面にそれぞれ設けられた回路を互いに接続するTSV(Through-Silicon Via;シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられる。また、TSV110は、撮像チップ113の周辺領域や、メモリチップ112に設けられてもよい。   The signal processing chip 111 includes a TSV (Through-Silicon Via) 110 that connects circuits provided on the front surface and the back surface to each other. The TSV 110 is provided in the peripheral area. The TSV 110 may be provided in the peripheral area of the imaging chip 113 or the memory chip 112.

図2は、撮像チップ113の画素配列と単位グループを説明する図である。図2では、特に、撮像チップ113を裏面側から観察した様子を示す。撮像チップ113において画素が配列された領域を画素領域(撮像領域)113Aという。画素領域113Aには2000万個以上もの画素がマトリックス状に配列されている。図2に示す例では、隣接する4画素×4画素の16画素が一つの単位グループ131を形成する。図2の格子線は、隣接する画素がグループ化されて単位グループ131を形成する概念を示す。単位グループ131を形成する画素の数はこれに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。   FIG. 2 is a diagram for explaining a pixel array and a unit group of the imaging chip 113. FIG. 2 particularly shows a state where the imaging chip 113 is observed from the back side. An area where pixels are arranged in the imaging chip 113 is referred to as a pixel area (imaging area) 113A. In the pixel region 113A, 20 million or more pixels are arranged in a matrix. In the example shown in FIG. 2, 16 pixels of 4 pixels × 4 pixels adjacent to each other form one unit group 131. The grid lines in FIG. 2 indicate a concept in which adjacent pixels are grouped to form a unit group 131. The number of pixels forming the unit group 131 is not limited to this, and may be about 1000, for example, 32 pixels × 64 pixels, or more or less.

画素領域113Aの部分拡大図に示すように、単位グループ131は、緑色画素Gb,Gr、青色画素B、及び赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光する。赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。   As shown in the partially enlarged view of the pixel region 113A, the unit group 131 includes four so-called Bayer arrays including four pixels of green pixels Gb and Gr, a blue pixel B, and a red pixel R in the vertical and horizontal directions. The green pixel is a pixel having a green filter as the color filter 102, and receives light in the green wavelength band of incident light. Similarly, the blue pixel is a pixel having a blue filter as the color filter 102 and receives light in the blue wavelength band. The red pixel is a pixel having a red filter as the color filter 102 and receives light in the red wavelength band.

図3は、撮像チップ113の単位グループに対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。   FIG. 3 is a circuit diagram corresponding to a unit group of the imaging chip 113. In FIG. 3, a rectangle surrounded by a dotted line typically represents a circuit corresponding to one pixel. Note that at least some of the transistors described below correspond to the transistor 105 in FIG.

上述したように、単位グループ131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続される。各転送トランジスタ302のゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。   As described above, the unit group 131 is formed of 16 pixels. The 16 PDs 104 corresponding to the respective pixels are each connected to the transfer transistor 302. The gate of each transfer transistor 302 is connected to a TX wiring 307 to which a transfer pulse is supplied. In the present embodiment, the TX wiring 307 is commonly connected to the 16 transfer transistors 302.

各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されるとともに、転送トランジスタ302のドレインと各リセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFD(電荷検出部)が増幅トランジスタ304のゲートに接続される。各リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続される。各リセットトランジスタ303のゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。   The drain of each transfer transistor 302 is connected to the source of the corresponding reset transistor 303, and a so-called floating diffusion FD (charge detection unit) between the drain of the transfer transistor 302 and the source of each reset transistor 303 is connected to the amplifier transistor 304. Connected to the gate. The drain of each reset transistor 303 is connected to a Vdd wiring 310 to which a power supply voltage is supplied. The gate of each reset transistor 303 is connected to a reset wiring 306 to which a reset pulse is supplied. In the present embodiment, the reset wiring 306 is commonly connected to the 16 reset transistors 303.

各々の増幅トランジスタ304のドレインは電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。各々の選択トランジスタ305のゲートには、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。   The drain of each amplification transistor 304 is connected to a Vdd wiring 310 to which a power supply voltage is supplied. The source of each amplification transistor 304 is connected to the drain of each corresponding selection transistor 305. The gate of each selection transistor 305 is connected to a decoder wiring 308 to which a selection pulse is supplied. In the present embodiment, the decoder wiring 308 is provided independently for each of the 16 selection transistors 305. The source of each selection transistor 305 is connected to a common output wiring 309. The load current source 311 supplies current to the output wiring 309. That is, the output wiring 309 for the selection transistor 305 is formed by a source follower. Note that the load current source 311 may be provided on the imaging chip 113 side or may be provided on the signal processing chip 111 side.

ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加される。これと同時に、TX配線307を通じて転送パルスが転送トランジスタ302に印加される。これにより、PD104及びフローティングディフュージョンFDの電位はリセットされる。   Here, the flow from the start of charge accumulation to pixel output after the end of accumulation will be described. A reset pulse is applied to the reset transistor 303 through the reset wiring 306. At the same time, a transfer pulse is applied to the transfer transistor 302 through the TX wiring 307. As a result, the potentials of the PD 104 and the floating diffusion FD are reset.

PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、PD104において蓄積された電荷はフローティングディフュージョンFDへ転送される。これにより、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304及び選択トランジスタ305を介して出力配線309に伝わる。このような回路の動作により、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。   When the application of the transfer pulse is canceled, the PD 104 converts the incident light to be received into electric charge and accumulates it. Thereafter, when the transfer pulse is applied again without the reset pulse being applied, the charge accumulated in the PD 104 is transferred to the floating diffusion FD. As a result, the potential of the floating diffusion FD changes from the reset potential to the signal potential after charge accumulation. When a selection pulse is applied to the selection transistor 305 through the decoder wiring 308, the change in the signal potential of the floating diffusion FD is transmitted to the output wiring 309 through the amplification transistor 304 and the selection transistor 305. By such an operation of the circuit, a pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 309.

図3に示すように、本実施形態においては、単位グループ131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素すべてに対して同時に印加される。従って、単位グループ131を形成するすべての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309に出力される。また、リセット配線306、TX配線307、出力配線309は、単位グループ131毎に別個に設けられる。   As shown in FIG. 3, in the present embodiment, the reset wiring 306 and the TX wiring 307 are common to the 16 pixels forming the unit group 131. That is, the reset pulse and the transfer pulse are simultaneously applied to all 16 pixels. Therefore, all the pixels forming the unit group 131 start charge accumulation at the same timing and end charge accumulation at the same timing. However, the pixel signal corresponding to the accumulated charge is selectively output to the output wiring 309 by sequentially applying the selection pulse to each selection transistor 305. In addition, the reset wiring 306, the TX wiring 307, and the output wiring 309 are provided separately for each unit group 131.

このように単位グループ131を基準として回路を構成することにより、単位グループ131ごとに電荷蓄積時間を制御することができる。換言すると、単位グループ131間で、異なった電荷蓄積時間による画素信号をそれぞれ出力させることができる。更に言えば、一方の単位グループ131に1回の電荷蓄積を行わせている間に、他方の単位グループ131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位グループ131間で異なるフレームレートで動画用の各フレームを出力することもできる。   By configuring the circuit with the unit group 131 as a reference in this way, the charge accumulation time can be controlled for each unit group 131. In other words, pixel signals with different charge accumulation times can be output between the unit groups 131. More specifically, while one unit group 131 performs charge accumulation once, the other unit group 131 repeats charge accumulation several times and outputs a pixel signal each time, so that Each frame for moving images can be output at a different frame rate between the unit groups 131.

図4は、撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位グループ131を形成する16個のPD104を順番に選択する。そして、マルチプレクサ411は、16個のPD104のそれぞれの画素信号を当該単位グループ131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104とともに、撮像チップ113に形成される。   FIG. 4 is a block diagram illustrating a functional configuration of the image sensor 100. The analog multiplexer 411 sequentially selects the 16 PDs 104 that form the unit group 131. Then, the multiplexer 411 outputs each pixel signal of the 16 PDs 104 to the output wiring 309 provided corresponding to the unit group 131. The multiplexer 411 is formed on the imaging chip 113 together with the PD 104.

マルチプレクサ411を介して出力されたアナログ信号の画素信号は、信号処理チップ111に形成されたアンプ412により増幅される。そして、アンプ412で増幅された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS;Correlated Double Sampling)・アナログ/デジタル(Analog/Digital)変換を行う信号処理回路413により、相関二重サンプリングの信号処理が行われるとともに、A/D変換(アナログ信号からデジタル信号への変換)が行われる。画素信号が信号処理回路413において相関二重サンプリングの信号処理が行われることにより、画素信号のノイズが低減される。A/D変換された画素信号は、デマルチプレクサ414に引き渡され、それぞれの画素に対応する画素メモリ415に格納される。デマルチプレクサ414及び画素メモリ415は、メモリチップ112に形成される。   The analog pixel signal output through the multiplexer 411 is amplified by an amplifier 412 formed in the signal processing chip 111. Then, the pixel signal amplified by the amplifier 412 is processed by a signal processing circuit 413 that performs correlated double sampling (CDS) / analog / digital (Analog / Digital) conversion, which is formed in the signal processing chip 111. Correlated double sampling signal processing is performed, and A / D conversion (conversion from an analog signal to a digital signal) is performed. The pixel signal is subjected to correlated double sampling signal processing in the signal processing circuit 413, whereby noise of the pixel signal is reduced. The A / D converted pixel signal is transferred to the demultiplexer 414 and stored in the pixel memory 415 corresponding to each pixel. The demultiplexer 414 and the pixel memory 415 are formed in the memory chip 112.

演算回路416は、画素メモリ415に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路416は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図4では1つの単位グループ131の分の接続を示すが、実際にはこれらが単位グループ131ごとに存在して、並列で動作する。ただし、演算回路416は単位グループ131ごとに存在しなくてもよい。例えば、一つの演算回路416がそれぞれの単位グループ131に対応する画素メモリ415の値を順に参照しながらシーケンシャルに処理してもよい。   The arithmetic circuit 416 processes the pixel signal stored in the pixel memory 415 and passes it to the subsequent image processing unit. The arithmetic circuit 416 may be provided in the signal processing chip 111 or may be provided in the memory chip 112. Note that FIG. 4 shows connections for one unit group 131, but actually these exist for each unit group 131 and operate in parallel. However, the arithmetic circuit 416 may not exist for each unit group 131. For example, one arithmetic circuit 416 may perform sequential processing while sequentially referring to the values in the pixel memory 415 corresponding to each unit group 131.

上記した通り、単位グループ131のそれぞれに対応して出力配線309が設けられている。撮像素子100は、撮像チップ113、信号処理チップ111、及びメモリチップ112を積層している。このため、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。   As described above, the output wiring 309 is provided corresponding to each of the unit groups 131. The image sensor 100 is formed by stacking an image pickup chip 113, a signal processing chip 111, and a memory chip 112. For this reason, by using the electrical connection between the chips using the bumps 109 for the output wirings 309, the wirings can be routed without enlarging each chip in the surface direction.

次に、撮像素子100の画素領域113A(図2参照)に設定されるブロックについて説明する。本実施形態において、撮像素子100の画素領域113Aは、複数のブロックに分割される。複数のブロックは、1ブロックにつき単位グループ131を少なくとも1つ含むように定義される。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素が制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、制御パラメータが異なる画素信号が取得される。制御パラメータとしては、例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン、間引き率(画素間引き率)、画素信号を加算する加算行数又は加算列数(画素加算数)、デジタル化のビット数などがあげられる。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。   Next, blocks set in the pixel region 113A (see FIG. 2) of the image sensor 100 will be described. In the present embodiment, the pixel region 113A of the image sensor 100 is divided into a plurality of blocks. The plurality of blocks are defined to include at least one unit group 131 per block. In each block, pixels included in each block are controlled by different control parameters. That is, pixel signals having different control parameters are acquired for a pixel group included in a block and a pixel group included in another block. The control parameters include, for example, charge accumulation time or accumulation count, frame rate, gain, decimation rate (pixel decimation rate), number of addition rows or addition columns (pixel addition number) for adding pixel signals, digitization bit Numbers are given. Furthermore, the control parameter may be a parameter in image processing after obtaining an image signal from a pixel.

ここで、電荷の蓄積時間とは、PD104が電荷の蓄積を開始してから終了するまでの時間のことをいう。この電荷蓄積時間のことを露光時間又はシャッター速度(シャッタースピード)ともいう。また、電荷の蓄積回数とは、単位時間あたりにPD104が電荷を蓄積する回数のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。フレームレートが高くなる程、動画における被写体(すなわち撮像される対象物)の動きが滑らかになる。   Here, the charge accumulation time refers to the time from when PD 104 starts to accumulate charge until it ends. This charge accumulation time is also referred to as exposure time or shutter speed (shutter speed). The number of times of charge accumulation refers to the number of times the PD 104 accumulates charges per unit time. The frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of the frame rate is represented by fps (Frames Per Second). The higher the frame rate, the smoother the movement of the subject (that is, the object to be imaged) in the moving image.

また、ゲインとは、アンプ412の利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子100の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子100が光をとらえる能力を表す値となる。ゲインを上げるとISO感度も向上する。例えば、ゲインを倍にすると電気信号(画素信号)も倍になり、入射光の光量が半分でも適切な明るさとなる。しかし、ゲインを上げると、電気信号に含まれるノイズも増幅されるため、ノイズが多くなってしまう。   The gain means a gain factor (amplification factor) of the amplifier 412. By changing this gain, the ISO sensitivity can be changed. This ISO sensitivity is a photographic film standard established by ISO and represents how much light the photographic film can record. However, generally, ISO sensitivity is also used when expressing the sensitivity of the image sensor 100. In this case, the ISO sensitivity is a value representing the ability of the image sensor 100 to capture light. Increasing the gain improves the ISO sensitivity. For example, when the gain is doubled, the electrical signal (pixel signal) is also doubled, and the brightness is appropriate even when the amount of incident light is half. However, when the gain is increased, noise included in the electric signal is also amplified, so that noise increases.

また、間引き率とは、所定領域においてすべての画素数に対する画素信号の読み出しを行わない画素数の割合をいう。例えば、所定領域の間引き率が0である場合は、その所定領域内のすべての画素から画素信号の読み出しが行われることを意味する。また、所定領域の間引き率が0.5である場合は、その所定領域内の半分の画素から画素信号を読み出しが行われることを意味する。具体的には、単位グループ131がベイヤー配列である場合、垂直方向についてベイヤー配列の単位の一つ置き、すなわち、画素単位の2画素ずつ(2行ずつ)交互に画素信号が読み出される画素と読み出されない画素とが設定される。なお、画素信号の読み出しの間引きが行われると画像の解像度が低下する。しかし、撮像素子100には2000万以上の画素が配置されているため、例えば間引き率0.5で間引きを行ったとしても、1000万以上の画素で画像を表示することができる。このため、使用者(撮影者)にとって解像度の低下は気にならないものと考えられる。   The thinning-out rate is the ratio of the number of pixels that do not read out pixel signals with respect to the total number of pixels in a predetermined area. For example, when the thinning rate of a predetermined area is 0, it means that pixel signals are read from all pixels in the predetermined area. Further, when the thinning rate of the predetermined area is 0.5, it means that the pixel signal is read from half of the pixels in the predetermined area. Specifically, when the unit group 131 is a Bayer array, it is read as a pixel from which pixel signals are alternately read out every other unit of the Bayer array in the vertical direction, that is, every two pixels (two rows) of the pixel unit. Pixels that are not output are set. It should be noted that the resolution of the image is reduced when the pixel signal readout is thinned out. However, since 20 million or more pixels are arranged in the image sensor 100, for example, even if thinning is performed at a thinning rate of 0.5, an image can be displayed with 10 million or more pixels. For this reason, it is considered that the reduction in resolution is not a concern for the user (photographer).

また、加算行数とは、垂直方向に隣接する画素の画素信号を加算する場合に、その加算する垂直方向の画素の数(行数)をいう。また、加算列数とは、水平方向に隣接する画素の画素信号を加算する場合に、その加算する水平方向の画素の数(列数)をいう。このような加算の処理は、例えば演算回路416において行われる。演算回路416が垂直方向又は水平方向に隣接する所定数の画素の画素信号を加算する処理を行うことにより、所定の間引き率で間引いて画素信号を読み出す処理と同じような効果を奏する。なお、上記した加算の処理において、演算回路416が加算した行数または列数で加算値を割ることにより平均値を算出するようにしてもよい。   Further, the number of added rows refers to the number of vertical pixels (number of rows) to be added when pixel signals of pixels adjacent in the vertical direction are added. Further, the number of added columns refers to the number of horizontal pixels (number of columns) to be added when pixel signals of pixels adjacent in the horizontal direction are added. Such addition processing is performed in the arithmetic circuit 416, for example. The arithmetic circuit 416 performs the process of adding the pixel signals of a predetermined number of pixels adjacent in the vertical direction or the horizontal direction, thereby obtaining the same effect as the process of reading out the pixel signals by thinning out at a predetermined thinning rate. In the addition process described above, the average value may be calculated by dividing the added value by the number of rows or columns added by the arithmetic circuit 416.

また、デジタル化のビット数とは、信号処理回路413がA/D変換においてアナログ信号をデジタル信号に変換したときのビット数をいう。デジタル信号のビット数が多くなる程、輝度や色変化などがより詳細に表現される。   The number of bits for digitization refers to the number of bits when the signal processing circuit 413 converts an analog signal into a digital signal in A / D conversion. As the number of bits of the digital signal increases, brightness, color change, and the like are expressed in more detail.

本実施形態において、蓄積条件とは、撮像素子100における電荷の蓄積に関する条件のことをいう。具体的には、蓄積条件は、上記した制御パラメータのうち、電荷の蓄積時間又は蓄積回数、フレームレート、及びゲインのことをいう。フレームレートは電荷の蓄積時間や蓄積回数に応じて変化し得るので、フレームレートが蓄積条件に含まれる。また、ゲインに応じて適正露出の光量は変化し、適正露出の光量に応じて電荷の蓄積時間又は蓄積回数も変化し得る。このため、ゲインは蓄積条件に含まれる。   In the present embodiment, the accumulation condition refers to a condition related to charge accumulation in the image sensor 100. Specifically, the accumulation condition refers to the charge accumulation time or number of accumulations, the frame rate, and the gain among the control parameters described above. Since the frame rate can change according to the charge accumulation time and the number of times of accumulation, the frame rate is included in the accumulation condition. Further, the amount of light for proper exposure changes according to the gain, and the charge accumulation time or number of times of accumulation can also change according to the amount of light for proper exposure. For this reason, the gain is included in the accumulation condition.

また、本実施形態において、撮像条件とは、被写体の撮像に関する条件のことをいう。具体的には、撮像条件は、上記した蓄積条件を含む制御パラメータのことをいう。撮像条件は、撮像素子100を制御するための制御パラメータ(例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン)のほかに、撮像素子100からの信号の読み出しを制御するための制御パラメータ(例えば、間引き率、画素信号を加算する加算行数又は加算列数)、撮像素子100からの信号を処理するための制御パラメータ(例えば、デジタル化のビット数、後述する画像処理部30が画像処理を実行するための制御パラメータ)も含まれる。   In the present embodiment, the imaging condition refers to a condition related to imaging of a subject. Specifically, the imaging condition refers to a control parameter including the above accumulation condition. The imaging conditions include control parameters (for example, charge accumulation time or accumulation count, frame rate, gain) for controlling the image sensor 100, as well as control parameters (for controlling reading of signals from the image sensor 100). For example, a thinning rate, the number of addition rows or addition columns for adding pixel signals, and control parameters for processing signals from the image sensor 100 (for example, the number of bits for digitization, the image processing unit 30 described later performs image processing) Is also included.

図5は、各ブロックにおける配列パターンを示す図である。図5に示す配列パターンは、画素領域113Aが4つの撮像領域(第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域)に分割される配列パターンである。この配列パターンでは、画素領域113Aにおいて、4の倍数の列から3列前の列(4m−3)における奇数の行(2n−1)のブロックと、4の倍数の列から1列前の列(4m−1)における偶数の行(2n)のブロックとで第1撮像領域が構成されている。また、画素領域113Aにおいて、4の倍数の列から2列前の列(4m−2)における奇数の行(2n−1)のブロックと、4の倍数の列(4m)における偶数の行(2n)のブロックとで第2撮像領域が構成されている。また、画素領域113Aにおいて、4の倍数の列から1列前の列(4m−1)における奇数の行(2n−1)のブロックと、4の倍数の列から3列前の列(4m−3)における偶数の行(2n)のブロックとで第3撮像領域が構成されている。また、画素領域113Aにおいて、4の倍数の列(4m)における奇数の行(2n−1)のブロックと、4の倍数の列から2列前の列(4m−2)における偶数の行(2n)のブロックとで第4撮像領域が構成されている。m及びnは正の整数(m=1,2,3,・・・、n=1,2,3,・・・)である。   FIG. 5 is a diagram showing an arrangement pattern in each block. The array pattern shown in FIG. 5 is an array pattern in which the pixel area 113A is divided into four imaging areas (a first imaging area, a second imaging area, a third imaging area, and a fourth imaging area). In this arrangement pattern, in the pixel region 113A, a block in an odd row (2n-1) in a column (4m-3) three columns before a column that is a multiple of 4 and a column that is one column before a column that is a multiple of 4 The first imaging region is composed of the even-numbered row (2n) blocks in (4m−1). Further, in the pixel region 113A, an odd row (2n-1) block in a column (4m-2) two columns before a multiple of 4 and an even row (2n in a column (4m) of a multiple of 4). ) Blocks constitute a second imaging area. Further, in the pixel region 113A, an odd row (2n-1) block in a column (4m-1) one column before a column that is a multiple of 4 and a column (4m- The third imaging region is composed of the even-numbered row (2n) blocks in 3). Further, in the pixel region 113A, an odd-numbered row (2n-1) block in a column (4m) that is a multiple of 4 and an even-numbered row (2n) in a column (4m-2) two columns before the multiple of 4 columns. ) Blocks constitute a fourth imaging region. m and n are positive integers (m = 1, 2, 3,..., n = 1, 2, 3,...).

なお、図5において、撮像領域ごとのブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックを設定しているが、図5に示すブロックの数よりも多い数のブロックを画素領域113Aに設定するようにしてもよい。   In FIG. 5, a small number of blocks are set in the pixel region 113A in order to make the arrangement of the blocks for each imaging region easy to see, but a larger number of blocks than the number of blocks shown in FIG. You may make it set to the area | region 113A.

このような配列パターンの場合、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、画素領域(撮像領域)113Aにおいてそれぞれ均等に配置されている。また、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、それぞれ同じ面積となっている。ただし、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、画素領域113Aにおいてそれぞれ全面的に配置されていればよく、画素領域113Aにおいてそれぞれ均等に配置されていなくてもよい。また、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、それぞれ同じ面積でなくてもよい。   In the case of such an arrangement pattern, the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area are equally arranged in the pixel area (imaging area) 113A. The first imaging area, the second imaging area, the third imaging area, and the fourth imaging area have the same area. However, the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area only have to be arranged on the entire surface in the pixel area 113A, and are not arranged equally in the pixel area 113A. Also good. Further, the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area may not have the same area.

図5に示すような配列パターンの場合、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域はそれぞれ異なる位置に配置されているため(つまり各撮像領域の位置がずれているため)、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域にはそれぞれ異なる被写体像が入射される。従って、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域のそれぞれにおいて生成された画像データにより示される画像は、異なる被写体像である。しかし、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、画素領域113Aにおいてそれぞれ全面的に配置されている。このため、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域のそれぞれにおいて生成された画像データにより示される画像は、使用者にとっては同一の被写体像のように見える。   In the case of the arrangement pattern as shown in FIG. 5, the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area are arranged at different positions (that is, the positions of the imaging areas are shifted). Therefore, different subject images are incident on the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area, respectively. Accordingly, the images indicated by the image data generated in each of the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region are different subject images. However, the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area are all arranged in the pixel area 113A. For this reason, the image indicated by the image data generated in each of the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region appears to the user as the same subject image.

本実施形態では、第1撮像領域の各画素に設けられる各撮像素子(光電変換素子及びそれに付随する回路)を第1撮像素子といい、第2撮像領域の各画素に設けられる各撮像素子を第2撮像素子といい、第3撮像領域の各画素に設けられる各撮像素子を第3撮像素子といい、第4撮像領域の各画素に設けられる各撮像素子を第4撮像素子という。すなわち、撮像素子100は、複数の第1撮像素子、複数の第2撮像素子、複数の第3撮像素子及び複数の第4撮像素子に分けられる。   In the present embodiment, each image sensor (photoelectric conversion element and its associated circuit) provided in each pixel in the first image pickup region is referred to as a first image sensor, and each image sensor provided in each pixel in the second image pickup region is referred to as a first image sensor. Each image sensor provided in each pixel in the third image pickup area is referred to as a second image sensor, and each image sensor provided in each pixel in the fourth image pickup area is referred to as a fourth image sensor. That is, the image sensor 100 is divided into a plurality of first image sensors, a plurality of second image sensors, a plurality of third image sensors, and a plurality of fourth image sensors.

また、本実施形態では、第1撮像素子、第2撮像素子、第3撮像素子及び第4撮像素子は、それぞれ異なる撮像条件で撮像する。第1撮像素子の撮像条件を第1撮像条件といい、第2撮像素子の撮像条件を第2撮像条件といい、第3撮像素子の撮像条件を第3撮像条件といい、第4撮像素子の撮像条件を第4撮像条件という。   In the present embodiment, the first image sensor, the second image sensor, the third image sensor, and the fourth image sensor capture images under different image capturing conditions. The imaging condition of the first imaging element is referred to as the first imaging condition, the imaging condition of the second imaging element is referred to as the second imaging condition, the imaging condition of the third imaging element is referred to as the third imaging condition, and the fourth imaging element The imaging condition is referred to as a fourth imaging condition.

図6は、電子機器の一例であるデジタルカメラ1の概略構成を示す横断面図である。本実施形態のデジタルカメラ1は、レンズ部10及びカメラボディ2を備えている。レンズ部10は、交換式レンズである。カメラボディ2には、レンズ部10を装着するためのボディ側マウント部80Aが設けられている。また、レンズ部10には、ボディ側マウント部80Aと対応するレンズ側マウント部80Bが設けられている。使用者がボディ側マウント部80Aとレンズ側マウント部80Bとを接合することにより、レンズ部10がカメラボディ2に装着される。レンズ部10がカメラボディ2に装着されると、ボディ側マウント部80Aに設けられた電気接点81Aと、レンズ側マウント部80Bに設けられた電気接点81Bとが電気的に接続される。   FIG. 6 is a cross-sectional view showing a schematic configuration of a digital camera 1 which is an example of an electronic apparatus. The digital camera 1 of this embodiment includes a lens unit 10 and a camera body 2. The lens unit 10 is an interchangeable lens. The camera body 2 is provided with a body side mount portion 80A for mounting the lens portion 10. Further, the lens unit 10 is provided with a lens side mount unit 80B corresponding to the body side mount unit 80A. The lens unit 10 is attached to the camera body 2 when the user joins the body side mount 80A and the lens side mount 80B. When the lens unit 10 is mounted on the camera body 2, the electrical contact 81A provided on the body side mount 80A and the electrical contact 81B provided on the lens side mount 80B are electrically connected.

レンズ部10は、撮影光学系11、絞り14、及びレンズ駆動制御装置15を備えている。撮像光学系11には、レンズ11a、ズーミング用レンズ11b及びフォーカシング用レンズ11cが含まれる。レンズ駆動制御装置15は、レンズ側CPU(Central Processing Unit)、メモリ及び駆動制御回路を有している。レンズ駆動制御装置15は、電気接点81A,81Bを介してカメラボディ2側のシステム制御部70と電気的に接続されてレンズ部10に備えられた撮影光学系11の光学特性に関するレンズ情報の送信とズーミング用レンズ11b、フォーカシング用レンズ11c及び絞り14を駆動するための制御情報の受信とを行う。   The lens unit 10 includes a photographing optical system 11, a diaphragm 14, and a lens drive control device 15. The imaging optical system 11 includes a lens 11a, a zooming lens 11b, and a focusing lens 11c. The lens drive control device 15 includes a lens side CPU (Central Processing Unit), a memory, and a drive control circuit. The lens drive control device 15 is electrically connected to the system control unit 70 on the camera body 2 side via the electrical contacts 81A and 81B, and transmits lens information relating to the optical characteristics of the photographing optical system 11 provided in the lens unit 10. Control information for driving the zooming lens 11b, the focusing lens 11c, and the aperture stop 14 is received.

レンズ駆動制御装置15のレンズ側CPUは、撮影光学系11の焦点調節を行うためにシステム制御部70から送信される制御情報に基づいて駆動制御回路にフォーカシング用レンズ11cの駆動制御を実行させる。レンズ駆動制御装置15のレンズ側CPUは、ズーミング調節を行うためにシステム制御部70から送信される制御情報に基づいてズーミング用レンズ11bの駆動制御を駆動制御回路に実行させる。絞り14は、撮影光学系11の光軸に沿って配置されている。絞り14は、光量及びボケ量調整のために光軸中心に開口径が可変な開口を形成する。レンズ駆動制御装置15のレンズ側CPUは、絞り14の開口径調節を行うためにシステム制御部70から送信される制御情報に基づいて絞り14の駆動制御を駆動制御回路に実行させる。   The lens side CPU of the lens drive control device 15 causes the drive control circuit to execute drive control of the focusing lens 11 c based on control information transmitted from the system control unit 70 in order to adjust the focus of the photographing optical system 11. The lens side CPU of the lens drive control device 15 causes the drive control circuit to execute drive control of the zooming lens 11b based on control information transmitted from the system control unit 70 in order to perform zooming adjustment. The diaphragm 14 is disposed along the optical axis of the photographing optical system 11. The aperture 14 forms an aperture with a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur. The lens side CPU of the lens drive control device 15 causes the drive control circuit to perform drive control of the diaphragm 14 based on control information transmitted from the system control unit 70 in order to adjust the aperture diameter of the diaphragm 14.

カメラボディ2は、撮像部20、画像処理部30、表示部50、記憶部60及びシステム制御部70を備えている。撮像部20は、撮像素子100を有する。撮像素子100には、レンズ部10の撮影光学系11から射出された光束が入射する。撮像素子100は、入射した光束を光電変換して撮像素子の各画素の画素信号(画素信号は画像データに含まれる。)を生成する。各画素の画素信号からなるRAWデータ(RAWデータも画像データに含まれる。)が撮像部20から画像処理部30に送られる。画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。表示部50は、画像処理部30が生成した画像データを表示する。記憶部60は、画像処理部30が生成した画像データを記憶する。   The camera body 2 includes an imaging unit 20, an image processing unit 30, a display unit 50, a storage unit 60, and a system control unit 70. The imaging unit 20 includes an imaging element 100. A light beam emitted from the photographing optical system 11 of the lens unit 10 is incident on the image sensor 100. The image sensor 100 photoelectrically converts an incident light beam to generate a pixel signal (pixel signal is included in image data) of each pixel of the image sensor. RAW data (RAW data is also included in the image data) composed of pixel signals of each pixel is sent from the imaging unit 20 to the image processing unit 30. The image processing unit 30 performs various kinds of image processing on the RAW data including the pixel signal of each pixel, and generates image data in a predetermined file format (for example, JPEG format). The display unit 50 displays the image data generated by the image processing unit 30. The storage unit 60 stores the image data generated by the image processing unit 30.

なお、「画像データ」のことを「画像信号」ということがある。また、画像には、静止画、動画、ライブビュー画像が含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部20により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。   Note that “image data” may be referred to as “image signal”. The images include still images, moving images, and live view images. The live view image is an image displayed on the display unit 50 by sequentially outputting the image data generated by the image processing unit 30 to the display unit 50. The live view image is used for the user to confirm the image of the subject imaged by the imaging unit 20. The live view image is also called a through image or a preview image.

システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。なお、システム制御部70の処理及び動作の詳細、及びカメラボディ2内の構成の詳細については、以下の図7において説明する。   The system control unit 70 controls the overall processing and operation of the digital camera 1. Details of processing and operation of the system control unit 70 and details of the configuration in the camera body 2 will be described with reference to FIG.

図7は、第1実施形態に係るデジタルカメラ1の構成を示すブロック図である。図7に示すように、デジタルカメラ1は、カメラボディ2とレンズ部10とを備える。上述したように、レンズ部10は、カメラボディ2に対して着脱可能な交換式レンズである。従って、デジタルカメラ1は、レンズ部10を備えていなくてもよい。ただし、レンズ部10はデジタルカメラ1と一体構成であってもよい。レンズ部10は、カメラボディ2に接続された状態において、被写体からの光束を撮像部20へ導く。   FIG. 7 is a block diagram showing the configuration of the digital camera 1 according to the first embodiment. As shown in FIG. 7, the digital camera 1 includes a camera body 2 and a lens unit 10. As described above, the lens unit 10 is an interchangeable lens that can be attached to and detached from the camera body 2. Therefore, the digital camera 1 may not include the lens unit 10. However, the lens unit 10 may be integrated with the digital camera 1. The lens unit 10 guides the luminous flux from the subject to the imaging unit 20 in a state where the lens unit 10 is connected to the camera body 2.

レンズ部10は、上述したように、レンズ駆動制御装置15を有している(図6参照)。また、レンズ部10は、撮影光学系11としての複数のレンズ群、つまり、レンズ11a、ズーミング用レンズ11b、及びフォーカシング用レンズ11cを有している。レンズ駆動制御装置15は、レンズ部10がカメラボディ2に接続された場合に、メモリに記憶されているレンズ情報をカメラボディ2のシステム制御部70に送信する。また、レンズ駆動制御装置15は、レンズ部10がカメラボディ2に接続された場合に、システム制御部70から送信される制御情報を受信する。レンズ駆動制御装置15は、制御情報に基づいて、ズーミング用レンズ11b、フォーカシング用レンズ11c、及び絞り14の駆動制御を行う。   As described above, the lens unit 10 includes the lens drive control device 15 (see FIG. 6). The lens unit 10 includes a plurality of lens groups as the photographing optical system 11, that is, a lens 11a, a zooming lens 11b, and a focusing lens 11c. When the lens unit 10 is connected to the camera body 2, the lens drive control device 15 transmits lens information stored in the memory to the system control unit 70 of the camera body 2. The lens drive control device 15 receives control information transmitted from the system control unit 70 when the lens unit 10 is connected to the camera body 2. The lens drive control device 15 performs drive control of the zooming lens 11b, the focusing lens 11c, and the diaphragm 14 based on the control information.

図7に示すように、カメラボディ2は、撮像部20、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、システム制御部70及びストロボ90を備える。   As shown in FIG. 7, the camera body 2 includes an imaging unit 20, an image processing unit 30, a work memory 40, a display unit 50, an operation unit 55, a recording unit 60, a system control unit 70, and a strobe 90.

撮像部20は、撮像素子100及び駆動部21を有している。駆動部21は、システム制御部70からの指示に従って、撮像素子100の駆動を制御する制御回路である。ここで、駆動部21は、リセットパルス及び転送パルスをそれぞれリセットトランジスタ303及び転送トランジスタ302に印加するタイミング(又はタイミングの周期)を制御することにより、制御パラメータである電荷の蓄積時間又は蓄積回数を制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスをそれぞれリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305に印加するタイミング(又はタイミングの周期)を制御することにより、フレームレートを制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスを印加する画素を設定することにより、間引き率を制御する。   The imaging unit 20 includes an imaging element 100 and a drive unit 21. The drive unit 21 is a control circuit that controls driving of the image sensor 100 in accordance with an instruction from the system control unit 70. Here, the drive unit 21 controls the timing (or timing cycle) at which the reset pulse and the transfer pulse are applied to the reset transistor 303 and the transfer transistor 302, respectively, thereby reducing the charge accumulation time or accumulation count as a control parameter. Control. In addition, the drive unit 21 controls the frame rate by controlling the timing (or timing cycle) at which the reset pulse, the transfer pulse, and the selection pulse are applied to the reset transistor 303, the transfer transistor 302, and the selection transistor 305, respectively. To do. The drive unit 21 controls the thinning rate by setting pixels to which the reset pulse, the transfer pulse, and the selection pulse are applied.

また、駆動部21は、アンプ412のゲイン(利得率、増幅率ともいう。)を制御することにより、撮像素子100のISO感度を制御する。また、駆動部21は、演算回路416に指示を送ることにより、画素信号を加算する加算行数又は加算列数を設定する。また、駆動部21は、信号処理回路413に指示を送ることにより、デジタル化のビット数を設定する。さらに、駆動部21は、撮像素子100の画素領域(撮像領域)113Aにおいてブロック単位で領域を設定する。このように、駆動部21は、撮像素子100に対して複数のブロックごとに異なる撮像条件で撮像させて画素信号を出力させる撮像素子制御部の機能を担う。システム制御部70は、駆動部21に対するブロックの位置、形状、範囲などの指示を行う。   In addition, the drive unit 21 controls the ISO sensitivity of the image sensor 100 by controlling the gain (also referred to as gain factor or amplification factor) of the amplifier 412. In addition, the driving unit 21 sends an instruction to the arithmetic circuit 416 to set the number of added rows or the number of added columns to which the pixel signals are added. Further, the drive unit 21 sets the number of bits for digitization by sending an instruction to the signal processing circuit 413. Furthermore, the drive unit 21 sets areas in units of blocks in the pixel area (imaging area) 113A of the imaging element 100. In this way, the drive unit 21 functions as an image sensor control unit that causes the image sensor 100 to capture an image under different image capturing conditions for each of a plurality of blocks and output a pixel signal. The system control unit 70 instructs the drive unit 21 on the block position, shape, range, and the like.

撮像素子100は、撮像素子100からの画素信号を画像処理部30へ引き渡す。画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30は、以下の画像処理を実行する。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像信号を生成する。また、画像処理部30は、RGB画像信号に対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。   The image sensor 100 delivers the pixel signal from the image sensor 100 to the image processing unit 30. The image processing unit 30 uses the work memory 40 as a work space, performs various image processing on the RAW data including pixel signals of each pixel, and generates image data in a predetermined file format (for example, JPEG format). . The image processing unit 30 executes the following image processing. For example, the image processing unit 30 generates an RGB image signal by performing color signal processing (color tone correction) on a signal obtained by the Bayer array. The image processing unit 30 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image signal. Further, the image processing unit 30 performs a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary. The image processing unit 30 outputs the generated image data to the recording unit 60. In addition, the image processing unit 30 outputs the generated image data to the display unit 50.

画像処理部30が画像処理を行う際に参照されるパラメータも制御パラメータ(撮像条件)に含まれる。例えば、色信号処理(色調補正)、ホワイトバランス調整、階調調整、圧縮率などのパラメータが制御パラメータに含まれる。電荷の蓄積時間などに応じて撮像素子100から読み出される信号が変化し、その信号の変化に応じて画像処理を行う際に参照されるパラメータも変化する。画像処理部30は、ブロック単位ごとに異なる制御パラメータを設定し、これらの制御パラメータに基づいて色信号処理などの画像処理を実行する。   Parameters that are referred to when the image processing unit 30 performs image processing are also included in the control parameters (imaging conditions). For example, parameters such as color signal processing (tone correction), white balance adjustment, gradation adjustment, and compression rate are included in the control parameters. The signal read from the image sensor 100 changes according to the charge accumulation time, and the parameters referred to when performing image processing also change according to the change in the signal. The image processing unit 30 sets different control parameters for each block, and executes image processing such as color signal processing based on these control parameters.

画像処理部30は、撮像部20から時系列的に得られる複数のフレームのうち所定タイミングごとのフレームを抽出する。または、画像処理部30は、撮像部20から時系列的に得られる複数のフレームのうち所定タイミングごとのフレームを廃棄する。これにより、データ量を減らすことができるため、後段処理の負荷を軽減することができる。また、画像処理部30は、撮像部20から時系列的に得られる複数のフレームに基づいて、各フレーム間に補間する1又は複数のフレームを算出する。そして、画像処理部30は、算出した1又は複数のフレームを各フレーム間に追加する。これにより、動画再生時においてより滑らかな動きの動画を再生することができる。また、駆動部21が間引き率を制御するように構成しているが、このような構成に限られない。例えば、駆動部21はすべての画素から画素信号を読み出すが、画像処理部30又は演算回路416は読み出した画素信号のうち所定の画素信号を廃棄することにより、間引き率を制御するようにしてもよい。   The image processing unit 30 extracts frames at predetermined timings from a plurality of frames obtained in time series from the imaging unit 20. Alternatively, the image processing unit 30 discards frames at a predetermined timing among a plurality of frames obtained in time series from the imaging unit 20. Thereby, since the amount of data can be reduced, it is possible to reduce the load of subsequent processing. Further, the image processing unit 30 calculates one or a plurality of frames to be interpolated between the frames based on a plurality of frames obtained in time series from the imaging unit 20. Then, the image processing unit 30 adds the calculated one or more frames between the frames. As a result, a moving image with smoother motion can be reproduced during moving image reproduction. Moreover, although the drive part 21 is comprised so that the thinning-out rate may be controlled, it is not restricted to such a structure. For example, the drive unit 21 reads pixel signals from all pixels, but the image processing unit 30 or the arithmetic circuit 416 controls the thinning rate by discarding predetermined pixel signals out of the read pixel signals. Good.

本実施形態では、画像処理部30は、図7に示すように、画像生成部31を備えている。画像生成部31は、撮像部20から出力される各画素の画素信号からなるRAWデータに対して種々の画像処理を施すことにより画像データを生成する。画像生成部31は、第1撮像領域の画素信号からなるRAWデータに基づいて第1画像データを生成し、第2撮像領域の画素信号からなるRAWデータに基づいて第2画像データを生成し、第3撮像領域の画素信号からなるRAWデータに基づいて第3画像データを生成し、第4撮像領域の画素信号からなるRAWデータに基づいて第4画像データを生成する。   In the present embodiment, the image processing unit 30 includes an image generation unit 31 as shown in FIG. The image generation unit 31 generates image data by performing various kinds of image processing on the RAW data including pixel signals of each pixel output from the imaging unit 20. The image generation unit 31 generates first image data based on RAW data composed of pixel signals in the first imaging region, generates second image data based on RAW data composed of pixel signals in the second imaging region, Third image data is generated based on RAW data composed of pixel signals in the third imaging region, and fourth image data is generated based on RAW data composed of pixel signals in the fourth imaging region.

ワークメモリ40は、画像処理部30による画像処理が行われる際に画像データなどを一時的に記憶する。表示部50は、撮像部20で撮像された画像(静止画、動画、ライブビュー画像)や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどの表示面(表示パネル)51を有している。表示部50の表示面51上にはタッチパネル(選択部)52が形成されている。タッチパネル52は、使用者がメニューの選択などの操作を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。   The work memory 40 temporarily stores image data and the like when image processing by the image processing unit 30 is performed. The display unit 50 displays images (still images, moving images, live view images) and various types of information captured by the imaging unit 20. The display unit 50 includes a display surface (display panel) 51 such as a liquid crystal display panel. A touch panel (selection unit) 52 is formed on the display surface 51 of the display unit 50. The touch panel 52 outputs a signal indicating the position touched by the user to the system control unit 70 when the user performs an operation such as menu selection.

操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動作の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。   The operation unit 55 is a release switch (a switch that is pressed when shooting a still image), a moving image switch (a switch that is pressed when shooting an operation), various operation switches, and the like that are operated by the user. The operation unit 55 outputs a signal corresponding to the operation by the user to the system control unit 70. The recording unit 60 has a card slot into which a storage medium such as a memory card can be mounted. The recording unit 60 stores the image data and various data generated by the image processing unit 30 in a recording medium mounted in the card slot. The recording unit 60 has an internal memory. The recording unit 60 can also record the image data and various data generated by the image processing unit 30 in the internal memory.

システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。このシステム制御部70はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部70は、撮像素子100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部70は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部21に対して指示する。   The system control unit 70 controls the overall processing and operation of the digital camera 1. The system control unit 70 has a body side CPU (Central Processing Unit). In the present embodiment, the system control unit 70 divides the imaging surface (pixel area 113A) of the imaging device 100 (imaging chip 113) into a plurality of blocks, and different charge accumulation times (or charge accumulation times) and frame rates among the blocks. Get an image with a gain. Therefore, the system control unit 70 instructs the drive unit 21 about the block position, shape, range, and accumulation condition for each block.

また、システム制御部70は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部70は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部21に対して指示する。また、画像処理部30は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部70は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部30に指示する。   In addition, the system control unit 70 causes an image to be acquired with a different thinning rate between blocks, the number of addition rows or addition columns to which pixel signals are added, and the number of digitization bits. For this reason, the system control unit 70 instructs the drive unit 21 on the imaging conditions for each block (the thinning rate, the number of added rows or columns to which pixel signals are added, and the number of digitization bits). Further, the image processing unit 30 executes image processing under imaging conditions (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate) that are different between blocks. For this reason, the system control unit 70 instructs the image processing unit 30 on the imaging conditions for each block (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate).

また、システム制御部70は、画像処理部30において生成された画像データを記録部60に記録させる。また、システム制御部70は、画像処理部30において生成された画像データを表示部50に出力させることにより、表示部50に画像を表示させる。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させることにより、表示部50に画像を表示させる。表示部50に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。   Further, the system control unit 70 causes the recording unit 60 to record the image data generated by the image processing unit 30. Further, the system control unit 70 causes the display unit 50 to display an image by causing the display unit 50 to output the image data generated in the image processing unit 30. Further, the system control unit 70 causes the display unit 50 to display an image by reading out the image data recorded in the recording unit 60 and causing the display unit 50 to output the image data. The images displayed on the display unit 50 include still images, moving images, and live view images.

また、システム制御部70は、制御情報をレンズ駆動制御装置15に出力することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cの駆動制御及び絞り14の駆動制御を実行させる。なお、システム制御部70は、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。   Further, the system control unit 70 outputs control information to the lens drive control device 15 to cause the lens drive control device 15 to execute drive control of the focusing lens 11 c and drive control of the diaphragm 14. The system control unit 70 is realized by the body side CPU executing processing based on the control program.

本実施形態では、システム制御部70は、図7に示すように、制御部71、選択部72、設定部73及び分割部74を備えている。制御部71は、画像生成部31で生成された画像データを表示部50に出力させて、表示部50の表示面51に画像を表示させる制御を行う。また、制御部71は、予め設定されているメニュー画像(図8参照)を表示部50の表示面51に表示させる制御を行う。   In the present embodiment, the system control unit 70 includes a control unit 71, a selection unit 72, a setting unit 73, and a division unit 74, as shown in FIG. The control unit 71 controls the display unit 50 to display the image on the display surface 51 of the display unit 50 by causing the display unit 50 to output the image data generated by the image generation unit 31. The control unit 71 performs control to display a preset menu image (see FIG. 8) on the display surface 51 of the display unit 50.

選択部72は、使用者によるタッチパネル52のタッチ操作に応じて、4つの表示領域(第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514)のいずれかを選択する制御を行う。また、設定部73は、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を設定する制御を行う。ここで、設定部73は、撮像素子100のすべての画素領域113Aにおいて同一の撮像条件を設定することが可能である。また、設定部73は、図5に示す各撮像領域(第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域)において異なる撮像条件を設定することが可能である。また、設定部73は、予め決められた撮像条件、又は使用者の操作に応じて変更された撮像条件で撮像素子100に撮像を行わせる制御を行う。また、分割部74は、撮像素子100の画素領域113Aを、図5に示すように第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域に分割する処理を行う。   The selection unit 72 selects one of the four display areas (the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514) according to the touch operation of the touch panel 52 by the user. Perform control to select. In addition, the setting unit 73 performs control for setting imaging conditions (including storage conditions) in response to a touch operation on the touch panel 52 by the user or automatically. Here, the setting unit 73 can set the same imaging condition in all the pixel regions 113A of the imaging element 100. In addition, the setting unit 73 can set different imaging conditions in each imaging region (first imaging region, second imaging region, third imaging region, and fourth imaging region) illustrated in FIG. In addition, the setting unit 73 performs control to cause the image sensor 100 to perform imaging under a predetermined imaging condition or an imaging condition changed according to a user operation. Further, the dividing unit 74 performs a process of dividing the pixel region 113A of the image sensor 100 into a first imaging region, a second imaging region, a third imaging region, and a fourth imaging region as shown in FIG.

ストロボ90は、撮影を行う際に光を発光(閃光)する発光装置である。ストロボ90は、システム制御部70からの指示信号に基づいて所定の光量で発光する。   The strobe 90 is a light emitting device that emits light (flash) when photographing. The strobe 90 emits light with a predetermined amount of light based on an instruction signal from the system control unit 70.

図8は、本実施形態のデジタルカメラ1に係る表示部50を示す図である。図8に示すように、表示部50は、表示面51を有する。表示面51は、画像表示領域510と操作ボタン表示領域520とが設けられている。画像表示領域510は、撮像部20で生成された画像データにより示される画像を表示する領域である。画像表示領域510には、例えば、静止画像、動画像及びライブビュー画像が表示される。操作ボタン表示領域520は、使用者が撮像条件などを設定するためのメニュー画像520Mを表示する領域である。画像表示領域510及び操作ボタン表示領域520は、1つの表示面51内に設けられている。   FIG. 8 is a diagram illustrating the display unit 50 according to the digital camera 1 of the present embodiment. As shown in FIG. 8, the display unit 50 has a display surface 51. The display surface 51 is provided with an image display area 510 and an operation button display area 520. The image display area 510 is an area for displaying an image indicated by the image data generated by the imaging unit 20. In the image display area 510, for example, a still image, a moving image, and a live view image are displayed. The operation button display area 520 is an area for displaying a menu image 520M for the user to set imaging conditions and the like. The image display area 510 and the operation button display area 520 are provided in one display surface 51.

画像表示領域510は、複数の画像を表示できるように複数の表示領域に分割されている。例えば、撮像部20で生成された4つの画像データにより示される各画像を表示するように4つの表示領域に分割されている。4つの表示領域のうち、左上の表示領域を第1表示領域511という。4つの表示領域のうち、右上の表示領域を第2表示領域512という。4つの表示領域のうち、左下の表示領域を第3表示領域513という。4つの表示領域のうち、右下の表示領域を第4表示領域514という。   The image display area 510 is divided into a plurality of display areas so that a plurality of images can be displayed. For example, it is divided into four display areas so as to display each image indicated by the four image data generated by the imaging unit 20. Of the four display areas, the upper left display area is referred to as a first display area 511. Of the four display areas, the upper right display area is referred to as a second display area 512. Of the four display areas, the lower left display area is referred to as a third display area 513. Of the four display areas, the lower right display area is referred to as a fourth display area 514.

図8に示す例では、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514は、それぞれ同じ表示面積を有する表示領域である。また、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514は、それぞれ異なる表示面積を有する表示領域であってもよい。例えば、第1表示領域の表示面積は、第2表示領域の表示面積よりも大きくてもよい。第1表示領域の表示面積は、第3表示領域の表示面積よりも大きくてもよい。第1表示領域の表示面積は、第4表示領域の表示面積よりも大きくてもよい。第2表示領域の表示面積は、第1表示領域の表示面積よりも大きくてもよい。第2表示領域の表示面積は、第3表示領域の表示面積よりも大きくてもよい。第2表示領域の表示面積は、第4表示領域の表示面積よりも大きくてもよい。第3表示領域の表示面積は、第1表示領域の表示面積よりも大きくてもよい。第3表示領域の表示面積は、第2表示領域の表示面積よりも大きくてもよい。第3表示領域の表示面積は、第4表示領域の表示面積よりも大きくてもよい。第4表示領域の表示面積は、第1表示領域の表示面積よりも大きくてもよい。第4表示領域の表示面積は、第2表示領域の表示面積よりも大きくてもよい。第4表示領域の表示面積は、第3表示領域の表示面積よりも大きくてもよい。   In the example illustrated in FIG. 8, the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 are display areas having the same display area. Further, the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 may be display areas having different display areas. For example, the display area of the first display area may be larger than the display area of the second display area. The display area of the first display area may be larger than the display area of the third display area. The display area of the first display area may be larger than the display area of the fourth display area. The display area of the second display area may be larger than the display area of the first display area. The display area of the second display area may be larger than the display area of the third display area. The display area of the second display area may be larger than the display area of the fourth display area. The display area of the third display area may be larger than the display area of the first display area. The display area of the third display area may be larger than the display area of the second display area. The display area of the third display region may be larger than the display area of the fourth display region. The display area of the fourth display area may be larger than the display area of the first display area. The display area of the fourth display area may be larger than the display area of the second display area. The display area of the fourth display area may be larger than the display area of the third display area.

第1表示領域511は、図5に示した第1撮像領域で生成された画像データにより示される画像(この画像を第1画像という。)を表示する領域である。第2表示領域512は、図5に示した第2撮像領域で生成された画像データにより示される画像(この画像を第2画像という。)を表示する領域である。第3表示領域513は、図5に示した第3撮像領域で生成された画像データにより示される画像(この画像を第3画像という。)を表示する領域である。第4表示領域514は、図5に示した第4撮像領域で生成された画像データにより示される画像(この画像を第4画像という。)を表示する領域である。上述したように、図5に示した第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、画素領域113Aにおいて全面的に均等に配置されているため、第1画像、第2画像、第3画像及び第4画像は、見た目上、同一の被写体の画像に見える。しかし、上述したように、図5に示した第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、それぞれ異なる撮像条件で撮像する。従って、被写体の明るさ、被写体のブレ、動画における被写体の動きの滑らかさなどが撮像条件によって変化する。   The first display area 511 is an area for displaying an image (this image is referred to as a first image) indicated by the image data generated in the first imaging area shown in FIG. The second display area 512 is an area for displaying an image (this image is referred to as a second image) indicated by the image data generated in the second imaging area shown in FIG. The third display area 513 is an area for displaying an image (this image is referred to as a third image) indicated by the image data generated in the third imaging area shown in FIG. The fourth display area 514 is an area for displaying an image (this image is referred to as a fourth image) indicated by the image data generated in the fourth imaging area shown in FIG. As described above, since the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area shown in FIG. 5 are arranged uniformly over the entire pixel area 113A, the first image, The second image, the third image, and the fourth image appear to be the same subject image. However, as described above, the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area shown in FIG. 5 are imaged under different imaging conditions. Accordingly, the brightness of the subject, the blurring of the subject, the smoothness of the movement of the subject in the moving image, and the like vary depending on the imaging conditions.

なお、第1画像は、第1ライブビュー画像、第1静止画及び第1動画を含む。また、第2画像は、第2ライブビュー画像、第2静止画及び第2動画を含む。また、第3画像は、第3ライブビュー画像、第3静止画及び第3動画を含む。また、第4画像は、第4ライブビュー画像、第4静止画及び第4動画を含む。   The first image includes a first live view image, a first still image, and a first moving image. The second image includes a second live view image, a second still image, and a second moving image. The third image includes a third live view image, a third still image, and a third moving image. The fourth image includes a fourth live view image, a fourth still image, and a fourth moving image.

表示部50は、タッチパネル52を備える。タッチパネル52は、表示面51上に設けられている。タッチパネル52において、第1タッチ領域511aが第1表示領域511上に重なるように形成されている。また、第2タッチ領域512aが第2表示領域512上に重なるように形成されている。また、第3タッチ領域513aが第3表示領域513上に重なるように形成されている。また、第4タッチ領域514aが第4表示領域514上に重なるように形成されている。第1タッチ領域511a、第2タッチ領域512a、第3タッチ領域513a及び第4タッチ領域514aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。   The display unit 50 includes a touch panel 52. The touch panel 52 is provided on the display surface 51. In the touch panel 52, the first touch area 511 a is formed so as to overlap the first display area 511. Further, the second touch area 512 a is formed so as to overlap the second display area 512. In addition, the third touch area 513a is formed so as to overlap the third display area 513. The fourth touch area 514a is formed so as to overlap the fourth display area 514. When it is detected that the first touch area 511a, the second touch area 512a, the third touch area 513a, and the fourth touch area 514a are pressed (touched) by the user, the pressed positions (any touch area) Is output to the system control unit 70.

操作ボタン表示領域520は、画像表示領域510の近傍に設けられている。操作ボタン表示領域520には、使用者が表示領域の選択や、撮像条件及び撮影モードなどを設定するためのメニュー画像520Mが表示される。メニュー画像520Mには、選択ボタン画像521、ISO感度ボタン画像522、シャッタースピードボタン画像523、ピクチャーコントロールボタン画像524及び撮像モードボタン画像525が含まれる。選択ボタン画像521は、使用者が第1表示領域、第2表示領域、第3表示領域及び第4表示領域それぞれに表示された第1画像、第2画像、第3画像及び第4画像のうちいずれかを選択する場合に用いる。ISO感度ボタン画像522は、使用者がISO感度(すなわちゲイン)を設定する場合に用いる。シャッタースピードボタン画像523は、使用者がシャッタースピード(すなわち、露光時間)を設定する場合に用いる。なお、シャッタースピードは電荷の蓄積時間に対応する。ピクチャーコントロールボタン画像524は、使用者が画調、色相、コントラストなどの画像の特性を設定(調整)する場合に用いる。撮像モードボタン画像525は、使用者が手動で撮像条件を設定するか、自動で撮像条件を設定するかを選択する場合に用いる。   The operation button display area 520 is provided in the vicinity of the image display area 510. In the operation button display area 520, a menu image 520M is displayed for the user to select a display area, set an imaging condition, an imaging mode, and the like. The menu image 520M includes a selection button image 521, an ISO sensitivity button image 522, a shutter speed button image 523, a picture control button image 524, and an imaging mode button image 525. The selection button image 521 includes a first image, a second image, a third image, and a fourth image displayed on the first display area, the second display area, the third display area, and the fourth display area, respectively. Used when selecting either one. The ISO sensitivity button image 522 is used when the user sets the ISO sensitivity (that is, gain). The shutter speed button image 523 is used when the user sets the shutter speed (that is, the exposure time). The shutter speed corresponds to the charge accumulation time. The picture control button image 524 is used when the user sets (adjusts) image characteristics such as image tone, hue, and contrast. The imaging mode button image 525 is used when the user selects whether to manually set the imaging condition or automatically set the imaging condition.

タッチパネル52において、タッチ領域521aが選択ボタン画像521上に重なるように形成されている。タッチ領域522aがISO感度ボタン画像522上に重なるように形成されている。タッチ領域523aがシャッタースピードボタン画像523上に重なるように形成されている。タッチ領域524aがピクチャーコントロールボタン画像524上に重なるように形成されている。タッチ領域525aが撮像モードボタン画像525上に重なるように形成されている。タッチ領域521a、タッチ領域521a、タッチ領域521a及びタッチ領域525aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。   In the touch panel 52, the touch area 521 a is formed so as to overlap the selection button image 521. The touch area 522a is formed so as to overlap the ISO sensitivity button image 522. The touch area 523a is formed so as to overlap the shutter speed button image 523. The touch area 524a is formed so as to overlap the picture control button image 524. The touch area 525a is formed so as to overlap the imaging mode button image 525. When it is detected that the touch area 521a, the touch area 521a, the touch area 521a, and the touch area 525a are pressed (touched) by the user, a detection signal indicating a pressed position (which touch area is) Is output to the system control unit 70.

次に、第1実施形態に係るデジタルカメラ1の静止画撮影動作について説明する。図9は、第1実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。また、図10、図11、図12及び図13は、第1実施形態における表示面51の表示例を示す図である。   Next, the still image shooting operation of the digital camera 1 according to the first embodiment will be described. FIG. 9 is a flowchart for explaining a photographing operation executed by the system control unit 70 of the first embodiment. 10, FIG. 11, FIG. 12, and FIG. 13 are diagrams showing display examples of the display surface 51 in the first embodiment.

図9に示す処理において、デジタルカメラ1に電源が投入された後、使用者が撮影を開始するために操作部55などの操作を行うと、分割部74は、撮像素子100の画素領域113Aにおいて、図5に示すような複数の撮像領域(第1撮像領域、第2撮像領域、第3撮像領域、第4撮像領域)に分割して設定する。また、設定部73は、分割部74が設定した第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域に対して、予め決められた標準の撮像条件を設定する(ステップS1)。例えば、設定部73は、第1撮像領域に対する標準の撮像条件として、ISO感度(「100」)、シャッタースピード(「1/2秒」)などを設定する。また、設定部73は、第2撮像領域に対する標準の撮像条件として、ISO感度(「200」)、シャッタースピード(「1/100秒」)などを設定する。また、設定部73は、第3撮像領域に対する標準の撮像条件として、ISO感度(「400」)、シャッタースピード(「1/500秒」)などを設定する。また、設定部73は、第4撮像領域に対する標準の撮像条件として、ISO感度(「800」)、シャッタースピード(「1/1000秒」)などを設定する。   In the processing shown in FIG. 9, after the user turns on the digital camera 1, when the user performs an operation such as the operation unit 55 to start shooting, the dividing unit 74 moves in the pixel region 113 </ b> A of the image sensor 100. , And divided into a plurality of imaging areas (first imaging area, second imaging area, third imaging area, and fourth imaging area) as shown in FIG. The setting unit 73 sets predetermined standard imaging conditions for the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region set by the dividing unit 74 (step S1). ). For example, the setting unit 73 sets ISO sensitivity (“100”), shutter speed (“1/2 second”), and the like as standard imaging conditions for the first imaging region. The setting unit 73 sets ISO sensitivity (“200”), shutter speed (“1/100 second”), and the like as standard imaging conditions for the second imaging region. The setting unit 73 sets ISO sensitivity (“400”), shutter speed (“1/500 second”), and the like as standard imaging conditions for the third imaging region. In addition, the setting unit 73 sets ISO sensitivity (“800”), shutter speed (“1/1000 second”), and the like as standard imaging conditions for the fourth imaging region.

次に、システム制御部70が撮影動作を開始する(ステップS2)。撮影が開始されると、制御部71は、撮像素子100の第1撮像領域で生成された第1画像データにより示される第1ライブビュー画像を表示面51の第1表示領域511に表示させる。制御部71は、撮像素子100の第2撮像領域で生成された第2画像データにより示される第2ライブビュー画像を表示面51の第2表示領域512に表示させる。制御部71は、撮像素子100の第3撮像領域で生成された第3画像データにより示される第3ライブビュー画像を表示面51の第3表示領域513に表示させる。制御部71は、撮像素子100の第4撮像領域で生成された第4画像データにより示される第4ライブビュー画像を表示面51の第4表示領域514に表示させる(ステップS3)。図10に示す例では、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514それぞれに滝のライブビュー画像を示す第1ライブビュー画像、第2ライブビュー画像、第3ライブビュー画像及び第4ライブビュー画像が表示されている。第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、それぞれ異なる撮像条件で撮像が行われている。このため、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514には、それぞれ被写体の明るさ、被写体(移動する移動被写体)のブレ、コントラストなどが異なるライブビュー画像が表示される。   Next, the system control unit 70 starts a photographing operation (step S2). When shooting is started, the control unit 71 causes the first display area 511 of the display surface 51 to display the first live view image indicated by the first image data generated in the first imaging area of the imaging device 100. The control unit 71 causes the second display area 512 of the display surface 51 to display the second live view image indicated by the second image data generated in the second imaging area of the imaging element 100. The control unit 71 displays the third live view image indicated by the third image data generated in the third imaging region of the imaging element 100 in the third display region 513 of the display surface 51. The control unit 71 displays the fourth live view image indicated by the fourth image data generated in the fourth imaging region of the imaging device 100 in the fourth display region 514 of the display surface 51 (Step S3). In the example illustrated in FIG. 10, a first live view image and a second live view image showing a live view image of a waterfall in each of the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514. The third live view image and the fourth live view image are displayed. The first imaging area, the second imaging area, the third imaging area, and the fourth imaging area are imaged under different imaging conditions. Therefore, the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 have different brightness of the subject, blurring of the subject (moving moving subject), contrast, and the like. A view image is displayed.

使用者は、画像表示領域510の第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514にそれぞれ表示された第1ライブビュー画像、第2ライブビュー画像、第3ライブビュー画像及び第4ライブビュー画像を見比べて、撮像条件の違いによる画像の違いを確認することができる。そして、使用者は、第1ライブビュー画像、第2ライブビュー画像、第3ライブビュー画像及び第4ライブビュー画像のうちのいずれかを選択する場合、選択ボタン画像521(すなわちタッチ領域521a)を指でタッチする。これにより、表示領域の選択が可能な状態、すなわち、タッチパネル52の4つのタッチ領域(タッチ領域511a、タッチ領域512a、タッチ領域513a及びタッチ領域514a)がタッチ操作を検出可能な状態となる。その後、使用者は、4つの表示領域(第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514)のいずれかを指でタッチすることにより、1つの表示領域を選択する。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。   The user can display the first live view image, the second live view image, and the second live view image displayed in the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 of the image display area 510, respectively. By comparing the 3 live view images and the 4th live view image, it is possible to confirm a difference in images due to a difference in imaging conditions. When the user selects any one of the first live view image, the second live view image, the third live view image, and the fourth live view image, the user selects the selection button image 521 (that is, the touch area 521a). Touch with your finger. As a result, the display area can be selected, that is, the four touch areas (touch area 511a, touch area 512a, touch area 513a, and touch area 514a) of the touch panel 52 can be detected. Thereafter, the user touches any one of the four display areas (the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514) with one finger to display one display area. Select. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70.

選択部72は、タッチパネル52からの検出信号に基づいて、使用者によって選択された表示領域を認識する。図11、図12及び図13に示す例では、使用者によって第1表示領域511が選択されている。選択部72は、使用者により第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514のいずれかが選択されたか否かを判定する(ステップS4)。使用者により第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514のいずれかが選択されたと判定した場合は、選択部72は、使用者により選択された表示領域(図11では第1表示領域511)を設定する(ステップS5)。具体的には、選択部72は、駆動部21に対して使用者により選択された表示領域に対応するブロックの位置などを指示する指示信号を出力する。   The selection unit 72 recognizes the display area selected by the user based on the detection signal from the touch panel 52. In the example shown in FIGS. 11, 12, and 13, the first display area 511 is selected by the user. The selection unit 72 determines whether any of the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 has been selected by the user (step S4). When it is determined that one of the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 is selected by the user, the selection unit 72 displays the display selected by the user. An area (first display area 511 in FIG. 11) is set (step S5). Specifically, the selection unit 72 outputs an instruction signal for instructing the driving unit 21 such as the position of a block corresponding to the display area selected by the user.

使用者は、選択した表示領域(すなわち第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域のいずれか)における撮像条件を変更することが可能である。設定部72は、使用者により撮像条件が変更されたか否かを判定する(ステップS6)。選択部72は、使用者により撮像条件が変更されたと判定した場合は、変更された撮像条件を設定する(ステップS7)。   The user can change the imaging condition in the selected display area (that is, one of the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area). The setting unit 72 determines whether or not the imaging condition has been changed by the user (step S6). When the selection unit 72 determines that the imaging condition has been changed by the user, the selection unit 72 sets the changed imaging condition (step S7).

例えば、使用者は、第1表示領域511の撮像条件としてISO感度を設定する場合は、ISO感度ボタン画像522(すなわちタッチ領域522a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域522aに対応する検出信号をシステム制御部70に出力する。制御部71は、図11に示すように、ISO感度ボタン画像522の横にISO感度の値を複数表示させる。図11に示す例では、ISO感度として、「100」「200」「400」「800」「1600」が表示される。設定部73は、タッチパネル52において、ISO感度のそれぞれの値の領域と重なるように新たにタッチ領域を設定する。使用者は、ISO感度の値のいずれかをタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。設定部73は、使用者にタッチされたISO感度の値を設定する。具体的には、設定部73は、使用者により選択されたISO感度に応じたゲインを指示する指示信号を駆動部21に出力する。   For example, when the ISO sensitivity is set as the imaging condition of the first display area 511, the user touches the ISO sensitivity button image 522 (that is, the touch area 522a). The touch panel 52 outputs a detection signal corresponding to the touch area 522a touched by the user to the system control unit 70. As shown in FIG. 11, the control unit 71 displays a plurality of ISO sensitivity values next to the ISO sensitivity button image 522. In the example illustrated in FIG. 11, “100”, “200”, “400”, “800”, and “1600” are displayed as the ISO sensitivity. The setting unit 73 newly sets a touch area on the touch panel 52 so as to overlap each ISO sensitivity value area. The user touches one of the ISO sensitivity values. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70. The setting unit 73 sets the ISO sensitivity value touched by the user. Specifically, the setting unit 73 outputs an instruction signal for instructing a gain corresponding to the ISO sensitivity selected by the user to the driving unit 21.

また、使用者は、第1表示領域511の撮像条件としてシャッタースピード(電荷蓄積時間)を設定する場合も、ISO感度の設定と同じような操作を行う。すなわち、使用者は、撮像条件としてシャッタースピードを設定する場合は、シャッタースピードボタン画像523(すなわちタッチ領域523a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域523aに対応する検出信号をシステム制御部70に出力する。制御部71は、シャッタースピードボタン画像523の横にシャッタースピードの値を複数表示させる。使用者は、シャッタースピードの値のいずれかをタッチする。設定部73は、使用者によりタッチされたシャッタースピードの値を設定する。具体的には、設定部73は、使用者により選択されたシャッタースピードを指示する指示信号を駆動部21に出力する。   In addition, when the user sets the shutter speed (charge accumulation time) as the imaging condition of the first display area 511, the user performs the same operation as the ISO sensitivity setting. That is, the user touches the shutter speed button image 523 (that is, the touch area 523a) when setting the shutter speed as the imaging condition. The touch panel 52 outputs a detection signal corresponding to the touch area 523 a touched by the user to the system control unit 70. The control unit 71 displays a plurality of shutter speed values next to the shutter speed button image 523. The user touches one of the shutter speed values. The setting unit 73 sets the shutter speed value touched by the user. Specifically, the setting unit 73 outputs an instruction signal instructing the shutter speed selected by the user to the drive unit 21.

また、使用者は、第1表示領域511の撮像条件としてピクチャーコントロールを設定する場合は、ピクチャーコントロールボタン画像524(すなわちタッチ領域524a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域524aに対応する検出信号をシステム制御部70に出力する。制御部71は、図12に示すように、ピクチャーコントロールボタン画像524の横にピクチャーコントロールの種類を複数表示させる。図12に示す例では、ピクチャーコントロールの種類として、「スタンダード」「ニュートラル」「風景」「ビビッド」が表示される。なお、「スタンダード」は、画像処理部30が被写体の輪郭の強さ、コントラスト、明るさ、色の濃さなどにおいて偏りのない標準的な画像に調整する。「ニュートラル」は、画像処理部30が被写体固有の階調や色合いを忠実に再現し、最も実物の被写体に近い画像に調整する。「風景」は、画像処理部30が自然の風景や街並みなどを高い階調で立体感のある画像に調整する。「ビビッド」は、画像処理部30が被写体の輪郭やコントラストを強調した色鮮やかな画像に調整する。   The user touches the picture control button image 524 (that is, the touch area 524a) when setting the picture control as the imaging condition of the first display area 511. The touch panel 52 outputs a detection signal corresponding to the touch area 524a touched by the user to the system control unit 70. As shown in FIG. 12, the control unit 71 displays a plurality of types of picture controls next to the picture control button image 524. In the example shown in FIG. 12, “Standard”, “Neutral”, “Landscape”, and “Vivid” are displayed as the types of picture control. Note that “standard” is adjusted by the image processing unit 30 to a standard image with no bias in the strength, contrast, brightness, color density, and the like of the contour of the subject. In the “neutral” mode, the image processing unit 30 faithfully reproduces the gradation and color tone specific to the subject and adjusts the image to be the closest to the real subject. In “landscape”, the image processing unit 30 adjusts a natural landscape, a cityscape, or the like to a high-gradation image with high gradation. “Vivid” is adjusted by the image processing unit 30 to a colorful image in which the contour and contrast of the subject are emphasized.

設定部73は、タッチパネル52において、ピクチャーコントロールの種類の領域と重なるように新たにタッチ領域を設定する。使用者は、ピクチャーコントロールの種類のいずれかをタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。設定部73は、使用者にタッチされたピクチャーコントロールの種類を設定する。具体的には、設定部73は、使用者により選択されたピクチャーコントロールの種類を指示する指示信号を画像処理部30に出力する。   The setting unit 73 sets a new touch area on the touch panel 52 so as to overlap with the picture control type area. The user touches one of the picture control types. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70. The setting unit 73 sets the type of picture control touched by the user. Specifically, the setting unit 73 outputs an instruction signal for instructing the type of picture control selected by the user to the image processing unit 30.

また、使用者は、第1表示領域511の撮像条件として撮影モードを設定する場合は、撮像モードボタン画像525(すなわちタッチ領域525a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域525aに対応する検出信号をシステム制御部70に出力する。制御部71は、図13に示すように、撮像モードボタン画像525の横に「P」「S」「A」「M」を表示させる。なお、「P」はPモード(プログラムオート)を意味し、適正露出となるように、絞り値とシャッタースピードを自動的に決定するモードである。「S」はSモード(シャッター優先モード)を意味し、使用者が選択したシャッタースピードに対して適正露出となるような絞り値を決定するモードである。「A」はAモード(絞り優先モード)を意味し、使用者が選択した絞り値に対して適正露出となるようなシャッタースピードを自動的に決定するモードである。「M」はMモード(マニュアルモード)を意味し、使用者が絞り値もシャッタースピードも選択するモードである。なお、上述したように、システム制御部70(設定部73)は、撮像領域113Aのブロックごとに異なる撮像条件を設定することが可能であるが、絞り値についてはブロックごとに設定することはできず撮像領域113A全面に対して設定する。   Further, when the user sets the shooting mode as the shooting condition of the first display area 511, the user touches the shooting mode button image 525 (that is, the touch area 525a). The touch panel 52 outputs a detection signal corresponding to the touch area 525a touched by the user to the system control unit 70. As illustrated in FIG. 13, the control unit 71 displays “P”, “S”, “A”, and “M” next to the imaging mode button image 525. “P” means P mode (program auto), and is a mode in which the aperture value and the shutter speed are automatically determined so as to achieve proper exposure. “S” means S mode (shutter priority mode), and is a mode for determining an aperture value that provides appropriate exposure with respect to the shutter speed selected by the user. “A” means A mode (aperture priority mode), and is a mode for automatically determining a shutter speed at which a proper exposure is obtained with respect to the aperture value selected by the user. “M” means M mode (manual mode), in which the user selects an aperture value and a shutter speed. As described above, the system control unit 70 (setting unit 73) can set different imaging conditions for each block of the imaging region 113A, but the aperture value can be set for each block. First, it is set for the entire imaging region 113A.

設定部73は、タッチパネル52において、撮影モードの種類の領域と重なるように新たにタッチ領域を設定する。使用者は、撮影モードの種類のいずれかをタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。設定部73は、使用者にタッチされた撮影モードの種類を設定する。そして、設定部73は、「P」「S」「A」のいずれかが選択された場合は、絞り値及びシャッタースピードの少なくともいずれか1つを、適正露出となるように自動的に決定する。設定部73は、シャッタースピードを決定した場合は、シャッタースピードを指示する指示信号を駆動部21に出力する。また、設定部73は、絞り値を決定した場合は、絞り値に対応する制御情報をレンズ駆動制御装置15に出力する。   The setting unit 73 sets a new touch area on the touch panel 52 so as to overlap the area of the shooting mode type. The user touches one of the types of shooting modes. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70. The setting unit 73 sets the type of shooting mode touched by the user. Then, when any one of “P”, “S”, and “A” is selected, the setting unit 73 automatically determines at least one of the aperture value and the shutter speed so as to achieve an appropriate exposure. . When determining the shutter speed, the setting unit 73 outputs an instruction signal for instructing the shutter speed to the drive unit 21. In addition, when the aperture value is determined, the setting unit 73 outputs control information corresponding to the aperture value to the lens drive control device 15.

駆動部21は、使用者により選択された第1表示領域511に対応する第1撮像領域をブロック単位で指示する指示信号を受け取る。また、駆動部21は、使用者により選択された撮像条件を指示する指示信号を受け取る。これに応じて、駆動部21は、第1表示領域511に対応するブロックにおいて、指示された撮像条件(シャッタースピード、ISO感度)で撮像するように撮像部20を駆動する。また、画像処理部30は、使用者により選択された撮像条件を指示する指示信号を受け取る。これに応じて、画像処理部30は、指示された撮像条件(ホワイトバランス、階調、色調補正などの制御パラメータ)に基づいて、第1撮像領域のRAWデータに対して画像処理を実行する。また、レンズ駆動制御装置15は、システム制御部70からの制御情報に基づいて絞り14の開口径調節を行う。   The drive unit 21 receives an instruction signal that instructs the first imaging region corresponding to the first display region 511 selected by the user in units of blocks. Further, the drive unit 21 receives an instruction signal for instructing an imaging condition selected by the user. In response to this, the driving unit 21 drives the imaging unit 20 so as to capture an image with the instructed imaging conditions (shutter speed, ISO sensitivity) in the block corresponding to the first display area 511. Further, the image processing unit 30 receives an instruction signal for instructing an imaging condition selected by the user. In response to this, the image processing unit 30 performs image processing on the RAW data in the first imaging area based on the instructed imaging conditions (control parameters such as white balance, gradation, and tone correction). Further, the lens drive control device 15 adjusts the aperture diameter of the diaphragm 14 based on the control information from the system control unit 70.

このように第1撮像領域の撮像条件が変更されると、第1表示領域511に表示される第1ライブビュー画像が変化する。例えば、ISO感度を高くすると、被写体が少ない光量でも明るく撮像される。また、第1ライブビュー画像の暗い部分が明るくなる。また、シャッタースピードを高くすると、動いている被写体のブレが少なくなる。   Thus, when the imaging condition of the first imaging area is changed, the first live view image displayed in the first display area 511 changes. For example, when the ISO sensitivity is increased, the subject is brightly imaged even with a small amount of light. Also, the dark part of the first live view image becomes brighter. In addition, when the shutter speed is increased, blurring of a moving subject is reduced.

このように、使用者は、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514のいずれかを選択し、選択した表示領域における撮像条件を設定することにより、撮像条件に変更に応じて変化するライブビュー画像を確認することができる。この場合、使用者が選択した撮像条件が適正露出に合った条件でないこともある。しかし、使用者は、撮像条件の変更によって露出オーバーや露出アンダーになることを認識することもできる。また、使用者は、どのような撮像条件を変更するとどのようにライブビュー画像が変化するかを認識することができる。従って、使用者は、撮影を行う前に撮像条件を変更することによって複数のライブビュー画像を確認した上で撮影を行うことができる。   As described above, the user selects one of the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514, and sets the imaging condition in the selected display area. The live view image that changes in accordance with the change in the imaging condition can be confirmed. In this case, the imaging condition selected by the user may not be a condition suitable for proper exposure. However, the user can also recognize that the exposure condition is overexposed or underexposed by changing the imaging condition. In addition, the user can recognize how the live view image changes when the imaging condition is changed. Therefore, the user can take a picture after confirming a plurality of live view images by changing the imaging condition before taking the picture.

以上のようなステップS1からS7までの処理は、使用者による操作部55のレリーズスイッチの半押し操作(ステップS8)が行われるまで繰り返し実行される。なお、図10、図11、図12及び図13においては、使用者が4つの表示領域のうちの第1表示領域511を選択した場合について説明したが、使用者が第2表示領域512、第3表示領域513、及び第4表示領域514を選択する場合についても同様の処理が行われる。   The processing from step S1 to S7 as described above is repeated until the user performs a half-pressing operation (step S8) of the release switch of the operation unit 55. 10, 11, 12, and 13, the case where the user has selected the first display area 511 among the four display areas has been described. However, the user has selected the second display area 512, the second display area 511, and the like. Similar processing is performed when the third display area 513 and the fourth display area 514 are selected.

なお、図10、図11、図12及び図13において図示していないが、使用者が設定可能な領域ごとの撮像条件として、ISO感度、シャッタースピード、及びピクチャーコントロールに限られない。例えば、上述したフレームレート、間引き率、画素信号を加算する加算行数又は加算列数、デジタル化のビット数なども表示領域ごとの撮像条件として設定可能に構成してもよい。また、色信号処理、ホワイトバランス調整、階調調整、圧縮率などのパラメータも表示領域ごとの撮像条件として設定可能に構成してもよい。   Although not shown in FIGS. 10, 11, 12, and 13, the imaging conditions for each area that can be set by the user are not limited to ISO sensitivity, shutter speed, and picture control. For example, the frame rate, the thinning rate, the number of added rows or columns to which pixel signals are added, the number of digitized bits, and the like may be set as imaging conditions for each display area. Further, parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate may be set as imaging conditions for each display area.

システム制御部70は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS8)。半押し操作は、撮影準備を開始させる指示として用いられる。なお、図8において図示していないが、システム制御部70は、自動的に焦点調節を行うオートフォーカス(AF)の制御などを実行する。   The system control unit 70 determines whether or not the release switch half-press operation (SW1 operation) has been performed (step S8). The half-press operation is used as an instruction to start shooting preparation. Although not shown in FIG. 8, the system control unit 70 performs auto focus (AF) control and the like for automatically performing focus adjustment.

次に、システム制御部70は、レリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS9)。全押し操作が行われたと判定した場合は、設定部73は、撮像素子100に撮像を実行させる撮像処理を行う(ステップS10)。なお、ステップS10における全押し操作に基づく撮像のことを本撮像という。本実施形態では、撮像部20は、ステップS5において選択部72により最後に設定された表示領域(ライブビュー画像)における撮像条件に基づいて、撮像素子100の画素領域(撮像領域)113Aに対して本撮像を行う。また、制御部71は、画素領域(撮像領域)113Aに対して本撮像された画像(静止画)を、画像表示領域510のすべての領域において表示するように制御する。これにより、使用者は、どのような画像が撮像されたかを大きな表示領域で確認することができる。   Next, the system control unit 70 determines whether or not a release switch full-press operation (SW2 operation) has been performed (step S9). If it is determined that the full-press operation has been performed, the setting unit 73 performs an imaging process that causes the imaging device 100 to perform imaging (step S10). Note that imaging based on the full-press operation in step S10 is referred to as main imaging. In the present embodiment, the imaging unit 20 applies to the pixel region (imaging region) 113A of the imaging element 100 based on the imaging condition in the display region (live view image) last set by the selection unit 72 in step S5. Perform real imaging. In addition, the control unit 71 performs control so that an image (still image) that is actually captured with respect to the pixel region (imaging region) 113 </ b> A is displayed in all regions of the image display region 510. Thereby, the user can confirm what kind of image was imaged with a large display area.

なお、図9、図10、図11、図12及び図13を用いて静止画の撮影動作について説明したが、動画の撮影動作についても同じ処理により実現される。この場合、各表示領域(第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514)には、各撮像領域(第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域)において異なる撮像条件(例えばフレームレート)で撮像された動画がそれぞれ表示される。また、この場合、操作ボタン表示領域520には、フレームレートを設定するためのボタンが表示されることが好ましい。また、この場合も、制御部71は、画素領域(撮像領域)113Aに対して本撮像された動画を、画像表示領域510のすべての領域において表示する。   Although the still image shooting operation has been described with reference to FIGS. 9, 10, 11, 12, and 13, the moving image shooting operation is also realized by the same processing. In this case, each display area (the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514) has an image pickup area (the first image pickup area, the second image pickup area, and the third image pickup area). Moving images captured under different imaging conditions (for example, frame rate) are displayed in the imaging area and the fourth imaging area, respectively. In this case, it is preferable that a button for setting a frame rate is displayed in the operation button display area 520. Also in this case, the control unit 71 displays the moving image that is actually captured with respect to the pixel region (imaging region) 113 </ b> A in all regions of the image display region 510.

以上に説明したように、第1実施形態では、第1撮像条件で撮像を行う第1撮像素子(撮像素子100の一部の撮像素子)と第1撮像条件とは異なる第2撮像条件で撮像を行う第2撮像素子(撮像素子100の一部の撮像素子とは異なる撮像素子)とが複数配列され、第1撮像素子に入射した被写体像に応じて生成された第1画像データと第2撮像素子に入射した被写体像に応じて生成された第2画像データとを出力する撮像部20と、第1画像データにより示される第1画像(例えば第1表示領域511に表示される画像)と第2画像データにより示される第2画像(例えば第2表示領域512に表示される画像)とを表示部50に表示して第1画像データ及び第2画像データの記録態様を選択可能なように提示する制御部71とを備える。このような構成によれば、撮像条件の変更に対応する複数の画像の変化を確認することができる。   As described above, in the first embodiment, the first image pickup device (a part of the image pickup device 100) that picks up the image under the first image pickup condition and the second image pickup condition that is different from the first image pickup condition are used. A plurality of second image sensors (image sensors different from some of the image sensors of the image sensor 100) are arranged, and the first image data and the second image data generated according to the subject image incident on the first image sensor An imaging unit 20 that outputs second image data generated according to the subject image incident on the imaging element, and a first image (for example, an image displayed in the first display area 511) indicated by the first image data. A second image indicated by the second image data (for example, an image displayed in the second display area 512) is displayed on the display unit 50 so that the recording mode of the first image data and the second image data can be selected. A control unit 71 for presentingAccording to such a configuration, it is possible to confirm a change in a plurality of images corresponding to a change in imaging conditions.

また、第1実施形態では、第1画像及び第2画像は、いずれもライブビュー画像であり、第1画像データ及び第2画像データの記録態様を選択する選択部72を備え、撮像部20は、選択部72により選択された記録態様に対応する撮像条件で本撮像を行う。このような構成によれば、静止画又は動画の本撮像を開始する前に、異なる撮像条件で撮像された複数のライブビュー画像を確認した上で本撮像を行うことができる。また、第1実施形態では、選択部72は、表示部50に形成されたタッチパネル52を有するので、簡易な操作でライブビュー画像を選択することができる。   In the first embodiment, each of the first image and the second image is a live view image, and includes a selection unit 72 that selects a recording mode of the first image data and the second image data. The main imaging is performed under the imaging conditions corresponding to the recording mode selected by the selection unit 72. According to such a configuration, the main imaging can be performed after confirming a plurality of live view images captured under different imaging conditions before starting the actual imaging of a still image or a moving image. In the first embodiment, since the selection unit 72 includes the touch panel 52 formed on the display unit 50, the live view image can be selected with a simple operation.

また、第1実施形態では、撮像部20の複数の撮像素子を少なくとも第1撮像素子と第2撮像素子とに分割する分割部74を備える。このような構成によれば、制御部71が少なくとも2つ以上のライブビュー画像を表示部50に表示させることができるようになる。また、第1実施形態では、分割部74は、撮像部20の撮像領域113Aにおいて第1撮像素子及び第2撮像素子をそれぞれ全面的に複数配置する。このような構成によれば、撮像部20が使用者にとって同一に見える被写体像についての複数のライブビュー画像を撮像することができる。従って、使用者が撮像条件の違いによる被写体像についてのライブビュー画像の違いを容易に確認することができる。   Moreover, in 1st Embodiment, the division part 74 which divides | segments the several image pick-up element of the image pick-up part 20 into at least a 1st image pick-up element and a 2nd image pick-up element is provided. According to such a configuration, the control unit 71 can display at least two or more live view images on the display unit 50. In the first embodiment, the dividing unit 74 arranges a plurality of first imaging elements and a plurality of second imaging elements in the imaging region 113A of the imaging unit 20 over the entire surface. According to such a configuration, the image capturing unit 20 can capture a plurality of live view images for a subject image that looks the same for the user. Therefore, the user can easily confirm the difference in the live view image for the subject image due to the difference in the imaging conditions.

また、第1実施形態では、第1撮像条件と第2撮像条件とを設定する設定部73を備える。このような構成によれば、予め決められた撮像条件だけでなく、使用者により選択された撮像条件で撮像を行わせることも可能となる。また、第1実施形態では、設定部73は、撮像条件として、フレームレート、ゲイン、露光時間のうち、少なくとも1つを異ならせる。このような構成によれば、使用者は、複数の撮像領域(複数のライブビュー画像)ごとに、フレームレート、ゲイン、露光時間(シャッタースピード)を異ならせてライブビュー画像を変化させ、変化させたライブビュー画像を確認した上で撮像を行うことができる。   Moreover, in 1st Embodiment, the setting part 73 which sets a 1st imaging condition and a 2nd imaging condition is provided. According to such a configuration, it is possible to perform imaging not only with predetermined imaging conditions but also with imaging conditions selected by the user. In the first embodiment, the setting unit 73 varies at least one of the frame rate, the gain, and the exposure time as the imaging condition. According to such a configuration, the user changes the live view image by changing the frame rate, gain, and exposure time (shutter speed) for each of the plurality of imaging regions (multiple live view images). Imaging can be performed after confirming the live view image.

また、第1実施形態では、設定部73は、撮像条件として、ホワイトバランス、階調、色調補正のうち、少なくとも1つを異ならせる。このような構成によれば、使用者は、複数の撮像領域(複数のライブビュー画像)ごとに、ホワイトバランス、階調、色調補正を異ならせてライブビュー画像を変化させ、変化させたライブビュー画像を確認した上で撮像を行うことができる。   In the first embodiment, the setting unit 73 changes at least one of white balance, gradation, and color tone correction as the imaging condition. According to such a configuration, the user changes the live view image by changing the white balance, gradation, and color tone correction for each of the plurality of imaging regions (multiple live view images), and the changed live view. Imaging can be performed after confirming the image.

上記した第1実施形態において、設定部73は、第1画像と第2画像との明るさが同じになるように、露光時間(シャッタースピード)及びゲイン(ISO感度)のいずれか一方の変更に応じて、露光時間及びゲインのいずれか他方を変更するように構成してもよい。具体的には、設定部73は、第1画像と第2画像とが同じ適正な明るさになるように、第1撮像領域又は第2撮像領域において露光時間を長くするとゲインを低くし、露光時間を短くするとゲインを高くする。このような構成によれば、使用者が同一の明るさとなる異なる露光時間及びゲインの組み合わせによる画像の違いを事前の確認することができる。   In the first embodiment described above, the setting unit 73 changes either the exposure time (shutter speed) or the gain (ISO sensitivity) so that the brightness of the first image and the second image are the same. Accordingly, the other of the exposure time and the gain may be changed. Specifically, the setting unit 73 decreases the gain by increasing the exposure time in the first imaging region or the second imaging region so that the first image and the second image have the same appropriate brightness, and the exposure is performed. Shortening the time increases the gain. According to such a configuration, the user can confirm in advance the difference in images due to combinations of different exposure times and gains with the same brightness.

なお、図7に示したように、第1実施形態では、電子機器の一例としてデジタルカメラ1について説明した。しかし、電子機器はデジタルカメラ1に限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図7に示す第1実施形態に係るデジタルカメラ1において、表示部50は電子機器の外部に設けられる構成であってもよい。この場合、システム制御部70及び表示部50のそれぞれには、有線又は無線で信号(画像データや制御信号など)を送受信する通信部が設けられる。また、画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。   As shown in FIG. 7, in the first embodiment, the digital camera 1 has been described as an example of an electronic device. However, the electronic device is not limited to the digital camera 1 and may be configured by a device such as a smartphone, a mobile phone, or a personal computer having an imaging function. In the digital camera 1 according to the first embodiment shown in FIG. 7, the display unit 50 may be provided outside the electronic device. In this case, each of the system control unit 70 and the display unit 50 is provided with a communication unit that transmits and receives signals (image data, control signals, and the like) by wire or wirelessly. Further, the image processing unit 30 and the system control unit 70 may be configured integrally. In this case, the system control unit having one body side CPU performs the processing based on the control program, thereby taking on the function of the image processing unit 30 and the function of the system control unit 70.

<第2実施形態>
上記した第1実施形態では、画像表示領域510における各表示領域(第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514)の撮像条件(蓄積条件を含む)は同じ条件としていたが、第2実施形態では、各表示領域を複数の領域に分割し、分割した領域ごとに異なる撮像条件(蓄積条件を含む)を設定する。
Second Embodiment
In the first embodiment described above, the imaging conditions (including the accumulation conditions) of each display area (the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514) in the image display area 510 are described. In the second embodiment, each display area is divided into a plurality of areas, and different imaging conditions (including accumulation conditions) are set for each divided area.

図14は、第2実施形態のデジタルカメラ1に係る表示部50Aを示す図である。図14に示すように、表示部50Aの表示面51Aは、図8に示した表示面51と同様に、画像表示領域510Aと操作ボタン表示領域520とが設けられている。画像表示領域510Aは、撮像部20で撮像された画像、すなわち、静止画、動画、及びライブビュー画像を表示する領域である。また、操作ボタン表示領域520は、使用者が撮像条件などを設定するためのメニューを表示する領域である。   FIG. 14 is a diagram illustrating a display unit 50A according to the digital camera 1 of the second embodiment. As shown in FIG. 14, the display surface 51A of the display unit 50A is provided with an image display area 510A and an operation button display area 520, similarly to the display surface 51 shown in FIG. The image display area 510A is an area for displaying an image captured by the imaging unit 20, that is, a still image, a moving image, and a live view image. The operation button display area 520 is an area for displaying a menu for the user to set imaging conditions and the like.

画像表示領域510Aは、4つの表示領域(第1表示領域516、第2表示領域517、第3表示領域518、第4表示領域519)に分割されている。なお、第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519は、図8に示した第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514にそれぞれ相当する。各表示領域516,517,518,519内には、複数のブロックB(i,j)が設定されている。図14に示す例では、ブロックB(i,j)は、各表示領域516,517,518,519において、水平方向(図14の横方向)に8個のブロック(i=1,2,3,4,5,6,7,8)が設定され、垂直方向(図14の縦方向)に6個のブロック(j=1,2,3,4,5,6)が設定されている。つまり、各表示領域516,517,518,519が8×6個(=48個)のブロックに分割されている。   The image display area 510A is divided into four display areas (a first display area 516, a second display area 517, a third display area 518, and a fourth display area 519). The first display area 516, the second display area 517, the third display area 518, and the fourth display area 519 are the first display area 511, the second display area 512, the third display area 513, and the third display area 513 shown in FIG. Each corresponds to the fourth display area 514. In each display area 516, 517, 518, 519, a plurality of blocks B (i, j) are set. In the example shown in FIG. 14, the block B (i, j) has eight blocks (i = 1, 2, 3) in the horizontal direction (lateral direction in FIG. 14) in each display area 516, 517, 518, 519. , 4, 5, 6, 7, 8) and 6 blocks (j = 1, 2, 3, 4, 5, 6) are set in the vertical direction (vertical direction in FIG. 14). That is, the display areas 516, 517, 518, and 519 are divided into 8 × 6 (= 48) blocks.

タッチパネル52が表示面51A上に設けられている。なお、図14において図示していないが、図8に示した場合と同様に、タッチパネル52において、第1タッチ領域516aが第1表示領域516上に重なるように形成されている。また、第2タッチ領域517aが第2表示領域517上に重なるように形成されている。また、第3タッチ領域518aが第3表示領域518上に重なるように形成されている。また、第4タッチ領域519aが第4表示領域519上に重なるように形成されている。各タッチ領域516a,517a,518a,519aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。   A touch panel 52 is provided on the display surface 51A. Although not shown in FIG. 14, the first touch area 516 a is formed so as to overlap the first display area 516 in the touch panel 52 as in the case shown in FIG. 8. Further, the second touch area 517 a is formed so as to overlap the second display area 517. Further, the third touch area 518 a is formed so as to overlap the third display area 518. The fourth touch area 519a is formed so as to overlap the fourth display area 519. When it is detected that each touch area 516a, 517a, 518a, 519a is pressed (touched) by the user, a detection signal indicating a pressed position (which touch area) is sent to the system control unit 70. Output to.

第1タッチ領域516aは、複数のブロックB(i,j)に対応して複数のタッチ領域P(i,j)に分かれている。同様に、第2タッチ領域517a、第2タッチ領域518a及び第4タッチ領域519aも、それぞれ、複数のブロックB(i,j)に対応して複数のタッチ領域P(i,j)に分かれている。各タッチ領域P(i,j)は、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。なお、図14に示す表示面51Aにおいて、図8に示した表示面51と同様の構成については同一符号を付して、重複する説明を省略する。   The first touch area 516a is divided into a plurality of touch areas P (i, j) corresponding to the plurality of blocks B (i, j). Similarly, the second touch area 517a, the second touch area 518a, and the fourth touch area 519a are also divided into a plurality of touch areas P (i, j) corresponding to the plurality of blocks B (i, j), respectively. Yes. When it is detected that each touch area P (i, j) is pressed (touched) by the user, a detection signal indicating the pressed position (which touch area) is sent to the system control unit 70. Output. In addition, in the display surface 51A shown in FIG. 14, the same code | symbol is attached | subjected about the structure similar to the display surface 51 shown in FIG. 8, and the overlapping description is abbreviate | omitted.

次に、第2実施形態に係るデジタルカメラ1の撮影動作について説明する。図15は、第2実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。また、図16及び図17は、第2実施形態における表示面51Aの表示例を示す図である。なお、デジタルカメラ1は静止画と動画を撮影することが可能であるが、静止画を撮影する場合について説明する。   Next, the photographing operation of the digital camera 1 according to the second embodiment will be described. FIG. 15 is a flowchart for explaining a photographing operation executed by the system control unit 70 of the second embodiment. FIGS. 16 and 17 are diagrams showing examples of display on the display surface 51A in the second embodiment. Although the digital camera 1 can shoot still images and moving images, the case of shooting still images will be described.

図15に示すステップS1からS5までの処理は、図9に示したステップS1からS5までの処理と同様であるため、重複する説明を省略する。使用者は、第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519のいずれかを選択した後(ステップS4,S5参照)、選択した1つの表示領域内の領域を選択することが可能である。使用者が1つの表示領域内の領域を選択する場合、その表示領域内に設定されているブロックB(i,j)を指でタッチすること(又は指でなぞる)ことにより、表示領域内の領域をブロック単位で選択する。タッチパネル52は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部70に出力する。   The processing from step S1 to S5 shown in FIG. 15 is the same as the processing from step S1 to S5 shown in FIG. The user selects any one of the first display area 516, the second display area 517, the third display area 518, and the fourth display area 519 (see Steps S4 and S5), and then within the selected display area. It is possible to select a region. When the user selects an area in one display area, the user touches (or traces) the block B (i, j) set in the display area with a finger. Select an area in blocks. The touch panel 52 outputs a detection signal corresponding to the touch area P (i, j) touched by the user to the system control unit 70.

選択部72は、タッチパネル52からの検出信号に基づいて、使用者によって選択された領域を認識する。図16に示す例では、使用者によって第1表示領域516が選択されている。また、使用者によって第1表示領域516内の領域516Aが選択されている。この領域516Aは、滝の後ろの背景の領域(図16中の白線が引かれている領域)である。具体的には、領域516Aは、ブロックB(3,1),B(4,1),B(5,1),B(6,1),B(7,1),B(8,1),B(4,2),B(5,2),B(6,2),B(7,2),B(8,2),B(5,3),B(6,3),B(7,3),B(8,3),B(6,4),B(7,4),B(8,4)からなる領域である。   The selection unit 72 recognizes the region selected by the user based on the detection signal from the touch panel 52. In the example shown in FIG. 16, the first display area 516 is selected by the user. Further, the area 516A in the first display area 516 is selected by the user. This area 516A is the background area behind the waterfall (the area where the white line in FIG. 16 is drawn). Specifically, the area 516A includes blocks B (3, 1), B (4, 1), B (5, 1), B (6, 1), B (7, 1), B (8, 1). ), B (4,2), B (5,2), B (6,2), B (7,2), B (8,2), B (5,3), B (6,3) , B (7, 3), B (8, 3), B (6, 4), B (7, 4), B (8, 4).

選択部72は、使用者により領域が選択されたか否かを判定する(ステップS11)。使用者により領域が選択されたと判定した場合は、選択部72は、使用者により選択された領域516Aを設定する(ステップS12)。具体的には、選択部72は、駆動部21に対して使用者により選択されたブロックの位置などを指示する指示信号を出力する。   The selection part 72 determines whether the area | region was selected by the user (step S11). If it is determined that the area has been selected by the user, the selection unit 72 sets the area 516A selected by the user (step S12). Specifically, the selection unit 72 outputs an instruction signal for instructing the drive unit 21 of the position of the block selected by the user.

使用者は、選択した表示領域(すなわち第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域のいずれか)における撮像条件を変更することが可能である。また、使用者は、選択した表示領域内の領域における撮像条件を変更することも可能である。設定部72は、使用者により撮像条件が変更されたか否かを判定する(ステップS14)。選択部72は、使用者により撮像条件が変更されたと判定した場合は、変更された撮像条件を設定する(ステップS15)。   The user can change the imaging condition in the selected display area (that is, one of the first imaging area, the second imaging area, the third imaging area, and the fourth imaging area). The user can also change the imaging condition in the area within the selected display area. The setting unit 72 determines whether or not the imaging condition has been changed by the user (step S14). When the selection unit 72 determines that the imaging condition has been changed by the user, the selection unit 72 sets the changed imaging condition (step S15).

例えば、使用者は、第1表示領域516の領域516Aの撮像条件としてISO感度を設定する場合は、ISO感度ボタン画像522(すなわちタッチ領域522a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域522aに対応する検出信号をシステム制御部70に出力する。制御部71は、図16に示すように、ISO感度ボタン画像522の横にISO感度の値を複数表示させる。設定部73は、タッチパネル52において、ISO感度のそれぞれの値の領域と重なるように新たにタッチ領域を設定する。使用者は、ISO感度の値のいずれかをタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。設定部73は、使用者にタッチされたISO感度の値を設定する。具体的には、設定部73は、使用者により選択されたISO感度に応じたゲインを指示する指示信号を駆動部21に出力する。   For example, when the ISO sensitivity is set as the imaging condition of the area 516A of the first display area 516, the user touches the ISO sensitivity button image 522 (that is, the touch area 522a). The touch panel 52 outputs a detection signal corresponding to the touch area 522a touched by the user to the system control unit 70. As shown in FIG. 16, the control unit 71 displays a plurality of ISO sensitivity values next to the ISO sensitivity button image 522. The setting unit 73 newly sets a touch area on the touch panel 52 so as to overlap each ISO sensitivity value area. The user touches one of the ISO sensitivity values. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70. The setting unit 73 sets the ISO sensitivity value touched by the user. Specifically, the setting unit 73 outputs an instruction signal for instructing a gain corresponding to the ISO sensitivity selected by the user to the driving unit 21.

駆動部21は、使用者により選択された第1表示領域516に対応する第1撮像領域をブロック単位で指示する指示信号を受け取る。また、駆動部21は、使用者により選択された第1表示領域516内の領域516Aをブロック単位で指示する指示信号を受け取る。また、駆動部21は、使用者により選択された撮像条件を指示する指示信号を受け取る。これに応じて、駆動部21は、第1表示領域516の領域516Aに対応するブロックにおいて、指示された撮像条件(シャッタースピード、ISO感度)で撮像するように撮像部20を駆動する。なお、画像処理部30は、使用者により選択された撮像条件を指示する指示信号を受け取った場合は、指示された撮像条件(ホワイトバランス、階調、色調補正などの制御パラメータ)に基づいて、領域516Aに対応する領域のRAWデータに対して画像処理を実行する。また、レンズ駆動制御装置15は、システム制御部70からの制御情報に基づいて絞り14の開口径調節を行う。   The drive unit 21 receives an instruction signal that instructs the first imaging region corresponding to the first display region 516 selected by the user in units of blocks. Further, the drive unit 21 receives an instruction signal instructing the area 516A in the first display area 516 selected by the user in units of blocks. Further, the drive unit 21 receives an instruction signal for instructing an imaging condition selected by the user. In response to this, the driving unit 21 drives the imaging unit 20 so as to capture an image with the instructed imaging conditions (shutter speed, ISO sensitivity) in the block corresponding to the region 516A of the first display region 516. When the image processing unit 30 receives an instruction signal instructing the imaging condition selected by the user, the image processing unit 30 is based on the instructed imaging condition (control parameters such as white balance, gradation, and tone correction). Image processing is executed on the RAW data in the area corresponding to the area 516A. Further, the lens drive control device 15 adjusts the aperture diameter of the diaphragm 14 based on the control information from the system control unit 70.

このように画素領域113Aにおける領域516Aに対応する領域の撮像条件が変更されると、第1ライブビュー画像における領域516Aの画像が変化する。例えば、ISO感度を高くすると、被写体が少ない光量でも明るく撮像される。また、領域516Aの暗い部分が明るくなる。また、シャッタースピードを高くすると、動いている被写体のブレが少なくなる。   Thus, when the imaging condition of the region corresponding to the region 516A in the pixel region 113A is changed, the image of the region 516A in the first live view image changes. For example, when the ISO sensitivity is increased, the subject is brightly imaged even with a small amount of light. Further, the dark part of the region 516A becomes brighter. In addition, when the shutter speed is increased, blurring of a moving subject is reduced.

このように、使用者は、第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519のいずれかを選択し、さらに選択した表示領域内の領域を選択する。そして、使用者は、選択した領域における撮像条件を設定する。これにより、撮像条件に変更に応じて変化するライブビュー画像中の所定領域の画像を確認することができる。   As described above, the user selects any one of the first display area 516, the second display area 517, the third display area 518, and the fourth display area 519, and further selects an area within the selected display area. Then, the user sets imaging conditions in the selected area. Thereby, the image of the predetermined area | region in the live view image which changes according to a change in imaging conditions can be confirmed.

以上のようなステップS1からS5までの処理及びS11からS14までの処理は、使用者による操作部55のレリーズスイッチの半押し操作(ステップS8)が行われるまで繰り返し実行される。なお、図16においては、使用者が第1表示領域516の領域516Aを選択した場合について説明したが、使用者が第1表示領域516の他の領域を選択した場合についても同様の処理が行われる。図17に示す例では、第1表示領域516のうち領域516A以外の領域516Bが選択されている。そして、使用者によるISO感度ボタン画像522、シャッタースピードボタン画像523、ピクチャーコントロールボタン画像524などの選択に応じて、第1表示領域516内の領域516Bに表示される画像が変化する。   The processes from steps S1 to S5 and the processes from S11 to S14 as described above are repeated until the user performs a half-press operation (step S8) of the release switch of the operation unit 55. In FIG. 16, the case where the user selects the area 516 </ b> A of the first display area 516 has been described. However, the same processing is performed when the user selects another area of the first display area 516. Is called. In the example illustrated in FIG. 17, the region 516B other than the region 516A is selected from the first display region 516. Then, the image displayed in the area 516B in the first display area 516 changes according to the selection of the ISO sensitivity button image 522, the shutter speed button image 523, the picture control button image 524, and the like by the user.

その後、ステップS8からS10までの処理を実行する。これらの処理については、図9で説明した処理と同様であるため、重複する説明を省略する。   Then, the process from step S8 to S10 is performed. These processes are the same as those described with reference to FIG.

なお、図14、図15、図16及び図17を用いて静止画の撮影動作について説明したが、動画の撮影動作についても同じ処理により実現される。この場合、各表示領域(第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519)には、各撮像領域(第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域)において異なる撮像条件(例えばフレームレート)で撮像された動画がそれぞれ表示される。また、この場合、操作ボタン表示領域520には、フレームレートを設定するためのボタンが表示されることが好ましい。また、この場合も、制御部71は、画素領域(撮像領域)113Aに対して本撮像された動画を、画像表示領域510のすべての領域において表示する。   Although the still image shooting operation has been described with reference to FIGS. 14, 15, 16, and 17, the moving image shooting operation is also realized by the same processing. In this case, each display area (the first display area 516, the second display area 517, the third display area 518, and the fourth display area 519) includes each image pickup area (the first image pickup area, the second image pickup area, and the third image pickup area). Moving images captured under different imaging conditions (for example, frame rate) are displayed in the imaging area and the fourth imaging area, respectively. In this case, it is preferable that a button for setting a frame rate is displayed in the operation button display area 520. Also in this case, the control unit 71 displays the moving image that is actually captured with respect to the pixel region (imaging region) 113 </ b> A in all regions of the image display region 510.

以上に説明したように、第2実施形態では、設定部73は、第1撮像素子または第2撮像素子の一部の撮像素子の撮像条件を、第1撮像条件または第2撮像条件と異なるように設定する。このような構成によれば、第1実施形態の効果に加えて、第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519内における領域ごとに撮像条件を変更することが可能となる。従って、使用者は、静止画又は動画の撮像を開始する前に、領域ごとの撮像条件を変更して画像を作成することができる。このような処理は画像の撮像前編集が行われるものといえる。   As described above, in the second embodiment, the setting unit 73 causes the imaging conditions of a part of the first imaging element or the second imaging element to be different from the first imaging condition or the second imaging condition. Set to. According to such a configuration, in addition to the effects of the first embodiment, the imaging condition is changed for each area in the first display area 516, the second display area 517, the third display area 518, and the fourth display area 519. It becomes possible to do. Therefore, the user can create an image by changing the imaging conditions for each region before starting to capture a still image or a moving image. It can be said that such processing performs editing before imaging of an image.

なお、第2実施形態においても、使用者が設定可能な領域ごとの撮像条件として、ISO感度、シャッタースピード、及びピクチャーなどに限られない。例えば、上述したフレームレート、間引き率、画素信号を加算する加算行数又は加算列数、デジタル化のビット数なども領域ごとの撮像条件として設定可能に構成してもよい。また、色信号処理、ホワイトバランス調整、階調調整、圧縮率などのパラメータも領域ごとの撮像条件として設定可能に構成してもよい。   Also in the second embodiment, the imaging conditions for each region that can be set by the user are not limited to ISO sensitivity, shutter speed, and picture. For example, the above-described frame rate, thinning rate, the number of added rows or columns to which pixel signals are added, the number of digitized bits, and the like may be set as imaging conditions for each region. Further, parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate may be set as imaging conditions for each region.

<第3実施形態>
上記した第1実施形態及び第2実施形態では、1つの表示部50の4つの表示領域にライブビュー画像を表示するように構成していた。これに対して、第3実施形態では、2つの表示部を設け、2つの表示部のうちの一方の表示部に2つのライブビュー画像又は静止画を表示する。また、他方の表示部に2つのライブビュー画像又は静止画を合成したライブビュー画像を表示する。
<Third Embodiment>
In the first embodiment and the second embodiment described above, the live view image is displayed in the four display areas of one display unit 50. On the other hand, in the third embodiment, two display units are provided and two live view images or still images are displayed on one of the two display units. In addition, a live view image obtained by combining two live view images or a still image is displayed on the other display unit.

図18は、第3実施形態のデジタルカメラ1に係る画像処理部30A及びシステム制御部70の機能ブロック図である。なお、図18は、図7に示した構成のうち、画像処理部30及びシステム制御部70に相当する構成についてだけ示している。図18に示すように、画像処理部30Aは、画像生成部31のほかに合成部32を含んでいる。この合成部32は、異なる撮像条件で撮像された第1撮像領域の画像データと第2撮像領域の画像データとを合成する。なお、第3実施形態では、第1実施形態及び第2実施形態で説明した場合(図5に示した配列バターン)と異なり、画素領域113Aにおいて第1撮像領域及び第2撮像領域だけが設定されている。この場合、この配列パターンでは、画素領域113Aにおいて、奇数の列(2m−1)における奇数の行(2n−1)のブロックと、偶数の列(2m)における偶数の行(2n)のブロックとで第1撮像領域が構成される。また、偶数の列(2m)における奇数の行(2n−1)のブロックと、奇数の列(2m−1)における偶数の行(2n)のブロックとで第2撮像領域が構成される。すなわち、分割部74は、画素領域113Aにおける各ブロックを市松模様となるように分割する。m及びnは正の整数(m=1,2,3,・・・、n=1,2,3,・・・)である。   FIG. 18 is a functional block diagram of the image processing unit 30A and the system control unit 70 according to the digital camera 1 of the third embodiment. FIG. 18 shows only the configuration corresponding to the image processing unit 30 and the system control unit 70 among the configurations shown in FIG. As illustrated in FIG. 18, the image processing unit 30 </ b> A includes a synthesis unit 32 in addition to the image generation unit 31. The synthesizing unit 32 synthesizes the image data of the first imaging area and the image data of the second imaging area captured under different imaging conditions. In the third embodiment, unlike the case described in the first embodiment and the second embodiment (array pattern shown in FIG. 5), only the first imaging region and the second imaging region are set in the pixel region 113A. ing. In this case, in this arrangement pattern, in the pixel region 113A, an odd-numbered row (2n-1) block in an odd-numbered column (2m-1) and an even-numbered row (2n) block in an even-numbered column (2m) The first imaging area is configured as described above. In addition, the second imaging region is configured by an odd-numbered row (2n-1) block in the even-numbered column (2m) and an even-numbered row (2n) block in the odd-numbered column (2m-1). That is, the dividing unit 74 divides each block in the pixel region 113A so as to have a checkered pattern. m and n are positive integers (m = 1, 2, 3,..., n = 1, 2, 3,...).

図19は、第3実施形態における第1表示部50B及び第2表示部53に画像を表示する場合の表示例を示す図である。上記した第1実施形態及び第2実施形態では、1つの表示部50だけが設けられていたが、第3実施形態では、2つの表示部(第1表示部50B及び第2表示部53)が設けられている。なお、図19において、電子機器(デジタルカメラ)1を背面から見た場合の外観を示している。図19に示すように、第1表示部50Bは、方形状の表示面を有する表示パネルである。この第1表示部50Bは、デジタルカメラ1の背面に設けられている。なお、図示していないが、第1タッチパネルは、第1表示部50Bの表示面上に形成されている。   FIG. 19 is a diagram illustrating a display example when images are displayed on the first display unit 50B and the second display unit 53 according to the third embodiment. In the first and second embodiments described above, only one display unit 50 is provided, but in the third embodiment, two display units (the first display unit 50B and the second display unit 53) are provided. Is provided. In addition, in FIG. 19, the external appearance at the time of seeing the electronic device (digital camera) 1 from the back is shown. As shown in FIG. 19, the first display unit 50B is a display panel having a square display surface. The first display unit 50B is provided on the back surface of the digital camera 1. Although not shown, the first touch panel is formed on the display surface of the first display unit 50B.

また、第2表示部53は、方形状の表示面を有する表示パネルである。この第2表示部53の端部が、デジタルカメラ1の背面かつ第1表示部50Bの下方に設けられたヒンジ(図示せず)によって回転可能に連結されている。第2表示部53がヒンジを支点として回転することにより、第1表示部50Bが第2表示部53によって開閉される。   The second display unit 53 is a display panel having a square display surface. An end portion of the second display portion 53 is rotatably connected by a hinge (not shown) provided on the back surface of the digital camera 1 and below the first display portion 50B. As the second display unit 53 rotates with the hinge as a fulcrum, the first display unit 50B is opened and closed by the second display unit 53.

デジタルカメラ1の上面には、レリーズスイッチ55a、モードダイヤル55b、及び動画スイッチ55cが設けられている。レリーズスイッチ55aは、静止画を撮像する際に使用者によって押されるスイッチである。なお、レリーズスイッチ55aの半押し操作が行われることによって、AF(Automatic Focusing)やAE(Automatic Exposure)などの撮影準備が行われる。モードダイヤル55bは、ポートレート、風景、夜景などの各種シーンモードを設定する際に使用者によって回転されるダイヤルである。動画スイッチ55cは、動画を撮像する際に使用者によって押されるスイッチである。また、デジタルカメラ1の背面かつ第1表示部50Bの側方には、マルチセレクタ55dが設けられている。マルチセレクタ55dは、第1表示部50B又は第2表示部53に表示されるメニュー(撮影モードを設定するためのメニュー)を、使用者が上下左右の矢印キーとOKスイッチにより選択するためのキー及びスイッチである。なお、操作部55は、レリーズスイッチ55a、モードダイヤル55b、動画スイッチ55c、及びマルチセレクタ55dを有している。なお、操作部55は、これら以外のスイッチなどを有していてもよい。   On the upper surface of the digital camera 1, a release switch 55a, a mode dial 55b, and a moving image switch 55c are provided. The release switch 55a is a switch that is pressed by the user when capturing a still image. When the release switch 55a is half-pressed, preparation for photographing such as AF (Automatic Focusing) and AE (Automatic Exposure) is performed. The mode dial 55b is a dial rotated by the user when setting various scene modes such as portrait, landscape, and night view. The moving image switch 55c is a switch pressed by the user when capturing a moving image. A multi-selector 55d is provided on the back of the digital camera 1 and on the side of the first display unit 50B. The multi-selector 55d is a key for the user to select a menu (menu for setting the shooting mode) displayed on the first display unit 50B or the second display unit 53 using the up / down / left / right arrow keys and the OK switch. And a switch. The operation unit 55 includes a release switch 55a, a mode dial 55b, a moving image switch 55c, and a multi selector 55d. Note that the operation unit 55 may include other switches.

図19に示すように、制御部71は、第2表示部53の表示面の左側領域53Lにおいて、第1撮像領域のライブビュー画像又は静止画(夜間に撮像した人物の画像)を表示する。また、制御部71は、第2表示部53の表示面の右側領域53Rにおいて、第2撮像領域のライブビュー画像又は静止画を表示する。また、制御部71は、第1表示部51の中央領域51Gにおいて、第1撮像領域のライブビュー画像又は静止画と第2撮像領域のライブビュー画像又は静止画とを合成したライブビュー画像又は静止画を表示する。   As illustrated in FIG. 19, the control unit 71 displays a live view image or a still image (person image captured at night) in the first imaging region in the left region 53 </ b> L of the display surface of the second display unit 53. In addition, the control unit 71 displays a live view image or a still image of the second imaging region in the right region 53R of the display surface of the second display unit 53. In addition, in the central region 51G of the first display unit 51, the control unit 71 combines a live view image or still image of the first imaging region with a live view image or still image of the second imaging region. Display the image.

一般に、幅広いダイナミックレンジの画像を記録し表示するための画像合成技術として、HDR(High Dynamic Range)撮像が広く知られている。HDR撮像では、撮像条件(例えば露出)を変化させつつ複数枚の画像を撮像し、それらを合成することにより白飛びや黒つぶれの少ない画像を生成する。しかし、従来のHDRでは、例えば撮像条件の異なる2枚の画像を撮像する撮像時間が異なっているため、被写体が移動したり、使用者(撮影者)がデジタルカメラ1を動かしたりしてしまうことがある。この場合、複数枚の画像は同一の被写体の画像ではないため、画像合成が困難である。これに対して、第3実施形態では、撮像条件の異なる2枚の画像(ライブビュー画像又は静止画)の撮像時間を同じ時刻(又は略同じ時刻)とすることができる。従って、第3実施形態の構成により従来のHDR撮像の問題点を解決することができる。なお、HDRモードは、使用者によるマルチセレクタ55dの操作などに応じて選択可能に構成する。   Generally, HDR (High Dynamic Range) imaging is widely known as an image synthesis technique for recording and displaying an image with a wide dynamic range. In HDR imaging, a plurality of images are captured while changing imaging conditions (for example, exposure), and the images are combined to generate an image with less overexposure and underexposure. However, in conventional HDR, for example, since the imaging time for capturing two images with different imaging conditions is different, the subject moves or the user (photographer) moves the digital camera 1. There is. In this case, since the plurality of images are not the same subject image, it is difficult to synthesize the images. On the other hand, in the third embodiment, the imaging time of two images (live view images or still images) with different imaging conditions can be set to the same time (or substantially the same time). Therefore, the configuration of the third embodiment can solve the problems of conventional HDR imaging. The HDR mode is configured to be selectable according to the operation of the multi selector 55d by the user.

このような構成によれば、使用者は、異なる撮像条件で撮像された第1撮像領域における第1ライブビュー画像又は第1静止画と第2撮像領域における第2ライブビュー画像又は第2静止画とを撮像前に確認することができるとともに、第1ライブビュー画像又は静止画と第2ライブビュー画像又は静止画とを合成したダイナミックレンジの広いライブビュー画像又は静止画についても撮像前に確認することができる。   According to such a configuration, the user can capture the first live view image or the first still image in the first imaging area and the second live view image or the second still image in the second imaging area that are captured under different imaging conditions. Can be confirmed before imaging, and a live view image or still image with a wide dynamic range obtained by combining the first live view image or still image and the second live view image or still image is also confirmed before imaging. be able to.

上記した第3実施形態では、合成部32は、第1撮像領域の画像データと第2撮像領域の画像データとを合成してダイナミックレンジの広い画像データを生成していた。しかし、このような構成に限らず、合成部32は、第1撮像領域の画像データと第2撮像領域の画像データとを合成して被写体のエッジ(輪郭)を強調した画像データを生成してもよい。具体的には、設定部73は、第1撮像領域のシャッタースピードを1/30秒に設定し、第2撮像領域のシャッタースピードを1/200秒に設定する。この場合、撮像素子100が動きの速い被写体を撮像すると、撮像素子100の第1撮像領域により生成された第1画像の画像データは、被写体のブレが大きい画像データとなる。一方、第2撮像領域により生成された画像データは、被写体のブレが少ない画像データとなる。合成部32は、第2画像の画像データにおける被写体のエッジ部分の画像データを、第1画像の画像データに付加して合成する。これにより、移動被写体のエッジ部分が強調された画像データが生成される。   In the third embodiment described above, the combining unit 32 generates image data with a wide dynamic range by combining the image data of the first imaging region and the image data of the second imaging region. However, the composition unit 32 is not limited to such a configuration, and the combining unit 32 generates image data in which the edge (contour) of the subject is emphasized by combining the image data of the first imaging region and the image data of the second imaging region. Also good. Specifically, the setting unit 73 sets the shutter speed of the first imaging area to 1/30 seconds, and sets the shutter speed of the second imaging area to 1/200 seconds. In this case, when the imaging device 100 captures a fast moving subject, the image data of the first image generated by the first imaging region of the imaging device 100 becomes image data with a large subject blur. On the other hand, the image data generated by the second imaging region is image data with less subject blurring. The synthesizer 32 adds the image data of the edge portion of the subject in the image data of the second image to the image data of the first image and synthesizes it. Thereby, image data in which the edge portion of the moving subject is emphasized is generated.

制御部71は、第2表示部53の表示面の左側領域53Lにおいて、第1撮像領域のライブビュー画像又は静止画を表示する。また、制御部71は、第2表示部53の表示面の右側領域53Rにおいて、第2撮像領域のライブビュー画像又は静止画を表示する。また、制御部71は、第1表示部51の中央領域51Gにおいて、第1撮像領域のライブビュー画像又は静止画と第2撮像領域のライブビュー画像又は静止画とを合成したライブビュー画像又は静止画(被写体のエッジ部分が強調された合成画像)を表示する。このような構成によれば、使用者は、異なるシャッタースピードで撮像された画像を確認することができるとともに、それらの画像を合成した合成画像を確認することができる。   The control unit 71 displays a live view image or a still image of the first imaging region in the left region 53L of the display surface of the second display unit 53. In addition, the control unit 71 displays a live view image or a still image of the second imaging region in the right region 53R of the display surface of the second display unit 53. In addition, in the central region 51G of the first display unit 51, the control unit 71 combines a live view image or still image of the first imaging region with a live view image or still image of the second imaging region. The image (a composite image in which the edge portion of the subject is emphasized) is displayed. According to such a configuration, the user can check images captured at different shutter speeds, and can also check a composite image obtained by combining these images.

<第4実施形態>
上記した第1実施形態、第2実施形態及び第3実施形態では、制御部71が第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514(又は第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519)において、それぞれ、第1ライブビュー画像、第2ライブビュー画像、第3ライブビュー画像及び第4ライブビュー画像を表示するように制御していた。これに対し、第4実施形態では、制御部71が第1表示領域、第2表示領域、第3表示領域及び第4表示領域において、それぞれ、第1動画、第2動画、第3動画及び第4動画を表示するように制御する。また、表示部は、第1動画、第2動画、第3動画及び第4動画のフレームレートに合わせたリフレッシュレート(単位時間あたりどれくらいでリフレッシュするかを示す値)で、それぞれの動画を表示する。
<Fourth embodiment>
In the first embodiment, the second embodiment, and the third embodiment described above, the control unit 71 controls the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 (or the first display). Area 516, second display area 517, third display area 518, and fourth display area 519), the first live view image, the second live view image, the third live view image, and the fourth live view image are displayed, respectively. It was controlled to do. On the other hand, in the fourth embodiment, the control unit 71 controls the first moving image, the second moving image, the third moving image, and the fourth moving image in the first display area, the second display area, the third display area, and the fourth display area, respectively. Control to display 4 videos. The display unit displays each moving image at a refresh rate (a value indicating how much refreshing per unit time) according to the frame rate of the first moving image, the second moving image, the third moving image, and the fourth moving image. .

図20は、第4実施形態における表示面51Cの表示例を示す図である。図20に示すように、操作ボタン表示領域540には、フレームレートを設定するためのフレームレートボタン画像545が表示される。このフレームレートボタン画像545もメニュー画像540Mに含まれる。なお、選択ボタン画像541、ISO感度ボタン画像542、シャッタースピードボタン画像543、及びピクチャーコントロールボタン画像544は、図8等に示した選択ボタン画像521、ISO感度ボタン画像522、シャッタースピードボタン画像523、及びピクチャーコントロールボタン画像524に対応する。図20に示す表示例では、図8等に示した撮像モードボタン画像525に代えてフレームレートボタン画像545が設けられている。また、図20に示す表示例では、第1表示領域531、第2表示領域532、第3表示領域533及び第4表示領域534は、それぞれ、図8等に示した第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514に対応する。   FIG. 20 is a diagram illustrating a display example of the display surface 51C in the fourth embodiment. As shown in FIG. 20, a frame rate button image 545 for setting a frame rate is displayed in the operation button display area 540. This frame rate button image 545 is also included in the menu image 540M. The selection button image 541, the ISO sensitivity button image 542, the shutter speed button image 543, and the picture control button image 544 are the selection button image 521, the ISO sensitivity button image 522, the shutter speed button image 523 shown in FIG. And the picture control button image 524. In the display example shown in FIG. 20, a frame rate button image 545 is provided instead of the imaging mode button image 525 shown in FIG. In the display example shown in FIG. 20, the first display area 531, the second display area 532, the third display area 533, and the fourth display area 534 are respectively the first display area 511 and the first display area 511 shown in FIG. This corresponds to the second display area 512, the third display area 513, and the fourth display area 514.

設定部73は、使用者によるフレームレートボタン画像545の操作に応じて、又は自動的に、撮像素子100の第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域において異なるフレームレートを設定する。例えば、設定部73は、第1撮像領域のフレームレートを30fpsに設定し、第2撮像領域のフレームレートを60fpsに設定し、第3撮像領域のフレームレートを90fpsに設定し、第4撮像領域のフレームレートを120fpsに設定する。そして、設定部73は、使用者による動画スイッチの操作に応じて、撮像素子100の第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域において異なるフレームレートによる動画の撮像を実行させる。   The setting unit 73 performs different frames in the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region of the image sensor 100 according to the operation of the frame rate button image 545 by the user or automatically. Set the rate. For example, the setting unit 73 sets the frame rate of the first imaging area to 30 fps, sets the frame rate of the second imaging area to 60 fps, sets the frame rate of the third imaging area to 90 fps, and sets the fourth imaging area. Is set to 120 fps. Then, the setting unit 73 captures moving images at different frame rates in the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region of the image sensor 100 according to the operation of the moving image switch by the user. Let it run.

制御部71は、画像表示領域530の第1表示領域531、第2表示領域532、第3表示領域533及び第4表示領域534に、それぞれ、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域において異なるフレームレートで撮像された動画を表示させる。一般に、液晶ディスプレイで構成された表示部は、表示面において同一のリフレッシュレートで画像がリフレッシュ(更新)される。一方、第4実施形態では、表示部50Cは、表示面51Cの第1表示領域531、第2表示領域532、第3表示領域533及び第4表示領域534において異なるリフレッシュレートでリフレッシュ可能に構成されている。すなわち、表示部50Cの表示面51Cでは、第1表示領域531の各画素のリフレッシュを駆動する駆動回路、第2表示領域532の各画素のリフレッシュを駆動する駆動回路、第3表示領域533の各画素のリフレッシュを駆動する駆動回路、及び第4表示領域534の各画素のリフレッシュを駆動する駆動回路が別々に設けられている。このような構成によれば、使用者は、異なるフレームレートで撮像された複数の動画の違いを容易に認識することができる。   The control unit 71 includes a first imaging area, a second imaging area, and a third imaging area in the first display area 531, the second display area 532, the third display area 533, and the fourth display area 534 of the image display area 530, respectively. Moving images captured at different frame rates are displayed in the area and the fourth imaging area. In general, in a display unit composed of a liquid crystal display, images are refreshed (updated) at the same refresh rate on the display surface. On the other hand, in the fourth embodiment, the display unit 50C is configured to be refreshable at different refresh rates in the first display area 531, the second display area 532, the third display area 533, and the fourth display area 534 of the display surface 51C. ing. That is, on the display surface 51 </ b> C of the display unit 50 </ b> C, the drive circuit that drives refresh of each pixel in the first display region 531, the drive circuit that drives refresh of each pixel in the second display region 532, and each of the third display region 533. A drive circuit that drives refresh of the pixels and a drive circuit that drives refresh of each pixel in the fourth display region 534 are provided separately. According to such a configuration, the user can easily recognize the difference between a plurality of moving images captured at different frame rates.

また、制御部71は、撮像素子100の第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域において異なるフレームレートで撮像された第1動画、第2動画、第3動画及び第4動画の画像データを、それぞれ別々に記録部60に記録するように制御する。このような構成によれば、異なるフレームレートで撮像された複数の動画の画像データを同時に記録部60に記録させることができる。   The control unit 71 also includes a first moving image, a second moving image, a third moving image, and a first moving image captured at different frame rates in the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region of the image sensor 100. Control is performed so that the image data of the fourth moving image is separately recorded in the recording unit 60. According to such a configuration, image data of a plurality of moving images captured at different frame rates can be recorded in the recording unit 60 at the same time.

なお、上記した第1実施形態、第2実施形態及び第3実施形態では、制御部71は、表示面の第1表示領域、第2表示領域、第3表示領域及び第4表示領域において、異なる撮像条件(シャッタースピード、フレームレート等)で撮像されたライブビュー画像や動画を表示する構成としていたが、表示面の第1表示領域、第2表示領域、第3表示領域及び第4表示領域において、異なる撮像条件で撮像された静止画を表示する構成でもよい。この場合、制御部71は、使用者によるレリーズスイッチの1回の撮像操作で撮像された第1静止画、第2静止画、第3静止画及び第4静止画をそれぞれ第1表示領域、第2表示領域、第3表示領域及び第4表示領域に表示するように制御する。このような構成により、使用者は、異なる撮像条件で撮像された複数の静止画の違いを容易に認識することができる。   In the first embodiment, the second embodiment, and the third embodiment described above, the control unit 71 is different in the first display area, the second display area, the third display area, and the fourth display area on the display surface. The live view image and the moving image captured under the imaging conditions (shutter speed, frame rate, etc.) are displayed. In the first display area, the second display area, the third display area, and the fourth display area on the display surface, The still image captured under different imaging conditions may be displayed. In this case, the control unit 71 displays the first still image, the second still image, the third still image, and the fourth still image captured by one imaging operation of the release switch by the user as the first display area and the first still image, respectively. Control is performed to display in the second display area, the third display area, and the fourth display area. With such a configuration, the user can easily recognize the difference between a plurality of still images captured under different imaging conditions.

<第5実施形態>
第5実施形態では、システム制御部70は、第1表示領域、第2表示領域、第3表示領域及び第4表示領域のうちのいずれかの表示領域において電子ズーム(デジタルズームともいう。)による画像の拡大表示を行った場合に、そのような画像の拡大表示に合わせて他の表示領域においても画像の拡大表示を行う。
<Fifth Embodiment>
In the fifth embodiment, the system control unit 70 uses an electronic zoom (also referred to as digital zoom) in any one of the first display area, the second display area, the third display area, and the fourth display area. When the enlarged display is performed, the enlarged display of the image is also performed in other display areas in accordance with the enlarged display of the image.

使用者は、電子ズームによる画像の拡大表示を行う場合は、例えば表示面上のタッチパネルのタッチ操作などを行う。制御部71は、使用者によるタッチパネルのタッチ操作などに応じて、画像を切り出す領域を指示する指示信号を画像処理部30に出力する。画像処理部30は、システム制御部70により指示された領域の画像データを切り出す処理(トリミング処理)を行う。制御部71は、画像処理部30により切り出された領域の画像データを表示部に出力させ、その領域の画像データに基づく画像を表示部の表示面に拡大表示させる制御を行う。   The user performs, for example, a touch operation on a touch panel on the display surface when performing an enlarged display of an image by electronic zoom. The control unit 71 outputs to the image processing unit 30 an instruction signal for instructing a region to cut out an image in response to a touch operation on the touch panel by the user. The image processing unit 30 performs a process (trimming process) of cutting out image data in an area designated by the system control unit 70. The control unit 71 controls the display unit to output the image data of the region cut out by the image processing unit 30 and enlarge and display an image based on the image data of the region on the display surface of the display unit.

図21は、第5実施形態における電子ズームを行った場合の表示面51Dの表示例を示す図である。図21に示す表示部50Dの表示例では、第1表示領域511D、第2表示領域512D、第3表示領域513D及び第4表示領域514Dは、それぞれ、図8等に示した第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514に対応する。なお、操作ボタン表示領域520は図8等に示した操作ボタン表示領域と同様であるため、重複する説明を省略する。   FIG. 21 is a diagram illustrating a display example of the display surface 51D when the electronic zoom is performed in the fifth embodiment. In the display example of the display unit 50D shown in FIG. 21, the first display area 511D, the second display area 512D, the third display area 513D, and the fourth display area 514D are respectively the first display area 511 shown in FIG. , Corresponding to the second display area 512, the third display area 513, and the fourth display area 514. The operation button display area 520 is the same as the operation button display area shown in FIG.

例えば、図21に示すように、使用者は、電子ズームによって第1表示領域511D内の領域516Dに表示されている人物の画像O1の拡大表示を行うために、第1表示領域511D上に形成されているタッチパネルのタッチ操作を行って領域516Dを選択する。このような操作に応じて、制御部71は、第1表示領域511D内の領域516Dに表示されている人物の画像O1を、第1表示領域511Dの全領域に拡大表示させる。また、制御部71は、第1表示領域511Dにおける人物の画像O1の拡大表示と同じ表示倍率で、第2表示領域512D、第3表示領域513D及び第4表示領域514Dにおいても人物の画像O1を拡大表示させる。すなわち、制御部71は、第2表示領域512D内の領域517Dに表示されている人物の画像O1を、第2表示領域512Dの全領域に拡大表示させる。また、制御部71は、第3表示領域513D内の領域518Dに表示されている人物の画像O1を、第3表示領域513Dの全領域に拡大表示させる。また、制御部71は、第4表示領域514D内の領域519Dに表示されている人物の画像O1を、第4表示領域514Dの全領域に拡大表示させる。   For example, as shown in FIG. 21, the user forms on the first display area 511D in order to enlarge and display the image O1 of the person displayed in the area 516D in the first display area 511D by electronic zoom. The touch panel is touched to select the area 516D. In response to such an operation, the control unit 71 causes the person image O1 displayed in the area 516D in the first display area 511D to be enlarged and displayed in the entire area of the first display area 511D. The control unit 71 also displays the person image O1 in the second display area 512D, the third display area 513D, and the fourth display area 514D at the same display magnification as the enlarged display of the person image O1 in the first display area 511D. Zoom in. That is, the control unit 71 enlarges and displays the person image O1 displayed in the area 517D in the second display area 512D in the entire area of the second display area 512D. In addition, the control unit 71 enlarges and displays the image O1 of the person displayed in the area 518D in the third display area 513D in the entire area of the third display area 513D. In addition, the control unit 71 enlarges and displays the image O1 of the person displayed in the area 519D in the fourth display area 514D in the entire area of the fourth display area 514D.

なお、制御部71は、第1表示領域511D、第2表示領域512D、第3表示領域513D及び第4表示領域514Dのうちのいずれかの表示領域において電子ズームによる画像の縮小表示を行った場合に、そのような画像の縮小表示に合わせて他の表示領域においても画像の縮小表示を行うことも可能である。例えば、図21に示すように、使用者は、電子ズームによって第1表示領域511Dの全領域に表示されている人物の画像O1の縮小表示を行うために、第1表示領域511D上に形成されているタッチパネルのタッチ操作を行って第1表示領域511Dの全領域を選択する。このような操作に応じて、制御部71は、第1表示領域511Dの全領域に表示されている人物の画像O1を、第1表示領域511Dの領域516Dに縮小表示させる。また、制御部71は、第1表示領域511Dにおける人物の画像O1の縮小表示と同じ表示倍率で、第2表示領域512D、第3表示領域513D及び第4表示領域514Dにおいても人物の画像O1を縮小表示させる。   When the control unit 71 performs reduction display of an image by electronic zoom in any one of the first display area 511D, the second display area 512D, the third display area 513D, and the fourth display area 514D. In addition, in accordance with the reduced display of the image, the reduced display of the image can be performed in another display area. For example, as shown in FIG. 21, the user is formed on the first display area 511D in order to perform a reduced display of the person image O1 displayed in the entire area of the first display area 511D by electronic zoom. The touch panel is touched to select the entire first display area 511D. In response to such an operation, the control unit 71 reduces and displays the person image O1 displayed in the entire area of the first display area 511D in the area 516D of the first display area 511D. The control unit 71 also displays the person image O1 in the second display area 512D, the third display area 513D, and the fourth display area 514D at the same display magnification as the reduced display of the person image O1 in the first display area 511D. Zoom out.

以上に説明したように、第5実施形態では、制御部71は、表示部50Dにおいて第1画像(例えば第1表示領域511Dに表示されている人物の画像O1)及び第2画像(例えば第2表示領域512Dに表示されている人物の画像O1)のいずれか一方を拡大または縮小することに合わせて、第1画像及び第2画像のいずれか他方を拡大または縮小する。このような構成によれば、使用者は電子ズームにより画像を拡大または縮小させた場合に、各表示領域に表示されている画像の大きさを合わせることができ、撮像条件の違いに起因した各画像の違いを容易に認識することができる。また、使用者は画像ごとに拡大または縮小の操作を行う必要がなく、使用者の操作労力が増加しない。   As described above, in the fifth embodiment, the control unit 71 causes the display unit 50D to display the first image (for example, the person image O1 displayed in the first display region 511D) and the second image (for example, the second image). In accordance with the enlargement or reduction of any one of the human images O1) displayed in the display area 512D, the other of the first image and the second image is enlarged or reduced. According to such a configuration, when the user enlarges or reduces the image by electronic zoom, the size of the image displayed in each display area can be matched, and each of the images caused by the difference in imaging conditions can be adjusted. Differences in images can be easily recognized. In addition, the user does not need to perform an enlargement or reduction operation for each image, and the operation effort of the user is not increased.

なお、使用者がタッチパネルのタッチ操作を行うことにより電子ズームを実行する構成に限られず、使用者が操作部55の電子ズームスイッチ(例えば電子ズームの実行時に操作されるスイッチ)などを操作することにより電子ズームを実行する構成でもよい。   The configuration is not limited to the configuration in which the user performs the electronic zoom by performing a touch operation on the touch panel, and the user operates an electronic zoom switch (for example, a switch operated when the electronic zoom is performed) of the operation unit 55. The electronic zoom may be executed.

<第6実施形態>
図22は、第6実施形態における表示面51Eの表示例を示す図である。図22に示す表示部50Eの表示例では、第1表示領域511E、第2表示領域512E、第3表示領域513E及び第4表示領域514Eは、それぞれ、図8等に示した第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514に対応する。なお、操作ボタン表示領域520は図8等に示した操作ボタン表示領域と同様であるため、重複する説明を省略する。
<Sixth Embodiment>
FIG. 22 is a diagram illustrating a display example of the display surface 51E in the sixth embodiment. In the display example of the display unit 50E shown in FIG. 22, the first display area 511E, the second display area 512E, the third display area 513E, and the fourth display area 514E are respectively the first display area 511 shown in FIG. , Corresponding to the second display area 512, the third display area 513, and the fourth display area 514. The operation button display area 520 is the same as the operation button display area shown in FIG.

図22に示すように、制御部71は、第1表示領域511E、第2表示領域512E、第3表示領域513E及び第4表示領域514Eにおいて、第1画像、第2画像、第3画像及び第4画像の上に重ねて、これらの画像の撮像条件をそれぞれ表示する。図22に示す例では、第1画像の撮像条件として、ISO感度として「100」が設定され、シャッタースピードとして「1/2秒」が設定され、ピクチャーコントロールとして「スタンダード」が設定され、撮影モードとして「P」が設定されている状態を示している。また、第2画像の撮像条件として、ISO感度として「200」が設定され、シャッタースピードとして「1/100秒」が設定され、ピクチャーコントロールとして「スタンダード」が設定され、撮影モードとして「P」が設定されている状態を示している。また、第3画像の撮像条件として、ISO感度として「400」が設定され、シャッタースピードとして「1/500秒」が設定され、ピクチャーコントロールとして「スタンダード」が設定され、撮影モードとして「P」が設定されている状態を示している。また、第4画像の撮像条件として、ISO感度として「800」が設定され、シャッタースピードとして「1/1000秒」が設定され、ピクチャーコントロールとして「スタンダード」が設定され、撮影モードとして「P」が設定されている状態を示している。このような構成によれば、使用者は各表示領域において現在設定されている撮像条件を容易に確認することができる。   As illustrated in FIG. 22, the control unit 71 includes a first image, a second image, a third image, and a fourth image in the first display area 511E, the second display area 512E, the third display area 513E, and the fourth display area 514E. The imaging conditions of these images are displayed on top of the four images. In the example shown in FIG. 22, “100” is set as the ISO sensitivity, “1/2 second” is set as the shutter speed, “Standard” is set as the picture control, and the shooting mode is set as the imaging condition of the first image. As shown in FIG. As the second image capturing condition, “200” is set as the ISO sensitivity, “1/100 second” is set as the shutter speed, “standard” is set as the picture control, and “P” is set as the shooting mode. Indicates the set state. Further, as the imaging condition of the third image, “400” is set as the ISO sensitivity, “1/500 seconds” is set as the shutter speed, “standard” is set as the picture control, and “P” is set as the shooting mode. Indicates the set state. Further, as the imaging condition of the fourth image, “800” is set as the ISO sensitivity, “1/1000 second” is set as the shutter speed, “standard” is set as the picture control, and “P” is set as the shooting mode. Indicates the set state. According to such a configuration, the user can easily confirm the imaging conditions currently set in each display area.

なお、表示部の表示面の下部に、使用者により選択されている表示領域(例えば第1表示領域)において現在設定されている撮像条件を表示する撮像条件表示領域が設ける構成でもよい。また、制御部71は、撮像条件を所定時間だけ表示する構成でもよい。また、撮像条件の表示を行うか否かを選択するスイッチ(操作部55のスイッチ又はタッチパネル上のスイッチ)を設け、制御部71は、そのスイッチの操作に応じて、撮像条件表示領域550の撮像条件の表示又は非表示を制御する構成でもよい。   In addition, the structure which the imaging condition display area which displays the imaging conditions currently set in the display area (for example, 1st display area) selected by the user may be provided in the lower part of the display surface of a display part. Further, the control unit 71 may be configured to display the imaging conditions for a predetermined time. In addition, a switch (switch of the operation unit 55 or a switch on the touch panel) for selecting whether or not to display the imaging condition is provided, and the control unit 71 performs imaging of the imaging condition display region 550 according to the operation of the switch. It may be configured to control display or non-display of conditions.

<第7実施形態>
図10等に示す操作ボタン表示領域520において、各ボタン521,522,523,524,525は、それぞれ予め決められた順序で配置されていた。すなわち、選択ボタン画像521は一番上に配置され、ISO感度ボタン画像522は上から2番目(すなわち選択ボタン画像521の下)に配置され、シャッタースピードボタン画像523は上から3番目(すなわちISO感度ボタン画像522の下)に配置され、ピクチャーコントロールボタン画像524は上から4番目(すなわちシャッタースピードボタン画像523の下)に配置され、撮像モードボタン画像525は一番下に配置されていた。一方、第7実施形態では、制御部71が表示領域内の被写体に応じて各ボタン521,522,523,524,525の配置を変更して表示する。また、第7実施形態では、制御部71が優先度の高いボタンを他のボタンの表示態様と異なる表示態様で表示する。
<Seventh embodiment>
In the operation button display area 520 shown in FIG. 10 and the like, the buttons 521, 522, 523, 524, 525 are arranged in a predetermined order. That is, the selection button image 521 is arranged at the top, the ISO sensitivity button image 522 is arranged second from the top (that is, below the selection button image 521), and the shutter speed button image 523 is third from the top (that is, ISO). The picture control button image 524 is arranged at the fourth position from the top (that is, below the shutter speed button image 523), and the imaging mode button image 525 is arranged at the bottom. On the other hand, in the seventh embodiment, the control unit 71 changes the arrangement of the buttons 521, 522, 523, 524, and 525 according to the subject in the display area and displays them. Moreover, in 7th Embodiment, the control part 71 displays a button with a high priority in the display mode different from the display mode of another button.

図23は、第7実施形態における表示面51Fの表示例を示す図である。図23に示す表示部50Fの表示例では、選択ボタン画像521は一番上に配置され、シャッタースピードボタン画像523は上から2番目(すなわち選択ボタン画像521の下)に配置され、ピクチャーコントロールボタン画像524は上から3番目(すなわちシャッタースピードボタン画像523の下)に配置され、ISO感度ボタン画像522は上から4番目(すなわちピクチャーコントロールボタン画像524の下)に配置され、撮像モードボタン画像525は一番下に配置されている。また、図23に示すように、シャッタースピードボタン画像523は、他のボタン(選択ボタン画像521、ISO感度ボタン画像522、ピクチャーコントロールボタン画像524、撮像モードボタン画像525)よりも大きな領域のボタンとなっている。   FIG. 23 is a diagram illustrating a display example of the display surface 51F in the seventh embodiment. In the display example of the display unit 50F shown in FIG. 23, the selection button image 521 is arranged at the top, the shutter speed button image 523 is arranged second from the top (that is, below the selection button image 521), and the picture control button The image 524 is arranged third from the top (ie, below the shutter speed button image 523), and the ISO sensitivity button image 522 is arranged fourth from the top (ie, below the picture control button image 524). Is located at the bottom. Also, as shown in FIG. 23, the shutter speed button image 523 is a button having a larger area than the other buttons (selection button image 521, ISO sensitivity button image 522, picture control button image 524, imaging mode button image 525). It has become.

また、タッチパネル52において、タッチ領域521aが選択ボタン画像521上に重なるように形成されている。また、タッチ領域523aがシャッタースピードボタン画像523上に重なるように形成されている。また、タッチ領域524aがピクチャーコントロールボタン画像524上に重なるように形成されている。また、タッチ領域522aがISO感度ボタン画像522上に重なるように形成されている。また、タッチ領域525aが撮像モードボタン画像525上に重なるように形成されている。なお、タッチ領域523aは、シャッタースピードボタン画像523の領域の大きさに合わせて、他のボタンの領域よりも大きな領域となっている。   In the touch panel 52, the touch area 521 a is formed so as to overlap the selection button image 521. The touch area 523a is formed so as to overlap the shutter speed button image 523. Further, the touch area 524a is formed so as to overlap the picture control button image 524. Further, the touch area 522a is formed to overlap the ISO sensitivity button image 522. Further, the touch area 525a is formed so as to overlap the imaging mode button image 525. Note that the touch area 523a is larger than the area of other buttons in accordance with the size of the area of the shutter speed button image 523.

次に、画像処理部30及びシステム制御部70による各ボタン521,522,523,524,525の配置の変更処理について説明する。使用者が撮像条件を変更するときに、システム制御部70は、画像処理部30に対して移動被写体の検出を指示する。画像処理部30は、ライブビュー画像から時系列的に得られる複数の画像データを比較して、移動被写体と非移動被写体とを検出する。そして、画像処理部30は、検出結果を画像データとともにシステム制御部70に出力する。   Next, processing for changing the arrangement of the buttons 521, 522, 523, 524, and 525 by the image processing unit 30 and the system control unit 70 will be described. When the user changes the imaging condition, the system control unit 70 instructs the image processing unit 30 to detect the moving subject. The image processing unit 30 detects a moving subject and a non-moving subject by comparing a plurality of image data obtained in a time series from the live view image. Then, the image processing unit 30 outputs the detection result to the system control unit 70 together with the image data.

制御部71は、画像処理部30の検出結果に基づいて、選択部72により選択された表示領域内に移動被写体が含まれているか否かを判定する。制御部71は、選択部72により選択された表示領域内に移動被写体が含まれていると判定した場合は、図23に示すように、シャッタースピードを設定するためのボタンであるシャッタースピードボタン画像523を上から2番目の位置に表示させる。また、制御部71は、シャッタースピードボタン画像523を他のボタンよりも大きく表示させる。   Based on the detection result of the image processing unit 30, the control unit 71 determines whether or not the moving subject is included in the display area selected by the selection unit 72. When it is determined that the moving subject is included in the display area selected by the selection unit 72, the control unit 71, as shown in FIG. 23, a shutter speed button image that is a button for setting the shutter speed. 523 is displayed at the second position from the top. In addition, the control unit 71 displays the shutter speed button image 523 larger than the other buttons.

シャッタースピードの変更により、移動被写体の写り方が変化する。例えば、移動被写体が滝である場合、シャッタースピードを高く(速く)することにより、滝の水の流れが瞬間的に止まったような画像となる。一方、シャッタースピードを低く(遅く)することにより、滝の水の流れが糸に見えるような画像となる。このように、移動被写体については、シャッタースピードが他の撮像条件よりも被写体の写り方に大きく影響する。従って、制御部71は、領域内に移動被写体が含まれている場合、シャッタースピードの優先度が他の撮像条件よりも高いと判断する。そして、制御部71は、シャッタースピードボタン画像523の位置を上に移動させるとともに、シャッタースピードボタン画像523を大きな領域のボタンとして表示させる。これにより、優先度の高いボタンが使用者にとって操作しやすい位置に配置され、使用者の操作性が向上する。また、優先度の高いボタン(つまり撮像条件)が他のボタン(つまり撮像条件)よりも目立つようになり、使用者に優先度の高いボタンの操作を促すことができる。   Changing the shutter speed changes the way the moving subject appears. For example, when the moving subject is a waterfall, by increasing (fastening) the shutter speed, the image of the waterfall waterfall stops instantaneously. On the other hand, by lowering (slowing) the shutter speed, an image in which the waterfall water flow looks like a thread is obtained. Thus, for a moving subject, the shutter speed has a greater effect on how the subject is photographed than in other imaging conditions. Accordingly, when the moving subject is included in the area, the control unit 71 determines that the shutter speed priority is higher than other imaging conditions. Then, the control unit 71 moves the position of the shutter speed button image 523 upward and displays the shutter speed button image 523 as a button in a large area. Thereby, a button with a high priority is arrange | positioned in the position where it is easy to operate for a user, and a user's operativity improves. In addition, a button with a higher priority (that is, an imaging condition) becomes more conspicuous than other buttons (that is, an imaging condition), and the user can be prompted to operate a button with a higher priority.

上述した例では、制御部71は、領域内の被写体が移動被写体であるか否かによってボタンの配置や表示態様(大きさ)を変更するようにしていたが、このような構成に限らない。例えば、システム制御部70は、画像処理部30に対して画像の明度の検出を指示する。画像処理部30は、ライブビュー画像に基づいて領域内の画像の明度を検出する。そして、画像処理部30は、検出結果を画像データとともにシステム制御部70に出力する。   In the example described above, the control unit 71 changes the button arrangement and the display mode (size) depending on whether or not the subject in the area is a moving subject, but the configuration is not limited to this. For example, the system control unit 70 instructs the image processing unit 30 to detect the brightness of the image. The image processing unit 30 detects the brightness of the image in the region based on the live view image. Then, the image processing unit 30 outputs the detection result to the system control unit 70 together with the image data.

制御部71は、画像処理部30による明度の検出結果に基づいて、選択部72により選択された領域内の画像の明度が所定範囲内の値であるか否かを判定する。制御部71は、領域内の画像の明度が所定範囲内の値でないと判定した場合は、ISO感度を設定するためのボタンであるISO感度ボタン画像522を上から2番目の位置に表示させる。また、制御部71は、ISO感度ボタン画像522を他のボタンよりも大きく表示させる。   The control unit 71 determines whether the brightness of the image in the area selected by the selection unit 72 is a value within a predetermined range based on the brightness detection result by the image processing unit 30. When the controller 71 determines that the brightness of the image in the area is not a value within the predetermined range, the controller 71 displays an ISO sensitivity button image 522 that is a button for setting the ISO sensitivity at the second position from the top. Further, the control unit 71 displays the ISO sensitivity button image 522 larger than the other buttons.

ISO感度の変更により、ライブビュー画像の暗い部分が明るくなり、明るい部分が暗くなる。領域内の明度が所定範囲内の値でない場合、すなわち、領域内の画像が明るすぎる場合や暗すぎる場合は、ISO感度を変更することにより最適露出に近づけることができる。従って、制御部71は、領域内の画像が所定範囲内の値でない場合、ISO感度の優先度が他の撮像条件よりも高いと判断する。そして、制御部71は、ISO感度ボタン画像522の位置を上に移動させるとともに、ISO感度ボタン画像522を大きな領域のボタンとして表示させる。これにより、優先度の高いボタンが使用者にとって操作しやすい位置に配置され、使用者の操作性が向上する。また、優先度の高いボタン(つまり撮像条件)が他のボタン(つまり撮像条件)よりも目立つようになり、使用者に優先度の高いボタンの操作を促すことができる。   By changing the ISO sensitivity, the dark part of the live view image becomes bright and the bright part becomes dark. If the brightness in the area is not a value within the predetermined range, that is, if the image in the area is too bright or too dark, it is possible to approach the optimum exposure by changing the ISO sensitivity. Therefore, the control unit 71 determines that the priority of the ISO sensitivity is higher than other imaging conditions when the image in the region is not a value within the predetermined range. Then, the control unit 71 moves the position of the ISO sensitivity button image 522 upward and displays the ISO sensitivity button image 522 as a button in a large area. Thereby, a button with a high priority is arrange | positioned in the position where a user can operate easily, and a user's operativity improves. In addition, a button with a higher priority (that is, an imaging condition) becomes more conspicuous than other buttons (that is, an imaging condition), and the user can be prompted to operate a button with a higher priority.

なお、優先度の高いボタンを目立たせるような表示態様として、ボタンを大きくするほかに、ボタンの色を変更したり、ボタンを点滅表示させたりするような表示態様などでもよい。また、優先度の高いボタンが使用者により押される前に、そのボタンの横に撮像条件の値を複数表示させることにより、優先度の高いボタンを目立たせるようにしてもよい。また、ボタンの配置だけを変更する構成でもよく、また、ボタンの表示態様だけを変更する構成でもよい。   As a display mode for conspicuously displaying a high priority button, a display mode such as changing the color of the button or blinking the button may be used in addition to increasing the button size. In addition, before a button with a high priority is pressed by the user, a plurality of imaging condition values may be displayed beside the button to make the button with a high priority stand out. Moreover, the structure which changes only the arrangement | positioning of a button may be sufficient, and the structure which changes only the display mode of a button may be sufficient.

また、使用者がボタンを操作する順序に応じて、ボタンの配置を変更し、ボタンの表示態様を変更するようにしてもよい。例えば、使用者は、選択ボタン画像521を押した後に表示領域を選択する。次に、使用者は、撮像モードボタン画像525を押して撮影モードとしてマニュアルモードを選択する。その後に、使用者は、表示領域ごとに撮像条件を変更する。このような場合、制御部71は、選択ボタン画像521を一番上に配置するとともに選択ボタン画像521を大きくする。次に、制御部71は、撮像モードボタン画像525を一番上に配置するとともに撮像モードボタン画像525を大きくする。その後、制御部71は、表示領域ごとの被写体(画像)に応じて、ISO感度ボタン画像522、シャッタースピードボタン画像523、及びピクチャーコントロールボタン画像524のいずれかを一番上に配置し、さらに、その一番上のボタンを大きくする。このように、使用者の操作手順に沿った順序でボタンの配置や表示態様を変更することにより、使用者による操作の利便性が向上する。   Further, the arrangement of the buttons may be changed according to the order in which the user operates the buttons, and the display mode of the buttons may be changed. For example, the user selects the display area after pressing the selection button image 521. Next, the user presses the shooting mode button image 525 to select the manual mode as the shooting mode. Thereafter, the user changes the imaging condition for each display area. In such a case, the control unit 71 arranges the selection button image 521 at the top and enlarges the selection button image 521. Next, the control unit 71 arranges the shooting mode button image 525 at the top and enlarges the shooting mode button image 525. Thereafter, the control unit 71 arranges any one of the ISO sensitivity button image 522, the shutter speed button image 523, and the picture control button image 524 according to the subject (image) for each display area, and further, Increase the top button. Thus, the convenience of operation by the user is improved by changing the arrangement and display mode of the buttons in the order according to the user's operation procedure.

<第8実施形態>
一般に、シャッター幕が全開になると同時にストロボを発光させることを先幕シンクロという。一方、シャッター幕が閉じ始める直前にストロボを発光させることを後幕シンクロという。第8実施形態では、設定部73は、第1撮像領域及び第2撮像領域に対して遅いシャッタースピード(例えば1/2秒)を設定する。また、システム制御部70は、第1撮像領域において電荷蓄積を終了させる直前にストロボ90を発光させる。つまり、第1撮像領域では後幕シンクロで撮像を行う。また、システム制御部70は、第2撮像領域において電荷蓄積を開始すると同時にストロボ90を発光させる。つまり、第2撮像領域では先幕シンクロで撮像を行う。
<Eighth Embodiment>
In general, the first curtain sync means that the flash is emitted at the same time as the shutter curtain is fully opened. On the other hand, flashing the flash just before the shutter curtain starts closing is called rear curtain synchronization. In the eighth embodiment, the setting unit 73 sets a slow shutter speed (for example, 1/2 second) for the first imaging region and the second imaging region. Further, the system control unit 70 causes the strobe 90 to emit light immediately before ending the charge accumulation in the first imaging region. That is, in the first imaging area, imaging is performed with rear curtain synchronization. In addition, the system control unit 70 causes the strobe 90 to emit light simultaneously with the start of charge accumulation in the second imaging region. That is, in the second imaging area, imaging is performed with front curtain synchronization.

図24は、第8実施形態におけるストロボ90の発光タイミングと電荷蓄積のタイミングとを示すタイミングチャートである。図24に示すように、設定部73は、ストロボ90が発光を開始するタイミングt2よりも前のタイミングt1から、ストロボ90による発光の光量が消失したタイミングt3まで、第1撮像領域において電荷蓄積を開始させる。また、設定部73は、ストロボ90が発光を開始するタイミングt2から、ストロボ90からの光量が消失したタイミングt3よりも後のタイミングt4まで、第2撮像領域において電荷蓄積を開始させる。そして、制御部71は、第1撮像領域で生成された画像データにより示される第1画像を第1表示領域511に表示し、第2撮像領域で生成された画像データにより示される第2画像を第2表示領域512に表示する。   FIG. 24 is a timing chart showing the light emission timing of the strobe 90 and the charge accumulation timing in the eighth embodiment. As shown in FIG. 24, the setting unit 73 accumulates charges in the first imaging region from timing t1 before the timing t2 when the strobe 90 starts light emission to timing t3 when the amount of light emitted by the strobe 90 disappears. Let it begin. The setting unit 73 starts charge accumulation in the second imaging region from timing t2 when the strobe 90 starts to emit light to timing t4 after the timing t3 when the amount of light from the strobe 90 disappears. Then, the control unit 71 displays the first image indicated by the image data generated in the first imaging area on the first display area 511, and displays the second image indicated by the image data generated in the second imaging area. Displayed in the second display area 512.

これにより、使用者は後幕シンクロで撮影された第1画像と先幕シンクロで撮影された第2画像とがどのように違うかについて事前に確認することができる。例えば、先幕シンクロの場合は、被写体である車のライトや車は光跡と残像は車の前に残る。従って、本当は車が前進しているのに車がバックしているような画像となる。一方、後幕シンクロの場合は、車のライトや車は光跡と残像は自然に車の後ろに出現する画像となる。   Thereby, the user can confirm in advance how the first image captured by the rear curtain sync differs from the second image captured by the front curtain sync. For example, in the case of the first curtain sync, the light and the afterimage of the car light and car as the subject remain in front of the car. Therefore, the image is as if the car is moving backward while the car is moving forward. On the other hand, in the case of the rear curtain sync, the light of the car and the light trail and the afterimage are images that appear naturally behind the car.

<第9実施形態>
第9実施形態では、上記した第1実施形態におけるデジタルカメラ1を、撮像装置1Aと電子機器1Bとに分離した構成としている。
<Ninth Embodiment>
In the ninth embodiment, the digital camera 1 in the first embodiment described above is separated into an imaging device 1A and an electronic device 1B.

図25は、第9実施形態に係る撮像装置1A及び電子機器1Bの構成を示すブロック図である。図25に示す構成において、撮像装置1Aは、被写体の撮像を行う装置である。この撮像装置1Aは、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、記録部60、及び第1システム制御部70Aを備える。なお、撮像装置1Aのうち、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、及び記録部60の構成は、図7に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。   FIG. 25 is a block diagram illustrating configurations of an imaging apparatus 1A and an electronic apparatus 1B according to the ninth embodiment. In the configuration shown in FIG. 25, the imaging apparatus 1A is an apparatus that captures an image of a subject. The imaging apparatus 1A includes a lens unit 10, an imaging unit 20, an image processing unit 30, a work memory 40, an operation unit 55, a recording unit 60, and a first system control unit 70A. In the imaging apparatus 1A, the configurations of the lens unit 10, the imaging unit 20, the image processing unit 30, the work memory 40, the operation unit 55, and the recording unit 60 are the same as those illustrated in FIG. Accordingly, the same components are denoted by the same reference numerals, and redundant description is omitted.

また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部(制御部)70Bを備える。なお、電子機器1Bのうちの表示部50の構成は、図7に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。   The electronic device 1B is a device that displays images (still images, moving images, live view images). The electronic apparatus 1B includes a display unit 50 and a second system control unit (control unit) 70B. The configuration of the display unit 50 in the electronic device 1B is the same as the configuration illustrated in FIG. Accordingly, the same components are denoted by the same reference numerals, and redundant description is omitted.

第1システム制御部70Aは、第1通信部75Aを有している。また、第2システム制御部70Bは、第2通信部75Bを有している。第1通信部75Aと第2通信部75Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部70Aは、第1通信部75Aを介して画像データ(画像処理部30が画像処理した画像データ、記録部60に記録されている画像データ)を第2通信部75Bに送信する。第2システム制御部70Bは、第2通信部75Bにおいて受信した画像データを表示部50に表示させる。また、第2システム制御部70Bは、予め設定されているメニュー画像を第2表示部53に表示させる。   The first system control unit 70A includes a first communication unit 75A. The second system control unit 70B has a second communication unit 75B. The first communication unit 75A and the second communication unit 75B transmit and receive signals to each other in a wired or wireless manner. In such a configuration, the first system control unit 70A receives the second image data (the image data image-processed by the image processing unit 30 and the image data recorded in the recording unit 60) via the first communication unit 75A. It transmits to the communication part 75B. The second system control unit 70B causes the display unit 50 to display the image data received by the second communication unit 75B. Further, the second system control unit 70B causes the second display unit 53 to display a preset menu image.

また、第2システム制御部70Bは、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を変更する制御を行う。また、第2システム制御部70Bは、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、画像表示領域510内の各表示領域を選択する制御を行う。また、第1システム制御部70Aは、使用者による操作部(電子機器1B側に設けられた静止画や動画の撮像開始を指示する操作部)55の操作に応じて撮像の制御を実行する。   In addition, the second system control unit 70B performs control to change the imaging condition (including the accumulation condition) according to the touch operation of the touch panel 52 by the user or automatically. In addition, the second system control unit 70B performs control to select each display area in the image display area 510 in response to a touch operation on the touch panel 52 by the user or automatically. In addition, the first system control unit 70A executes imaging control in accordance with an operation of an operation unit (an operation unit that instructs to start capturing a still image or a moving image provided on the electronic device 1B side) 55 by the user.

図7に示す構成(制御部71、選択部72、設定部73、及び分割部74)は、第1システム制御部70Aと第2システム制御部70Bのいずれに設けられてもよい。図7に示すすべての構成は、第1システム制御部70A又は第2システム制御部70Bに設けられてもよく、また図7に示す構成の一部が第1システム制御部70Aに設けられ、図7に示す構成の一部以外の構成が第2システム制御部70Bに設けられてもよい。   The configuration (the control unit 71, the selection unit 72, the setting unit 73, and the division unit 74) illustrated in FIG. 7 may be provided in either the first system control unit 70A or the second system control unit 70B. 7 may be provided in the first system control unit 70A or the second system control unit 70B, and a part of the configuration shown in FIG. 7 is provided in the first system control unit 70A. 7 may be provided in the second system control unit 70B.

なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。   Note that the imaging apparatus 1A includes, for example, a digital camera, a smartphone, a mobile phone, and a personal computer having an imaging function and a communication function, and the electronic device 1B includes, for example, a smartphone, a mobile phone, and a portable personal computer that have a communication function. Consists of a portable terminal such as a computer.

図25に示す第1システム制御部70Aは、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図25に示す第2システム制御部70Bは、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。   The first system control unit 70A illustrated in FIG. 25 is realized by the body side CPU executing processing based on the control program. Further, the second system control unit 70B illustrated in FIG. 25 is realized by the body side CPU executing processing based on the control program.

以上に説明したように、第9実施形態では、第1実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1Aで撮像されている複数のライブビュー画像を確認した上で撮像を行うことができる。   As described above, in the ninth embodiment, in addition to the effects described in the first embodiment, a plurality of live view images captured by the imaging device 1A using a mobile terminal such as a smartphone are confirmed. Imaging can be performed.

なお、図25に示す構成において、画像処理部30と第1システム制御部70Aとは一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部70Aの機能を担う。   In the configuration shown in FIG. 25, the image processing unit 30 and the first system control unit 70A may be configured integrally. In this case, a system control unit having one body side CPU performs processing based on the control program, thereby taking on the function of the image processing unit 30 and the function of the first system control unit 70A.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above-described embodiment without departing from the spirit of the present invention. In addition, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omitted forms are also included in the technical scope of the present invention. In addition, the configurations of the above-described embodiments and modifications can be applied in appropriate combinations.

例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。   For example, in each of the embodiments described above, the arrangement of the color filters 102 is a Bayer arrangement, but may be an arrangement other than this arrangement. Further, the number of pixels forming the unit group 131 only needs to include at least one pixel. In addition, the block only needs to include at least one pixel. Therefore, it is possible to execute imaging under different imaging conditions for each pixel.

また、上記した各実施形態において、駆動部21は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部30の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部70の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。   In each embodiment described above, part or all of the configuration of the drive unit 21 may be mounted on the imaging chip 113, or part or all of the configuration may be mounted on the signal processing chip 111. Further, a part of the configuration of the image processing unit 30 may be mounted on the imaging chip 113 or the signal processing chip 111. Further, a part of the configuration of the system control unit 70 may be mounted on the imaging chip 113 or the signal processing chip 111.

また、上記した各実施形態において、使用者が表示領域を選択した後に撮像条件(蓄積条件を含む)を変更するように構成していたが、使用者が撮像条件を変更した後に、その変更した撮像条件を反映させる表示領域を選択するように構成してもよい。また、上記した第1実施形態及び第2実施形態において、制御部71は、表示パネル51おける4つの表示領域のうち、使用者により選択された表示領域(ライブビュー画像)を表示パネル51から消去するようにしてもよい。このような構成によれば、使用者が撮像を望まない撮像条件のライブビュー画像を消去して、使用者が望むライブビュー画像を容易に見比べることができるようになる。また、制御部71は、使用者により選択された表示領域(ライブビュー画像)を表示パネル51から消去した場合に、消去した表示領域のスペースに合成部32が合成したライブビュー画像を表示してもよい。   In each embodiment described above, the imaging condition (including the accumulation condition) is changed after the user selects the display area. However, after the user changes the imaging condition, the imaging condition is changed. A display area that reflects imaging conditions may be selected. In the first and second embodiments described above, the control unit 71 erases the display area (live view image) selected by the user from the four display areas on the display panel 51 from the display panel 51. You may make it do. According to such a configuration, it is possible to easily compare the live view image desired by the user by deleting the live view image under the imaging condition that the user does not want to capture. Further, when the display area (live view image) selected by the user is deleted from the display panel 51, the control unit 71 displays the live view image combined by the combining unit 32 in the space of the deleted display area. Also good.

また、上記した各実施形態において、1回の全押し操作に応じて、撮像部20は画素領域113Aのすべての領域(全画素)について、使用者に選択された表示領域の撮像条件で撮像を行うように構成していた。しかし、このような構成に限らず、1回の全押し操作に応じて、撮像部20は画素領域113Aのうち、分割された1つの撮像領域(例えば第1撮像領域)について、使用者に選択された表示領域の撮像条件で撮像を行う構成でもよい。また、使用者が2つ以上の表示領域を選択可能としてもよい。この場合、1回の全押し操作に応じて、撮像部20は画素領域113Aのうち、分割された2つ以上の撮像領域(例えば第1撮像領域と第2撮像領域)について、使用者に選択された2つ以上の表示領域の撮像条件で同時に撮像を行う構成でもよい。   Further, in each of the above-described embodiments, in response to one full-press operation, the imaging unit 20 captures images for all the regions (all pixels) of the pixel region 113A under the imaging conditions of the display region selected by the user. Was configured to do. However, not limited to such a configuration, the imaging unit 20 selects one of the divided imaging regions (for example, the first imaging region) among the pixel regions 113A by the user in response to one full-press operation. A configuration may be used in which imaging is performed under the imaging conditions of the displayed area. Further, the user may be able to select two or more display areas. In this case, the imaging unit 20 selects two or more divided imaging areas (for example, the first imaging area and the second imaging area) in the pixel area 113A according to one full-press operation. A configuration may be employed in which imaging is performed simultaneously under imaging conditions of two or more display areas.

また、図5に示したように、画素領域113Aにおける各撮像領域は、それぞれ、異なる複数のブロックで構成されている。従って、画像生成部31は、各撮像領域で撮像したライブビュー画像を重ね合わせて画素領域113Aの全画素についての1つのライブビュー画像を生成することも可能である。そして、制御部71は、そのように画像生成部31が生成したライブビュー画像を表示パネル51(画像表示領域510)に表示するようにしてもよい。また、画像表示領域510における各表示領域511,512,513,514(又は各表示領域516,517,518,519)は同じ面積の表示領域とされていたが、異なる面積の表示領域とされてもよい。   Further, as shown in FIG. 5, each imaging region in the pixel region 113A is composed of a plurality of different blocks. Accordingly, the image generation unit 31 can also generate one live view image for all the pixels in the pixel region 113A by superimposing the live view images captured in the respective imaging regions. Then, the control unit 71 may display the live view image generated by the image generation unit 31 on the display panel 51 (image display area 510). In addition, the display areas 511, 512, 513, and 514 (or the display areas 516, 517, 518, and 519) in the image display area 510 are display areas having the same area, but are display areas having different areas. Also good.

また、上記した各実施形態において、操作ボタン表示領域520は、画像表示領域510の近傍に設けられていたが、画像表示領域510の近傍でない位置に設けられてもよい。また、操作ボタン表示領域520は、画像表示領域510と重畳した位置に配置されてもよい。また、使用者がタッチパネル52をタッチ操作することに代えて、操作部55を操作するようにしてもよい。   In each embodiment described above, the operation button display area 520 is provided in the vicinity of the image display area 510, but may be provided in a position that is not in the vicinity of the image display area 510. Further, the operation button display area 520 may be disposed at a position overlapping the image display area 510. Further, instead of the user touching the touch panel 52, the operation unit 55 may be operated.

また、上記した各実施形態において、使用者が選択したライブビュー画像の撮像条件と、レリーズスイッチ等の全押し操作に応じて撮像するときの撮像条件とは同じ条件であることを想定している。ライブビュー画像において実際に撮像される画像を確認することができるようにするためである。しかし、ライブビュー画像の撮像条件と実際に撮像される画像の撮像条件とを異ならせてもよい。この場合、使用者がライブビュー画像に基づいて実際に撮像される画像を認識できる程度の撮像条件の変更とされる。   Further, in each of the above-described embodiments, it is assumed that the imaging condition of the live view image selected by the user is the same as the imaging condition when imaging is performed according to the full-press operation of the release switch or the like. . This is because an image actually captured in the live view image can be confirmed. However, the imaging condition of the live view image may be different from the imaging condition of the actually captured image. In this case, the imaging condition is changed to such an extent that the user can recognize the actually captured image based on the live view image.

また、上記した各実施形態において、図5に示したように、分割部74は、撮像素子100の撮像領域113Aを、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域に分割していた。しかし、分割部74は、第1撮像領域と第2撮像領域との2つの領域に分割してもよく、第1撮像領域と第2撮像領域と第3撮像領域との3つの領域に分割してもよく、5以上の撮像領域に分割してもよい。この場合、分割部74が分割した撮像領域の数に合わせて、表示領域が表示部の画像表示領域に設けられる。すなわち、分割部74が2つの撮像領域に分割した場合は、2つの表示領域(第1表示領域と第2表示領域)が画像表示領域に設けられ、分割部74が5以上の撮像領域に分割した場合は、5以上の表示領域が画像表示領域に設けられる。   In each of the above embodiments, as illustrated in FIG. 5, the dividing unit 74 defines the imaging region 113 </ b> A of the imaging device 100 as the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region. It was divided into. However, the dividing unit 74 may divide into two areas of the first imaging area and the second imaging area, and divides into three areas of the first imaging area, the second imaging area, and the third imaging area. Alternatively, it may be divided into five or more imaging regions. In this case, the display area is provided in the image display area of the display unit in accordance with the number of imaging areas divided by the dividing unit 74. That is, when the dividing unit 74 divides into two imaging regions, two display regions (first display region and second display region) are provided in the image display region, and the dividing unit 74 divides into five or more imaging regions. In such a case, five or more display areas are provided in the image display area.

また、上記した各実施形態では、画像表示領域における第1表示領域、第2表示領域、第3表示領域及び第4表示領域の大きさは固定であったが、第5実施形態では、画像表示領域における第1表示領域、第2表示領域、第3表示領域及び第4表示領域の大きさ(面積)を変更可能に構成してもよい。使用者は、例えば第1表示領域を指でつまむようにした後に指を遠ざける操作(ピンチアウト操作)を行う。このような操作に応じて、制御部71は、第1表示領域を拡大表示するように制御する。また、制御部71は、第1表示領域の拡大表示に応じて、第2表示領域、第3表示領域及び第4表示領域を自動的に縮小表示するように制御する。このような構成によれば、使用者が最も見たい(注目している画像を表示している表示領域)を拡大することができる。   In the above-described embodiments, the sizes of the first display area, the second display area, the third display area, and the fourth display area in the image display area are fixed. However, in the fifth embodiment, an image display is performed. You may comprise so that the magnitude | size (area) of the 1st display area in a area | region, a 2nd display area, a 3rd display area, and a 4th display area can be changed. The user performs an operation (pinch-out operation) of moving the finger away after the first display area is pinched with the finger, for example. In response to such an operation, the control unit 71 performs control so that the first display area is enlarged and displayed. Further, the control unit 71 performs control so that the second display area, the third display area, and the fourth display area are automatically reduced and displayed in accordance with the enlarged display of the first display area. According to such a configuration, it is possible to enlarge a user's most desired view (display area displaying an image of interest).

反対に、使用者は、例えば第1表示領域を指でつまむようにした後に指を近づける操作(ピンチイン操作)を行う。このような操作に応じて、制御部71は、第1表示領域を縮小表示するように制御する。また、制御部71は、第1表示領域の縮小表示に応じて、第2表示領域、第3表示領域及び第4表示領域を自動的に拡大表示するように制御する。このような構成によれば、使用者が注目していない画像を表示している表示領域を縮小することができる。   On the contrary, the user performs an operation (pinch-in operation) in which the finger is brought close after the first display area is pinched with the finger, for example. In response to such an operation, the control unit 71 performs control so that the first display area is reduced and displayed. In addition, the control unit 71 controls to automatically enlarge and display the second display area, the third display area, and the fourth display area in accordance with the reduced display of the first display area. According to such a configuration, it is possible to reduce a display area displaying an image that is not focused on by the user.

なお、制御部71は、使用者の操作に応じて表示領域を拡大又は縮小するように構成していたが、推奨する撮像条件で撮像された画像を表示する表示領域を自動的に拡大し、他の表示領域を拡大した表示領域のサイズに合わせて自動的に縮小するように構成してもよい。   The control unit 71 is configured to enlarge or reduce the display area according to the user's operation, but automatically enlarges the display area for displaying the image captured under the recommended imaging conditions. Another display area may be configured to be automatically reduced in accordance with the size of the enlarged display area.

なお、表示部50,50A,50B,50C,50D,50E,50Fは、電圧の印加によりバックライトの透過を制御して各画素の表示を制御する液晶ディスプレイで構成されている場合に限定されず、電圧の印加により自発的な発光を制御して各画素の表示を制御する有機エレクトロルミネッセンス型の液晶ディスプレイで構成されていてもよい。   The display units 50, 50A, 50B, 50C, 50D, 50E, and 50F are not limited to the case where the display units 50, 50A, 50B, 50C, 50D, 50E, and 50F are configured with liquid crystal displays that control the transmission of the backlight by applying a voltage. In addition, an organic electroluminescence type liquid crystal display that controls spontaneous light emission by applying a voltage to control display of each pixel may be used.

1,1B…デジタルカメラ1A…撮像装置、20…撮像部、30,30A…画像処理部、31…画像生成部、32…合成部、50,50A,50C,50D,50E,50F…表示部、50B…第1表示部、51,51A,51C,51D,51E,51F…表示面、52…タッチパネル(選択部)、53…第2表示部、70…システム制御部、70A…第1システム制御部、70B…第2システム制御部、71…制御部、72…選択部、72…設定部、73…設定部、74…分割部、100…撮像素子   DESCRIPTION OF SYMBOLS 1,1B ... Digital camera 1A ... Imaging device, 20 ... Imaging part, 30, 30A ... Image processing part, 31 ... Image generation part, 32 ... Composition part, 50, 50A, 50C, 50D, 50E, 50F ... Display part, 50B ... first display unit, 51, 51A, 51C, 51D, 51E, 51F ... display surface, 52 ... touch panel (selection unit), 53 ... second display unit, 70 ... system control unit, 70A ... first system control unit , 70B ... second system control unit, 71 ... control unit, 72 ... selection unit, 72 ... setting unit, 73 ... setting unit, 74 ... dividing unit, 100 ... image sensor

Claims (14)

第1撮像条件で撮像を行う第1撮像素子と前記第1撮像条件とは異なる第2撮像条件で撮像を行う第2撮像素子とが複数配列され、前記第1撮像素子に入射した被写体像に応じて生成された第1画像データと前記第2撮像素子に入射した被写体像に応じて生成された第2画像データとを出力する撮像部と、
前記第1画像データにより示される第1画像と前記第2画像データにより示される第2画像とを表示部に表示して前記第1画像データ及び前記第2画像データの記録態様を選択可能なように提示する制御部と、
を備える電子機器。
A plurality of first imaging elements that perform imaging under the first imaging condition and second imaging elements that perform imaging under a second imaging condition different from the first imaging condition are arranged, and the subject image incident on the first imaging element An imaging unit that outputs first image data generated in response to the second image data generated in accordance with a subject image incident on the second imaging element;
The first image indicated by the first image data and the second image indicated by the second image data are displayed on the display unit so that the recording mode of the first image data and the second image data can be selected. A control unit presented in
Electronic equipment comprising.
前記第1画像及び前記第2画像は、いずれもライブビュー画像であり、
前記第1画像データ及び前記第2画像データの記録態様を選択する選択部を備え、
前記撮像部は、前記選択部により選択された記録態様に対応する撮像条件で本撮像を行う請求項1記載の電子機器。
The first image and the second image are both live view images,
A selection unit for selecting a recording mode of the first image data and the second image data;
The electronic apparatus according to claim 1, wherein the imaging unit performs main imaging under an imaging condition corresponding to a recording mode selected by the selection unit.
前記選択部は、前記表示部に形成されたタッチパネルを有する請求項2記載の電子機器。   The electronic device according to claim 2, wherein the selection unit includes a touch panel formed on the display unit. 前記撮像部の複数の撮像素子を少なくとも前記第1撮像素子と前記第2撮像素子とに分割する分割部を備える請求項1から3のいずれか一項に記載の電子機器。   4. The electronic apparatus according to claim 1, further comprising a dividing unit that divides a plurality of imaging elements of the imaging unit into at least the first imaging element and the second imaging element. 5. 前記分割部は、前記撮像部の撮像領域において前記第1撮像素子及び前記第2撮像素子をそれぞれ全面的に複数配置する請求項4記載の電子機器。   5. The electronic device according to claim 4, wherein the dividing unit arranges a plurality of the first imaging elements and the second imaging elements in the imaging region of the imaging unit. 前記第1撮像条件と前記第2撮像条件とを設定する設定部を備える請求項1から5のいずれか一項に記載の電子機器。   The electronic device according to claim 1, further comprising a setting unit that sets the first imaging condition and the second imaging condition. 前記設定部は、前記第1撮像素子または前記第2撮像素子の一部の撮像素子の撮像条件を、前記第1撮像条件または前記第2撮像条件と異なるように設定する請求項6記載の電子機器。   The electronic device according to claim 6, wherein the setting unit sets an imaging condition of a part of the first imaging element or the second imaging element to be different from the first imaging condition or the second imaging condition. machine. 前記設定部は、前記撮像条件として、フレームレート、ゲイン、露光時間のうち、少なくとも1つを異ならせる請求項6または請求項7記載の電子機器。   The electronic device according to claim 6, wherein the setting unit varies at least one of a frame rate, a gain, and an exposure time as the imaging condition. 前記設定部は、前記撮像条件として、ホワイトバランス、階調、色調補正のうち、少なくとも1つを異ならせる請求項6から8のいずれか一項に記載の電子機器。   The electronic device according to claim 6, wherein the setting unit varies at least one of white balance, gradation, and color correction as the imaging condition. 前記設定部は、前記第1画像と前記第2画像との明るさが同じになるように、露光時間及びゲインのいずれか一方の変更に応じて、前記露光時間及び前記ゲインのいずれか他方を変更する請求項6から9のいずれか一項に記載の電子機器。   The setting unit sets the other of the exposure time and the gain according to a change of either the exposure time or the gain so that the brightness of the first image and the second image is the same. The electronic device according to any one of claims 6 to 9, which is changed. 前記制御部は、前記第1画像と前記第2画像とを合成した画像を前記表示部に表示させる請求項1から10のいずれか一項に記載の電子機器。   The electronic device according to any one of claims 1 to 10, wherein the control unit displays an image obtained by combining the first image and the second image on the display unit. 前記制御部は、前記表示部において前記第1画像及び前記第2画像のいずれか一方を拡大または縮小することに合わせて、前記第1画像及び前記第2画像のいずれか他方を拡大または縮小する請求項1から11のいずれか一項に記載の電子機器。   The control unit enlarges or reduces one of the first image and the second image in accordance with enlargement or reduction of either the first image or the second image on the display unit. The electronic device according to any one of claims 1 to 11. 第1撮像条件で撮像を行う第1撮像素子と前記第1撮像条件とは異なる第2撮像条件で撮像を行う第2撮像素子とが複数配列され、前記第1撮像素子に入射した被写体像に応じて生成された第1画像データと前記第2撮像素子に入射した被写体像に応じて生成された第2画像データとを出力する撮像部を有する電子機器の制御方法であって、
前記第1画像データにより示される第1画像と前記第2画像データにより示される第2画像とを表示部に表示して前記第1画像データ及び前記第2画像データの記録態様を選択可能なように提示することを含む電子機器の制御方法。
A plurality of first imaging elements that perform imaging under the first imaging condition and second imaging elements that perform imaging under a second imaging condition different from the first imaging condition are arranged, and the subject image incident on the first imaging element A control method for an electronic device having an imaging unit that outputs first image data generated in response to the second image data generated in response to a subject image incident on the second imaging element,
The first image indicated by the first image data and the second image indicated by the second image data are displayed on the display unit so that the recording mode of the first image data and the second image data can be selected. A method of controlling an electronic device including presenting to
第1撮像条件で撮像を行う第1撮像素子と前記第1撮像条件とは異なる第2撮像条件で撮像を行う第2撮像素子とが複数配列され、前記第1撮像素子に入射した被写体像に応じて生成された第1画像データと前記第2撮像素子に入射した被写体像に応じて生成された第2画像データとを出力する撮像部を有する電子機器の制御装置に、
前記第1画像データにより示される第1画像と前記第2画像データにより示される第2画像とを表示部に表示して前記第1画像データ及び前記第2画像データの記録態様を選択可能なように提示する処理を実行させる制御プログラム。
A plurality of first imaging elements that perform imaging under the first imaging condition and second imaging elements that perform imaging under a second imaging condition different from the first imaging condition are arranged, and the subject image incident on the first imaging element A control device for an electronic apparatus having an imaging unit that outputs first image data generated in response to the second image data generated in accordance with a subject image incident on the second imaging element.
The first image indicated by the first image data and the second image indicated by the second image data are displayed on the display unit so that the recording mode of the first image data and the second image data can be selected. A control program that executes the process presented to the user.
JP2016092479A 2016-05-02 2016-05-02 Electronic apparatus, control method for electronic apparatus and control program Pending JP2016158294A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016092479A JP2016158294A (en) 2016-05-02 2016-05-02 Electronic apparatus, control method for electronic apparatus and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016092479A JP2016158294A (en) 2016-05-02 2016-05-02 Electronic apparatus, control method for electronic apparatus and control program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014561215A Division JP5930079B2 (en) 2013-09-30 2013-09-30 Electronics

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018044271A Division JP2018117375A (en) 2018-03-12 2018-03-12 Electronic apparatus, control method for electronic apparatus and control program

Publications (2)

Publication Number Publication Date
JP2016158294A true JP2016158294A (en) 2016-09-01
JP2016158294A5 JP2016158294A5 (en) 2017-01-12

Family

ID=56826839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016092479A Pending JP2016158294A (en) 2016-05-02 2016-05-02 Electronic apparatus, control method for electronic apparatus and control program

Country Status (1)

Country Link
JP (1) JP2016158294A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11546561B2 (en) 2018-12-26 2023-01-03 Fujifilm Corporation Imaging apparatus, image data processing method of imaging apparatus, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005005893A (en) * 2003-06-10 2005-01-06 Jai Corporation Monitoring image pickup device
JP2006157862A (en) * 2004-11-08 2006-06-15 Matsushita Electric Ind Co Ltd Mos-type imaging device and imaging apparatus
JP2009033338A (en) * 2007-07-25 2009-02-12 Olympus Imaging Corp Imaging device
JP2010021697A (en) * 2008-07-09 2010-01-28 Sony Corp Image sensor, camera, method of controlling image sensor and program
JP2012217215A (en) * 2012-08-03 2012-11-08 Casio Comput Co Ltd Imaging apparatus, imaging control program, image reproducer and image reproduction control program
JP2013015529A (en) * 2012-08-30 2013-01-24 Dainippon Printing Co Ltd Physical quantity sensor and method of manufacturing the same
JP2013058661A (en) * 2011-09-09 2013-03-28 Sony Corp Solid-state imaging device and electronic apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005005893A (en) * 2003-06-10 2005-01-06 Jai Corporation Monitoring image pickup device
JP2006157862A (en) * 2004-11-08 2006-06-15 Matsushita Electric Ind Co Ltd Mos-type imaging device and imaging apparatus
JP2009033338A (en) * 2007-07-25 2009-02-12 Olympus Imaging Corp Imaging device
JP2010021697A (en) * 2008-07-09 2010-01-28 Sony Corp Image sensor, camera, method of controlling image sensor and program
JP2013058661A (en) * 2011-09-09 2013-03-28 Sony Corp Solid-state imaging device and electronic apparatus
JP2012217215A (en) * 2012-08-03 2012-11-08 Casio Comput Co Ltd Imaging apparatus, imaging control program, image reproducer and image reproduction control program
JP2013015529A (en) * 2012-08-30 2013-01-24 Dainippon Printing Co Ltd Physical quantity sensor and method of manufacturing the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11546561B2 (en) 2018-12-26 2023-01-03 Fujifilm Corporation Imaging apparatus, image data processing method of imaging apparatus, and program
US11902701B2 (en) 2018-12-26 2024-02-13 Fujifilm Corporation Imaging apparatus, image data processing method of imaging apparatus, and program
JP7460595B2 (en) 2018-12-26 2024-04-02 富士フイルム株式会社 Image pickup device, image data processing method for image pickup device, and program

Similar Documents

Publication Publication Date Title
JP5930079B2 (en) Electronics
JP6075393B2 (en) Electronic equipment and control program
JP6780745B2 (en) Electronics
JP6372488B2 (en) Electronics
JP6375607B2 (en) Electronic device, electronic device control method, and control program
JP2019036988A (en) Electronic equipment
JP6561428B2 (en) Electronic device, control method, and control program
JP2018117375A (en) Electronic apparatus, control method for electronic apparatus and control program
JP6409883B2 (en) Electronic equipment and control program
JP7283488B2 (en) Image sensor and electronic equipment
JP2016158294A (en) Electronic apparatus, control method for electronic apparatus and control program
JP6822507B2 (en) Electronics
JP7176591B2 (en) Electronics
JP6885374B2 (en) Electronics
JP2023054229A (en) Electronic apparatus
JP2018148590A (en) Electronic apparatus and imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171212