JP6822507B2 - Electronics - Google Patents

Electronics Download PDF

Info

Publication number
JP6822507B2
JP6822507B2 JP2019057995A JP2019057995A JP6822507B2 JP 6822507 B2 JP6822507 B2 JP 6822507B2 JP 2019057995 A JP2019057995 A JP 2019057995A JP 2019057995 A JP2019057995 A JP 2019057995A JP 6822507 B2 JP6822507 B2 JP 6822507B2
Authority
JP
Japan
Prior art keywords
image
imaging
unit
display area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019057995A
Other languages
Japanese (ja)
Other versions
JP2019106731A (en
Inventor
岳志 西
岳志 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019057995A priority Critical patent/JP6822507B2/en
Publication of JP2019106731A publication Critical patent/JP2019106731A/en
Application granted granted Critical
Publication of JP6822507B2 publication Critical patent/JP6822507B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、電子機器に関する。 The present invention relates to electronic devices.

裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、この撮像素子を積層型撮像素子という。)を備えた電子機器が提案されている(例えば特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、複数画素をまとめたブロック単位ごとにマイクロバンプを介して接続されるように積層されている。 An electronic device including an image pickup device in which a back-illuminated image pickup chip and a signal processing chip are laminated (hereinafter, this image pickup device is referred to as a stacked image pickup device) has been proposed (see, for example, Patent Document 1). In the stacked image sensor, the back-illuminated image sensor and the signal processing chip are laminated so as to be connected to each other in block units in which a plurality of pixels are grouped via micro bumps.

特開2006−49361号公報Japanese Unexamined Patent Publication No. 2006-49361

しかし、従来の積層型撮像素子を備えた電子機器において、複数のブロック単位ごとに撮像して画像を取得する提案は多くなく、積層型撮像素子を備えた電子機器の使い勝手が十分ではなかった。 However, in the conventional electronic device equipped with a stacked image sensor, there are not many proposals for acquiring an image by taking an image for each of a plurality of blocks, and the usability of the electronic device provided with the stacked image sensor is not sufficient.

本発明の態様では、異なる撮像条件で撮像された複数の画像を表示部に表示させることにより、撮像条件の変更に対応する画像の変化を確認することを目的とする。 An object of the present invention is to confirm changes in images corresponding to changes in imaging conditions by displaying a plurality of images captured under different imaging conditions on a display unit.

本発明の態様に係る電子機器は、被写体を撮像する領域であって、光電変換された電荷により信号を生成する複数の画素と、複数の画素に接続され、信号を出力するための信号線と、複数の画素に接続され、信号を信号線に読み出すための制御線と、を含む撮像領域が第1方向と前記第1方向と交差する第2方向とに複数配置された撮像素子を備えてよい。電子機器は、撮像領域の撮像条件を設定する設定部を備えてよい。電子機器は、複数の撮像領域のうち、第1方向と第2方向とにおいてそれぞれ配置され、設定部により第1撮像条件が設定された複数の第1撮像領域で撮像された被写体の第1画像と、複数の前記撮像領域のうち、第1方向と第2方向とにおいてそれぞれ配置され、設定部により第1撮像条件とは異なる第2撮像条件が設定された複数の第2撮像領域で撮像された被写体の第2画像と、を設定部により複数の撮像領域に設定される撮像条件を選択させるように表示部に表示させる制御部を備えてよい。 The electronic device according to one aspect of the present invention is a region for imaging a subject, and is a plurality of pixels that generate a signal by photoelectrically converted charges and a signal line that is connected to the plurality of pixels and outputs a signal. A control line connected to a plurality of pixels and for reading a signal into a signal line, and a plurality of image pickup elements arranged in a second direction in which an imaging region including the first direction intersects the first direction are provided. You can. The electronic device may include a setting unit for setting imaging conditions in the imaging region . The electronic device is arranged in each of the first direction and the second direction of the plurality of imaging regions, and the first image of the subject imaged in the plurality of first imaging regions in which the first imaging condition is set by the setting unit. And, among the plurality of the imaging regions, the images are taken in a plurality of second imaging regions that are arranged in the first direction and the second direction, respectively, and the second imaging conditions different from the first imaging conditions are set by the setting unit. A control unit may be provided for displaying the second image of the subject on the display unit so that the setting unit selects the imaging conditions set in the plurality of imaging regions .

本発明の態様によれば、異なる撮像条件で撮像された複数の画像を表示部に表示させることにより、撮像条件の変更に対応する画像の変化を確認することができる。 According to the aspect of the present invention, by displaying a plurality of images captured under different imaging conditions on the display unit, it is possible to confirm the change in the image corresponding to the change in the imaging conditions.

本実施形態の撮像素子の断面図である。It is sectional drawing of the image pickup device of this embodiment. 撮像チップの画素配列と単位グループを説明する図である。It is a figure explaining the pixel arrangement and the unit group of an image pickup chip. 撮像チップの単位グループに対応する回路図である。It is a circuit diagram corresponding to the unit group of the image pickup chip. 撮像素子の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of an image sensor. 各ブロックにおける配列パターンを示す図である。It is a figure which shows the arrangement pattern in each block. 電子機器の一例であるデジタルカメラの概略構成を示す横断面図である。It is sectional drawing which shows the schematic structure of the digital camera which is an example of an electronic device. 第1実施形態に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on 1st Embodiment. 第1実施形態のデジタルカメラに係る表示部を示す図である。It is a figure which shows the display part which concerns on the digital camera of 1st Embodiment. 第1実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the photographing operation executed by the system control unit of 1st Embodiment. 第1実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 1st Embodiment. 第1実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 1st Embodiment. 第1実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 1st Embodiment. 第1実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 1st Embodiment. 第2実施形態のデジタルカメラに係る表示部を示す図である。It is a figure which shows the display part which concerns on the digital camera of 2nd Embodiment. 第2実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。It is a flowchart for demonstrating the photographing operation executed by the system control unit of 2nd Embodiment. 第2実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 2nd Embodiment. 第2実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 2nd Embodiment. 第3実施形態のデジタルカメラに係る画像処理部及びシステム制御部の機能ブロック図である。It is a functional block diagram of the image processing unit and the system control unit which concerns on the digital camera of the 3rd Embodiment. 第3実施形態における第1表示部及び第2表示部に画像を表示する場合の表示例を示す図である。It is a figure which shows the display example when the image is displayed on the 1st display part and the 2nd display part in 3rd Embodiment. 第4実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 4th Embodiment. 第5実施形態における電子ズームを行った場合の表示面51Dの表示例を示す図である。It is a figure which shows the display example of the display surface 51D when the electronic zoom is performed in 5th Embodiment. 第6実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 6th Embodiment. 第7実施形態における表示面の表示例を示す図である。It is a figure which shows the display example of the display surface in 7th Embodiment. 第8実施形態におけるストロボの発光タイミングと電荷蓄積のタイミングとを示すタイミングチャートである。It is a timing chart which shows the light emission timing of the strobe and the timing of charge accumulation in 8th Embodiment. 第9実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。It is a block diagram which shows the structure of the image pickup apparatus and the electronic apparatus which concerns on 9th Embodiment.

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。なお、以下の各実施形態では、電子機器の例としてレンズ交換式のデジタルカメラを例に挙げて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to this. In addition, in the drawings, in order to explain the embodiment, the scale may be changed as appropriate, such as drawing a part in a large or emphasized manner. In each of the following embodiments, an interchangeable lens digital camera will be described as an example of an electronic device.

<第1実施形態>
図1は、本実施形態の撮像素子100の断面図である。撮像素子100は、本願出願人が先に出願した特願2012−139026号に記載されているものである。撮像素子100は、入射光に対応した画素信号を出力する撮像チップ113と撮像チップ113から出力された画素信号を処理する信号処理チップ111と信号処理チップ111で処理された画素信号を記憶するメモリチップ112とを備える。撮像チップ113、信号処理チップ111及びメモリチップ112は積層されており、撮像チップ113及び信号処理チップ111は、Cu等の導電性を有するバンプ109により互いに電気的に接続される。また、信号処理チップ111及びメモリチップ112は、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
<First Embodiment>
FIG. 1 is a cross-sectional view of the image sensor 100 of the present embodiment. The image sensor 100 is described in Japanese Patent Application No. 2012-139026 previously filed by the applicant of the present application. The image sensor 100 is a memory that stores a pixel signal processed by the image pickup chip 113 that outputs a pixel signal corresponding to the incident light, a signal processing chip 111 that processes the pixel signal output from the image pickup chip 113, and the signal processing chip 111. It includes a chip 112. The image pickup chip 113, the signal processing chip 111, and the memory chip 112 are laminated, and the image pickup chip 113 and the signal processing chip 111 are electrically connected to each other by a conductive bump 109 such as Cu. Further, the signal processing chip 111 and the memory chip 112 are electrically connected to each other by a conductive bump 109 such as Cu.

図示した座標軸で示すように、入射光は主にZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸で示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸及びX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。 As shown by the illustrated coordinate axes, the incident light is mainly incident in the positive direction of the Z axis. In the present embodiment, in the image pickup chip 113, the surface on the side where the incident light is incident is referred to as the back surface. Further, as shown by the coordinate axes, the left direction of the paper surface orthogonal to the Z axis is defined as the X-axis plus direction, and the Z-axis and the front direction of the paper surface orthogonal to the X-axis are defined as the Y-axis plus direction. In some subsequent figures, the coordinate axes are displayed so that the orientation of each figure can be understood with reference to the coordinate axes of FIG.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のフォトダイオード(Photodiode;以下、PDという。)104、及び、PD104に対応して設けられたトランジスタ105を有する。 An example of the image pickup chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is arranged on the back surface side of the wiring layer 108. The PD layer 106 has a plurality of photodiodes (Photodiode; hereinafter referred to as PD) 104 arranged two-dimensionally and accumulating charges according to incident light, and a transistor 105 provided corresponding to the PD 104. ..

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、可視光のうち特定の波長領域を通過させるフィルタである。このカラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104、及びトランジスタ105の組が一つの画素を形成する。 A color filter 102 is provided on the incident side of the incident light in the PD layer 106 via the passivation film 103. The color filter 102 is a filter that allows visible light to pass through a specific wavelength region. The color filter 102 has a plurality of types that transmit different wavelength regions from each other, and has a specific arrangement corresponding to each of the PD 104. The arrangement of the color filters 102 will be described later. A set of a color filter 102, a PD 104, and a transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。 A microlens 101 is provided on the incident side of the incident light in the color filter 102 corresponding to each pixel. The microlens 101 collects incident light toward the corresponding PD 104.

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子及び能動素子が設けられてもよい。配線層108の表面には複数のバンプ109が配される。これら複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされる。そして、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 The wiring layer 108 has a wiring 107 that transmits a pixel signal from the PD layer 106 to the signal processing chip 111. The wiring 107 may have multiple layers, and may be provided with passive elements and active elements. A plurality of bumps 109 are arranged on the surface of the wiring layer 108. These plurality of bumps 109 are aligned with the plurality of bumps 109 provided on the facing surfaces of the signal processing chip 111. Then, when the imaging chip 113 and the signal processing chip 111 are pressurized or the like, the aligned bumps 109 are joined to each other and electrically connected.

同様に、信号処理チップ111及びメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされる。そして、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 Similarly, a plurality of bumps 109 are arranged on the surfaces of the signal processing chip 111 and the memory chip 112 facing each other. These bumps 109 are aligned with each other. Then, when the signal processing chip 111 and the memory chip 112 are pressurized or the like, the aligned bumps 109 are joined to each other and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位グループに対して一つ程度設ければよい。従って、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域(図2に示す画素領域113A)以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。 The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and micro bump bonding by solder melting may be adopted. Further, for example, about one bump 109 may be provided for one unit group described later. Therefore, the size of the bump 109 may be larger than the pitch of the PD 104. Further, in the peripheral region other than the pixel region (pixel region 113A shown in FIG. 2) in which the pixels are arranged, a bump larger than the bump 109 corresponding to the pixel region may be provided together.

信号処理チップ111は、表面及び裏面にそれぞれ設けられた回路を互いに接続するTSV(Through-Silicon Via;シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられる。また、TSV110は、撮像チップ113の周辺領域や、メモリチップ112に設けられてもよい。 The signal processing chip 111 has a TSV (Through-Silicon Via; through silicon via) 110 that connects circuits provided on the front surface and the back surface to each other. The TSV 110 is provided in the peripheral area. Further, the TSV 110 may be provided in the peripheral area of the image pickup chip 113 or in the memory chip 112.

図2は、撮像チップ113の画素配列と単位グループを説明する図である。図2では、特に、撮像チップ113を裏面側から観察した様子を示す。撮像チップ113において画素が配列された領域を画素領域(撮像領域)113Aという。画素領域113Aには2000万個以上もの画素がマトリックス状に配列されている。図2に示す例では、隣接する4画素×4画素の16画素が一つの単位グループ131を形成する。図2の格子線は、隣接する画素がグループ化されて単位グループ131を形成する概念を示す。単位グループ131を形成する画素の数はこれに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。 FIG. 2 is a diagram illustrating a pixel arrangement and a unit group of the imaging chip 113. FIG. 2 shows, in particular, a state in which the imaging chip 113 is observed from the back surface side. The region in which the pixels are arranged in the imaging chip 113 is referred to as a pixel region (imaging region) 113A. More than 20 million pixels are arranged in a matrix in the pixel area 113A. In the example shown in FIG. 2, 16 pixels of adjacent 4 pixels × 4 pixels form one unit group 131. The grid lines in FIG. 2 show the concept that adjacent pixels are grouped to form a unit group 131. The number of pixels forming the unit group 131 is not limited to this, and may be about 1000, for example, 32 pixels × 64 pixels, more or less.

画素領域113Aの部分拡大図に示すように、単位グループ131は、緑色画素Gb,Gr、青色画素B、及び赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光する。赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。 As shown in the partially enlarged view of the pixel region 113A, the unit group 131 includes four so-called Bayer arrays including four pixels of green pixels Gb, Gr, blue pixels B, and red pixels R in the vertical and horizontal directions. The green pixel is a pixel having a green filter as the color filter 102, and receives light in the green wavelength band among the incident light. Similarly, the blue pixel is a pixel having a blue filter as the color filter 102 and receives light in the blue wavelength band. The red pixel is a pixel having a red filter as the color filter 102 and receives light in the red wavelength band.

図3は、撮像チップ113の単位グループに対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。 FIG. 3 is a circuit diagram corresponding to a unit group of the imaging chip 113. In FIG. 3, a rectangle surrounded by a dotted line typically represents a circuit corresponding to one pixel. At least a part of each transistor described below corresponds to the transistor 105 of FIG.

上述したように、単位グループ131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続される。各転送トランジスタ302のゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。 As described above, the unit group 131 is formed from 16 pixels. The 16 PD 104s corresponding to each pixel are connected to the transfer transistor 302, respectively. The gate of each transfer transistor 302 is connected to the TX wiring 307 to which the transfer pulse is supplied. In the present embodiment, the TX wiring 307 is commonly connected to the 16 transfer transistors 302.

各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されるとともに、転送トランジスタ302のドレインと各リセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFD(電荷検出部)が増幅トランジスタ304のゲートに接続される。各リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続される。各リセットトランジスタ303のゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。 The drain of each transfer transistor 302 is connected to the source of each corresponding reset transistor 303, and the so-called floating diffusion FD (charge detection unit) between the drain of the transfer transistor 302 and the source of each reset transistor 303 is an amplification transistor 304. Connected to the gate. The drain of each reset transistor 303 is connected to the Vdd wiring 310 to which the power supply voltage is supplied. The gate of each reset transistor 303 is connected to the reset wiring 306 to which the reset pulse is supplied. In the present embodiment, the reset wiring 306 is commonly connected to the 16 reset transistors 303.

各々の増幅トランジスタ304のドレインは電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。各々の選択トランジスタ305のゲートには、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。 The drain of each amplification transistor 304 is connected to the Vdd wiring 310 to which the power supply voltage is supplied. Also, the source of each amplification transistor 304 is connected to the drain of each corresponding selection transistor 305. The gate of each selection transistor 305 is connected to the decoder wiring 308 to which the selection pulse is supplied. In the present embodiment, the decoder wiring 308 is provided independently for each of the 16 selection transistors 305. Then, the source of each selection transistor 305 is connected to the common output wiring 309. The load current source 311 supplies current to the output wiring 309. That is, the output wiring 309 for the selection transistor 305 is formed by the source follower. The load current source 311 may be provided on the imaging chip 113 side or the signal processing chip 111 side.

ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加される。これと同時に、TX配線307を通じて転送パルスが転送トランジスタ302に印加される。これにより、PD104及びフローティングディフュージョンFDの電位はリセットされる。 Here, the flow from the start of charge accumulation to the pixel output after the end of accumulation will be described. A reset pulse is applied to the reset transistor 303 through the reset wiring 306. At the same time, a transfer pulse is applied to the transfer transistor 302 through the TX wiring 307. As a result, the potentials of the PD 104 and the floating diffusion FD are reset.

PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、PD104において蓄積された電荷はフローティングディフュージョンFDへ転送される。これにより、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304及び選択トランジスタ305を介して出力配線309に伝わる。このような回路の動作により、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。 When the application of the transfer pulse is released, the PD 104 converts the received incident light into an electric charge and accumulates it. After that, when the transfer pulse is applied again in the state where the reset pulse is not applied, the electric charge accumulated in the PD 104 is transferred to the floating diffusion FD. As a result, the potential of the floating diffusion FD changes from the reset potential to the signal potential after charge accumulation. Then, when the selection pulse is applied to the selection transistor 305 through the decoder wiring 308, the fluctuation of the signal potential of the floating diffusion FD is transmitted to the output wiring 309 via the amplification transistor 304 and the selection transistor 305. By the operation of such a circuit, the pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 309.

図3に示すように、本実施形態においては、単位グループ131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素すべてに対して同時に印加される。従って、単位グループ131を形成するすべての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309に出力される。また、リセット配線306、TX配線307、出力配線309は、単位グループ131毎に別個に設けられる。 As shown in FIG. 3, in the present embodiment, the reset wiring 306 and the TX wiring 307 are common to the 16 pixels forming the unit group 131. That is, the reset pulse and the transfer pulse are applied to all 16 pixels at the same time. Therefore, all the pixels forming the unit group 131 start the charge accumulation at the same timing and end the charge accumulation at the same timing. However, the pixel signal corresponding to the accumulated charge is selectively output to the output wiring 309 by sequentially applying the selection pulse to each selection transistor 305. Further, the reset wiring 306, the TX wiring 307, and the output wiring 309 are separately provided for each unit group 131.

このように単位グループ131を基準として回路を構成することにより、単位グループ131ごとに電荷蓄積時間を制御することができる。換言すると、単位グループ131間で、異なった電荷蓄積時間による画素信号をそれぞれ出力させることができる。更に言えば、一方の単位グループ131に1回の電荷蓄積を行わせている間に、他方の単位グループ131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位グループ131間で異なるフレームレートで動画用の各フレームを出力することもできる。 By configuring the circuit with the unit group 131 as a reference in this way, the charge accumulation time can be controlled for each unit group 131. In other words, pixel signals with different charge accumulation times can be output between the unit groups 131. Furthermore, while one unit group 131 is made to perform one charge accumulation, the other unit group 131 is made to repeat the charge accumulation many times to output a pixel signal each time. It is also possible to output each frame for moving images at different frame rates among the unit groups 131.

図4は、撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位グループ131を形成する16個のPD104を順番に選択する。そして、マルチプレクサ411は、16個のPD104のそれぞれの画素信号を当該単位グループ131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104とともに、撮像チップ113に形成される。 FIG. 4 is a block diagram showing a functional configuration of the image sensor 100. The analog multiplexer 411 sequentially selects 16 PD 104s forming a unit group 131. Then, the multiplexer 411 outputs the pixel signals of the 16 PD 104s to the output wiring 309 provided corresponding to the unit group 131. The multiplexer 411 is formed on the imaging chip 113 together with the PD 104.

マルチプレクサ411を介して出力されたアナログ信号の画素信号は、信号処理チップ111に形成されたアンプ412により増幅される。そして、アンプ412で増幅された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS;Correlated Double Sampling)・アナログ/デジタル(Analog/Digital)変換を行う信号処理回路413により、相関二重サンプリングの信号処理が行われるとともに、A/D変換(アナログ信号からデジタル信号への変換)が行われる。画素信号が信号処理回路413において相関二重サンプリングの信号処理が行われることにより、画素信号のノイズが低減される。A/D変換された画素信号は、デマルチプレクサ414に引き渡され、それぞれの画素に対応する画素メモリ415に格納される。デマルチプレクサ414及び画素メモリ415は、メモリチップ112に形成される。 The pixel signal of the analog signal output via the multiplexer 411 is amplified by the amplifier 412 formed on the signal processing chip 111. Then, the pixel signal amplified by the amplifier 412 is generated by a signal processing circuit 413 formed on the signal processing chip 111, which performs correlated double sampling (CDS) and analog / digital (Analog / Digital) conversion. Along with the signal processing of correlated double sampling, A / D conversion (conversion from analog signal to digital signal) is performed. The noise of the pixel signal is reduced by performing the signal processing of the correlation double sampling of the pixel signal in the signal processing circuit 413. The A / D converted pixel signal is passed to the demultiplexer 414 and stored in the pixel memory 415 corresponding to each pixel. The demultiplexer 414 and the pixel memory 415 are formed on the memory chip 112.

演算回路416は、画素メモリ415に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路416は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図4では1つの単位グループ131の分の接続を示すが、実際にはこれらが単位グループ131ごとに存在して、並列で動作する。ただし、演算回路416は単位グループ131ごとに存在しなくてもよい。例えば、一つの演算回路416がそれぞれの単位グループ131に対応する画素メモリ415の値を順に参照しながらシーケンシャルに処理してもよい。 The arithmetic circuit 416 processes the pixel signal stored in the pixel memory 415 and hands it over to the image processing unit in the subsequent stage. The arithmetic circuit 416 may be provided on the signal processing chip 111 or the memory chip 112. Note that FIG. 4 shows the connections for one unit group 131, but in reality, these exist for each unit group 131 and operate in parallel. However, the arithmetic circuit 416 does not have to exist for each unit group 131. For example, one arithmetic circuit 416 may sequentially refer to the values of the pixel memory 415 corresponding to each unit group 131 for sequential processing.

上記した通り、単位グループ131のそれぞれに対応して出力配線309が設けられている。撮像素子100は、撮像チップ113、信号処理チップ111、及びメモリチップ112を積層している。このため、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。 As described above, the output wiring 309 is provided corresponding to each of the unit groups 131. The image pickup device 100 is a stack of an image pickup chip 113, a signal processing chip 111, and a memory chip 112. Therefore, by using the electrical connection between the chips using the bumps 109 for the output wiring 309, the wiring can be routed without enlarging each chip in the plane direction.

次に、撮像素子100の画素領域113A(図2参照)に設定されるブロックについて説明する。本実施形態において、撮像素子100の画素領域113Aは、複数のブロックに分割される。複数のブロックは、1ブロックにつき単位グループ131を少なくとも1つ含むように定義される。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素が制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、制御パラメータが異なる画素信号が取得される。制御パラメータとしては、例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン、間引き率(画素間引き率)、画素信号を加算する加算行数又は加算列数(画素加算数)、デジタル化のビット数などがあげられる。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。 Next, a block set in the pixel region 113A (see FIG. 2) of the image sensor 100 will be described. In the present embodiment, the pixel region 113A of the image sensor 100 is divided into a plurality of blocks. The plurality of blocks are defined to include at least one unit group 131 per block. The pixels included in each block are controlled by different control parameters for each block. That is, pixel signals having different control parameters are acquired between the pixel group included in a certain block and the pixel group included in another block. The control parameters include, for example, charge accumulation time or number of accumulations, frame rate, gain, thinning rate (pixel thinning rate), number of additional rows or columns to add pixel signals (pixel addition number), and digitization bits. The number etc. can be given. Further, the control parameter may be a parameter in image processing after acquiring an image signal from a pixel.

ここで、電荷の蓄積時間とは、PD104が電荷の蓄積を開始してから終了するまでの時間のことをいう。この電荷蓄積時間のことを露光時間又はシャッター速度(シャッタースピード)ともいう。また、電荷の蓄積回数とは、単位時間あたりにPD104が電荷を蓄積する回数のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。フレームレートが高くなる程、動画における被写体(すなわち撮像される対象物)の動きが滑らかになる。 Here, the charge accumulation time means the time from the start to the end of the charge accumulation of the PD 104. This charge accumulation time is also referred to as an exposure time or a shutter speed (shutter speed). The number of electric charges accumulated means the number of times the PD 104 accumulates electric charges per unit time. The frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of frame rate is fps (Frames Per Second). The higher the frame rate, the smoother the movement of the subject (that is, the object to be imaged) in the moving image.

また、ゲインとは、アンプ412の利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子100の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子100が光をとらえる能力を表す値となる。ゲインを上げるとISO感度も向上する。例えば、ゲインを倍にすると電気信号(画素信号)も倍になり、入射光の光量が半分でも適切な明るさとなる。しかし、ゲインを上げると、電気信号に含まれるノイズも増幅されるため、ノイズが多くなってしまう。 Further, the gain means the gain rate (amplification rate) of the amplifier 412. By changing this gain, the ISO sensitivity can be changed. This ISO sensitivity is a standard for photographic film established by ISO, and indicates how weak a photographic film can record. However, in general, ISO sensitivity is also used when expressing the sensitivity of the image sensor 100. In this case, the ISO sensitivity is a value representing the ability of the image sensor 100 to capture light. Increasing the gain also improves the ISO sensitivity. For example, if the gain is doubled, the electric signal (pixel signal) is also doubled, and even if the amount of incident light is halved, the brightness becomes appropriate. However, when the gain is increased, the noise contained in the electric signal is also amplified, so that the noise increases.

また、間引き率とは、所定領域においてすべての画素数に対する画素信号の読み出しを行わない画素数の割合をいう。例えば、所定領域の間引き率が0である場合は、その所定領域内のすべての画素から画素信号の読み出しが行われることを意味する。また、所定領域の間引き率が0.5である場合は、その所定領域内の半分の画素から画素信号を読み出しが行われることを意味する。具体的には、単位グループ131がベイヤー配列である場合、垂直方向についてベイヤー配列の単位の一つ置き、すなわち、画素単位の2画素ずつ(2行ずつ)交互に画素信号が読み出される画素と読み出されない画素とが設定される。なお、画素信号の読み出しの間引きが行われると画像の解像度が低下する。しかし、撮像素子100には2000万以上の画素が配置されているため、例えば間引き率0.5で間引きを行ったとしても、1000万以上の画素で画像を表示することができる。このため、使用者(撮影者)にとって解像度の低下は気にならないものと考えられる。 The thinning rate refers to the ratio of the number of pixels in which the pixel signal is not read out to the total number of pixels in a predetermined area. For example, when the thinning rate of the predetermined area is 0, it means that the pixel signal is read out from all the pixels in the predetermined area. Further, when the thinning rate of the predetermined area is 0.5, it means that the pixel signal is read out from half the pixels in the predetermined area. Specifically, when the unit group 131 is a Bayer array, one unit of the Bayer array is placed in the vertical direction, that is, it is read as a pixel in which a pixel signal is alternately read out by two pixels (two rows each) in pixel units. Pixels that are not output are set. When the pixel signal is thinned out, the resolution of the image is lowered. However, since the image sensor 100 has 20 million or more pixels arranged, an image can be displayed with 10 million or more pixels even if thinning is performed at a thinning rate of 0.5, for example. Therefore, it is considered that the user (photographer) does not mind the decrease in resolution.

また、加算行数とは、垂直方向に隣接する画素の画素信号を加算する場合に、その加算する垂直方向の画素の数(行数)をいう。また、加算列数とは、水平方向に隣接する画素の画素信号を加算する場合に、その加算する水平方向の画素の数(列数)をいう。このような加算の処理は、例えば演算回路416において行われる。演算回路416が垂直方向又は水平方向に隣接する所定数の画素の画素信号を加算する処理を行うことにより、所定の間引き率で間引いて画素信号を読み出す処理と同じような効果を奏する。なお、上記した加算の処理において、演算回路416が加算した行数または列数で加算値を割ることにより平均値を算出するようにしてもよい。 Further, the number of lines to be added means the number of pixels (number of lines) in the vertical direction to be added when the pixel signals of pixels adjacent to each other in the vertical direction are added. The number of columns to be added means the number of pixels in the horizontal direction (number of columns) to be added when the pixel signals of pixels adjacent to each other in the horizontal direction are added. Such addition processing is performed, for example, in the arithmetic circuit 416. By performing the process of adding the pixel signals of a predetermined number of pixels adjacent in the vertical direction or the horizontal direction by the arithmetic circuit 416, the same effect as the process of reading out the pixel signals by thinning out at a predetermined thinning rate is obtained. In the above-mentioned addition process, the average value may be calculated by dividing the addition value by the number of rows or columns added by the arithmetic circuit 416.

また、デジタル化のビット数とは、信号処理回路413がA/D変換においてアナログ信号をデジタル信号に変換したときのビット数をいう。デジタル信号のビット数が多くなる程、輝度や色変化などがより詳細に表現される。 The number of bits for digitization refers to the number of bits when the signal processing circuit 413 converts an analog signal into a digital signal in A / D conversion. As the number of bits of the digital signal increases, the brightness and color change are expressed in more detail.

本実施形態において、蓄積条件とは、撮像素子100における電荷の蓄積に関する条件のことをいう。具体的には、蓄積条件は、上記した制御パラメータのうち、電荷の蓄積時間又は蓄積回数、フレームレート、及びゲインのことをいう。フレームレートは電荷の蓄積時間や蓄積回数に応じて変化し得るので、フレームレートが蓄積条件に含まれる。また、ゲインに応じて適正露出の光量は変化し、適正露出の光量に応じて電荷の蓄積時間又は蓄積回数も変化し得る。このため、ゲインは蓄積条件に含まれる。 In the present embodiment, the accumulation condition means a condition relating to the accumulation of electric charge in the image sensor 100. Specifically, the storage condition refers to the charge storage time or the number of times of storage, the frame rate, and the gain among the above-mentioned control parameters. Since the frame rate can change depending on the charge accumulation time and the number of times of accumulation, the frame rate is included in the accumulation condition. In addition, the amount of light with proper exposure changes according to the gain, and the charge accumulation time or the number of times of accumulation may change according to the amount of light with proper exposure. Therefore, the gain is included in the accumulation condition.

また、本実施形態において、撮像条件とは、被写体の撮像に関する条件のことをいう。具体的には、撮像条件は、上記した蓄積条件を含む制御パラメータのことをいう。撮像条件は、撮像素子100を制御するための制御パラメータ(例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン)のほかに、撮像素子100からの信号の読み出しを制御するための制御パラメータ(例えば、間引き率、画素信号を加算する加算行数又は加算列数)、撮像素子100からの信号を処理するための制御パラメータ(例えば、デジタル化のビット数、後述する画像処理部30が画像処理を実行するための制御パラメータ)も含まれる。 Further, in the present embodiment, the imaging condition means a condition relating to imaging of a subject. Specifically, the imaging condition refers to a control parameter including the above-mentioned accumulation condition. The image pickup conditions include control parameters for controlling the image sensor 100 (for example, charge accumulation time or number of times, frame rate, gain), as well as control parameters for controlling reading of a signal from the image sensor 100 (for example,). For example, the thinning rate, the number of added rows or columns for adding pixel signals), control parameters for processing the signal from the image sensor 100 (for example, the number of digitized bits, the image processing unit 30 described later performs image processing. (Control parameters for executing) are also included.

図5は、各ブロックにおける配列パターンを示す図である。図5に示す配列パターンは、画素領域113Aが4つの撮像領域(第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域)に分割される配列パターンである。この配列パターンでは、画素領域113Aにおいて、4の倍数の列から3列前の列(4m−3)における奇数の行(2n−1)のブロックと、4の倍数の列から1列前の列(4m−1)における偶数の行(2n)のブロックとで第1撮像領域が構成されている。また、画素領域113Aにおいて、4の倍数の列から2列前の列(4m−2)における奇数の行(2n−1)のブロックと、4の倍数の列(4m)における偶数の行(2n)のブロックとで第2撮像領域が構成されている。また、画素領域113Aにおいて、4の倍数の列から1列前の列(4m−1)における奇数の行(2n−1)のブロックと、4の倍数の列から3列前の列(4m−3)における偶数の行(2n)のブロックとで第3撮像領域が構成されている。また、画素領域113Aにおいて、4の倍数の列(4m)における奇数の行(2n−1)のブロックと、4の倍数の列から2列前の列(4m−2)における偶数の行(2n)のブロックとで第4撮像領域が構成されている。m及びnは正の整数(m=1,2,3,・・・、n=1,2,3,・・・)である。 FIG. 5 is a diagram showing an arrangement pattern in each block. The arrangement pattern shown in FIG. 5 is an arrangement pattern in which the pixel region 113A is divided into four imaging regions (first imaging region, second imaging region, third imaging region, and fourth imaging region). In this arrangement pattern, in the pixel area 113A, the block of the odd row (2n-1) in the column (4m-3) three columns before the column of the multiple of 4 and the column one column before the column of the multiple of 4 The first imaging region is composed of blocks of even rows (2n) in (4m-1). Further, in the pixel area 113A, the blocks of the odd row (2n-1) in the column (4m-2) two columns before the column of the multiple of 4 and the even rows (2n) in the column (4m) of the multiple of 4 ) Consists of a second imaging region. Further, in the pixel area 113A, the block of the odd row (2n-1) in the column (4m-1) one column before the column of the multiple of 4 and the column (4m-) three columns before the column of the multiple of 4 The third imaging region is composed of the blocks of the even number of rows (2n) in 3). Further, in the pixel area 113A, a block of odd rows (2n-1) in a column (4 m) that is a multiple of 4 and an even row (2n) in a column (4 m-2) that is two columns before the column that is a multiple of 4. ) Consists of a fourth imaging region. m and n are positive integers (m = 1,2,3, ..., n = 1,2,3, ...).

なお、図5において、撮像領域ごとのブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックを設定しているが、図5に示すブロックの数よりも多い数のブロックを画素領域113Aに設定するようにしてもよい。 In FIG. 5, a small number of blocks are set in the pixel area 113A in order to make it easier to see the arrangement of blocks in each imaging region, but the number of blocks larger than the number of blocks shown in FIG. 5 is pixelated. It may be set in the area 113A.

このような配列パターンの場合、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、画素領域(撮像領域)113Aにおいてそれぞれ均等に配置されている。また、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、それぞれ同じ面積となっている。ただし、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、画素領域113Aにおいてそれぞれ全面的に配置されていればよく、画素領域113Aにおいてそれぞれ均等に配置されていなくてもよい。また、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、それぞれ同じ面積でなくてもよい。 In the case of such an arrangement pattern, the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region are evenly arranged in the pixel region (imaging region) 113A, respectively. Further, the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region each have the same area. However, the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region need only be arranged on the entire surface in the pixel region 113A, and are not evenly arranged in the pixel region 113A. May be good. Further, the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region do not have to have the same area.

図5に示すような配列パターンの場合、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域はそれぞれ異なる位置に配置されているため(つまり各撮像領域の位置がずれているため)、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域にはそれぞれ異なる被写体像が入射される。従って、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域のそれぞれにおいて生成された画像データにより示される画像は、異なる被写体像である。しかし、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、画素領域113Aにおいてそれぞれ全面的に配置されている。このため、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域のそれぞれにおいて生成された画像データにより示される画像は、使用者にとっては同一の被写体像のように見える。 In the case of the arrangement pattern as shown in FIG. 5, since the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region are arranged at different positions (that is, the positions of the respective imaging regions are displaced). Therefore, different subject images are incident on the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region. Therefore, the images shown by the image data generated in each of the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region are different subject images. However, the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region are all arranged in the pixel region 113A, respectively. Therefore, the images shown by the image data generated in each of the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region look like the same subject image to the user.

本実施形態では、第1撮像領域の各画素に設けられる各撮像素子(光電変換素子及びそれに付随する回路)を第1撮像素子といい、第2撮像領域の各画素に設けられる各撮像素子を第2撮像素子といい、第3撮像領域の各画素に設けられる各撮像素子を第3撮像素子といい、第4撮像領域の各画素に設けられる各撮像素子を第4撮像素子という。すなわち、撮像素子100は、複数の第1撮像素子、複数の第2撮像素子、複数の第3撮像素子及び複数の第4撮像素子に分けられる。 In the present embodiment, each image sensor (photoelectric conversion element and its associated circuit) provided in each pixel of the first image pickup region is referred to as a first image sensor, and each image sensor provided in each pixel of the second image pickup region is referred to as a first image sensor. It is called a second image sensor, each image sensor provided in each pixel of the third image sensor is referred to as a third image sensor, and each image sensor provided in each pixel of the fourth image sensor is referred to as a fourth image sensor. That is, the image pickup element 100 is divided into a plurality of first image pickup elements, a plurality of second image pickup elements, a plurality of third image pickup elements, and a plurality of fourth image pickup elements.

また、本実施形態では、第1撮像素子、第2撮像素子、第3撮像素子及び第4撮像素子は、それぞれ異なる撮像条件で撮像する。第1撮像素子の撮像条件を第1撮像条件といい、第2撮像素子の撮像条件を第2撮像条件といい、第3撮像素子の撮像条件を第3撮像条件といい、第4撮像素子の撮像条件を第4撮像条件という。 Further, in the present embodiment, the first image sensor, the second image sensor, the third image sensor, and the fourth image sensor are imaged under different imaging conditions. The image pickup condition of the first image sensor is referred to as a first image pickup condition, the image pickup condition of the second image sensor is referred to as a second image pickup condition, and the image pickup condition of the third image sensor is referred to as a third image pickup condition of the fourth image sensor. The imaging condition is referred to as a fourth imaging condition.

図6は、電子機器の一例であるデジタルカメラ1の概略構成を示す横断面図である。本実施形態のデジタルカメラ1は、レンズ部10及びカメラボディ2を備えている。レンズ部10は、交換式レンズである。カメラボディ2には、レンズ部10を装着するためのボディ側マウント部80Aが設けられている。また、レンズ部10には、ボディ側マウント部80Aと対応するレンズ側マウント部80Bが設けられている。使用者がボディ側マウント部80Aとレンズ側マウント部80Bとを接合することにより、レンズ部10がカメラボディ2に装着される。レンズ部10がカメラボディ2に装着されると、ボディ側マウント部80Aに設けられた電気接点81Aと、レンズ側マウント部80Bに設けられた電気接点81Bとが電気的に接続される。 FIG. 6 is a cross-sectional view showing a schematic configuration of a digital camera 1 which is an example of an electronic device. The digital camera 1 of the present embodiment includes a lens unit 10 and a camera body 2. The lens unit 10 is an interchangeable lens. The camera body 2 is provided with a body-side mount portion 80A for mounting the lens portion 10. Further, the lens portion 10 is provided with a lens side mount portion 80B corresponding to the body side mount portion 80A. When the user joins the body-side mount portion 80A and the lens-side mount portion 80B, the lens portion 10 is attached to the camera body 2. When the lens portion 10 is attached to the camera body 2, the electrical contact 81A provided on the body-side mount portion 80A and the electrical contact 81B provided on the lens-side mount portion 80B are electrically connected.

レンズ部10は、撮影光学系11、絞り14、及びレンズ駆動制御装置15を備えている。撮像光学系11には、レンズ11a、ズーミング用レンズ11b及びフォーカシング用レンズ11cが含まれる。レンズ駆動制御装置15は、レンズ側CPU(Central Processing Unit)、メモリ及び駆動制御回路を有している。レンズ駆動制御装置15は、電気接点81A,81Bを介してカメラボディ2側のシステム制御部70と電気的に接続されてレンズ部10に備えられた撮影光学系11の光学特性に関するレンズ情報の送信とズーミング用レンズ11b、フォーカシング用レンズ11c及び絞り14を駆動するための制御情報の受信とを行う。 The lens unit 10 includes a photographing optical system 11, an aperture 14, and a lens drive control device 15. The imaging optical system 11 includes a lens 11a, a zooming lens 11b, and a focusing lens 11c. The lens drive control device 15 includes a lens-side CPU (Central Processing Unit), a memory, and a drive control circuit. The lens drive control device 15 is electrically connected to the system control unit 70 on the camera body 2 side via the electrical contacts 81A and 81B, and transmits lens information regarding the optical characteristics of the photographing optical system 11 provided in the lens unit 10. And the reception of control information for driving the zooming lens 11b, the focusing lens 11c, and the aperture 14.

レンズ駆動制御装置15のレンズ側CPUは、撮影光学系11の焦点調節を行うためにシステム制御部70から送信される制御情報に基づいて駆動制御回路にフォーカシング用レンズ11cの駆動制御を実行させる。レンズ駆動制御装置15のレンズ側CPUは、ズーミング調節を行うためにシステム制御部70から送信される制御情報に基づいてズーミング用レンズ11bの駆動制御を駆動制御回路に実行させる。絞り14は、撮影光学系11の光軸に沿って配置されている。絞り14は、光量及びボケ量調整のために光軸中心に開口径が可変な開口を形成する。レンズ駆動制御装置15のレンズ側CPUは、絞り14の開口径調節を行うためにシステム制御部70から送信される制御情報に基づいて絞り14の駆動制御を駆動制御回路に実行させる。 The lens-side CPU of the lens drive control device 15 causes the drive control circuit to execute drive control of the focusing lens 11c based on the control information transmitted from the system control unit 70 in order to adjust the focus of the photographing optical system 11. The lens-side CPU of the lens drive control device 15 causes the drive control circuit to execute drive control of the zooming lens 11b based on the control information transmitted from the system control unit 70 in order to perform the zooming adjustment. The diaphragm 14 is arranged along the optical axis of the photographing optical system 11. The diaphragm 14 forms an aperture having a variable aperture diameter at the center of the optical axis for adjusting the amount of light and the amount of blur. The lens-side CPU of the lens drive control device 15 causes the drive control circuit to execute drive control of the diaphragm 14 based on control information transmitted from the system control unit 70 in order to adjust the aperture diameter of the diaphragm 14.

カメラボディ2は、撮像部20、画像処理部30、表示部50、記憶部60及びシステム制御部70を備えている。撮像部20は、撮像素子100を有する。撮像素子100には、レンズ部10の撮影光学系11から射出された光束が入射する。撮像素子100は、入射した光束を光電変換して撮像素子の各画素の画素信号(画素信号は画像データに含まれる。)を生成する。各画素の画素信号からなるRAWデータ(RAWデータも画像データに含まれる。)が撮像部20から画像処理部30に送られる。画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。表示部50は、画像処理部30が生成した画像データを表示する。記憶部60は、画像処理部30が生成した画像データを記憶する。 The camera body 2 includes an image pickup unit 20, an image processing unit 30, a display unit 50, a storage unit 60, and a system control unit 70. The image pickup unit 20 has an image pickup element 100. The light beam emitted from the photographing optical system 11 of the lens unit 10 is incident on the image sensor 100. The image pickup device 100 photoelectrically converts the incident luminous flux to generate a pixel signal (pixel signal is included in the image data) of each pixel of the image pickup device. RAW data (RAW data is also included in the image data) composed of pixel signals of each pixel is sent from the imaging unit 20 to the image processing unit 30. The image processing unit 30 performs various image processing on the RAW data composed of the pixel signals of each pixel to generate image data in a predetermined file format (for example, JPEG format). The display unit 50 displays the image data generated by the image processing unit 30. The storage unit 60 stores the image data generated by the image processing unit 30.

なお、「画像データ」のことを「画像信号」ということがある。また、画像には、静止画、動画、ライブビュー画像が含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部20により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。 The "image data" may be referred to as an "image signal". In addition, the image includes a still image, a moving image, and a live view image. The live view image is an image in which the image data generated by the image processing unit 30 is sequentially output to the display unit 50 and displayed on the display unit 50. The live view image is used for the user to confirm the image of the subject captured by the imaging unit 20. The live view image is also called a through image or a preview image.

システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。なお、システム制御部70の処理及び動作の詳細、及びカメラボディ2内の構成の詳細については、以下の図7において説明する。 The system control unit 70 controls the overall processing and operation of the digital camera 1. The details of the processing and operation of the system control unit 70 and the details of the configuration inside the camera body 2 will be described with reference to FIG. 7 below.

図7は、第1実施形態に係るデジタルカメラ1の構成を示すブロック図である。図7に示すように、デジタルカメラ1は、カメラボディ2とレンズ部10とを備える。上述したように、レンズ部10は、カメラボディ2に対して着脱可能な交換式レンズである。従って、デジタルカメラ1は、レンズ部10を備えていなくてもよい。ただし、レンズ部10はデジタルカメラ1と一体構成であってもよい。レンズ部10は、カメラボディ2に接続された状態において、被写体からの光束を撮像部20へ導く。 FIG. 7 is a block diagram showing the configuration of the digital camera 1 according to the first embodiment. As shown in FIG. 7, the digital camera 1 includes a camera body 2 and a lens unit 10. As described above, the lens unit 10 is an interchangeable lens that can be attached to and detached from the camera body 2. Therefore, the digital camera 1 does not have to include the lens unit 10. However, the lens unit 10 may be integrated with the digital camera 1. The lens unit 10 guides the luminous flux from the subject to the imaging unit 20 in a state of being connected to the camera body 2.

レンズ部10は、上述したように、レンズ駆動制御装置15を有している(図6参照)。また、レンズ部10は、撮影光学系11としての複数のレンズ群、つまり、レンズ11a、ズーミング用レンズ11b、及びフォーカシング用レンズ11cを有している。レンズ駆動制御装置15は、レンズ部10がカメラボディ2に接続された場合に、メモリに記憶されているレンズ情報をカメラボディ2のシステム制御部70に送信する。また、レンズ駆動制御装置15は、レンズ部10がカメラボディ2に接続された場合に、システム制御部70から送信される制御情報を受信する。レンズ駆動制御装置15は、制御情報に基づいて、ズーミング用レンズ11b、フォーカシング用レンズ11c、及び絞り14の駆動制御を行う。 As described above, the lens unit 10 has a lens drive control device 15 (see FIG. 6). Further, the lens unit 10 has a plurality of lens groups as the photographing optical system 11, that is, a lens 11a, a zooming lens 11b, and a focusing lens 11c. When the lens unit 10 is connected to the camera body 2, the lens drive control device 15 transmits the lens information stored in the memory to the system control unit 70 of the camera body 2. Further, the lens drive control device 15 receives control information transmitted from the system control unit 70 when the lens unit 10 is connected to the camera body 2. The lens drive control device 15 controls the drive of the zooming lens 11b, the focusing lens 11c, and the aperture 14 based on the control information.

図7に示すように、カメラボディ2は、撮像部20、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、システム制御部70及びストロボ90を備える。 As shown in FIG. 7, the camera body 2 includes an image pickup unit 20, an image processing unit 30, a work memory 40, a display unit 50, an operation unit 55, a recording unit 60, a system control unit 70, and a strobe 90.

撮像部20は、撮像素子100及び駆動部21を有している。駆動部21は、システム制御部70からの指示に従って、撮像素子100の駆動を制御する制御回路である。ここで、駆動部21は、リセットパルス及び転送パルスをそれぞれリセットトランジスタ303及び転送トランジスタ302に印加するタイミング(又はタイミングの周期)を制御することにより、制御パラメータである電荷の蓄積時間又は蓄積回数を制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスをそれぞれリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305に印加するタイミング(又はタイミングの周期)を制御することにより、フレームレートを制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスを印加する画素を設定することにより、間引き率を制御する。 The image pickup unit 20 includes an image pickup element 100 and a drive unit 21. The drive unit 21 is a control circuit that controls the drive of the image sensor 100 according to an instruction from the system control unit 70. Here, the drive unit 21 controls the timing (or timing cycle) of applying the reset pulse and the transfer pulse to the reset transistor 303 and the transfer transistor 302, respectively, to set the charge accumulation time or the number of times of accumulation, which is a control parameter. Control. Further, the drive unit 21 controls the frame rate by controlling the timing (or timing cycle) of applying the reset pulse, the transfer pulse, and the selection pulse to the reset transistor 303, the transfer transistor 302, and the selection transistor 305, respectively. To do. Further, the drive unit 21 controls the thinning rate by setting the pixels to which the reset pulse, the transfer pulse, and the selection pulse are applied.

また、駆動部21は、アンプ412のゲイン(利得率、増幅率ともいう。)を制御することにより、撮像素子100のISO感度を制御する。また、駆動部21は、演算回路416に指示を送ることにより、画素信号を加算する加算行数又は加算列数を設定する。また、駆動部21は、信号処理回路413に指示を送ることにより、デジタル化のビット数を設定する。さらに、駆動部21は、撮像素子100の画素領域(撮像領域)113Aにおいてブロック単位で領域を設定する。このように、駆動部21は、撮像素子100に対して複数のブロックごとに異なる撮像条件で撮像させて画素信号を出力させる撮像素子制御部の機能を担う。システム制御部70は、駆動部21に対するブロックの位置、形状、範囲などの指示を行う。 Further, the drive unit 21 controls the ISO sensitivity of the image sensor 100 by controlling the gain (also referred to as a gain rate or amplification factor) of the amplifier 412. Further, the drive unit 21 sets the number of addition rows or the number of addition columns to which the pixel signals are added by sending an instruction to the arithmetic circuit 416. Further, the drive unit 21 sets the number of digitization bits by sending an instruction to the signal processing circuit 413. Further, the drive unit 21 sets an area in the pixel area (imaging area) 113A of the image sensor 100 in block units. In this way, the drive unit 21 has a function of an image sensor control unit that causes the image sensor 100 to take an image for each of a plurality of blocks under different imaging conditions and output a pixel signal. The system control unit 70 gives instructions such as the position, shape, and range of the block to the drive unit 21.

撮像素子100は、撮像素子100からの画素信号を画像処理部30へ引き渡す。画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30は、以下の画像処理を実行する。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像信号を生成する。また、画像処理部30は、RGB画像信号に対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。 The image sensor 100 delivers the pixel signal from the image sensor 100 to the image processing unit 30. The image processing unit 30 uses the work memory 40 as a workspace to perform various image processing on RAW data composed of pixel signals of each pixel to generate image data in a predetermined file format (for example, JPEG format). .. The image processing unit 30 executes the following image processing. For example, the image processing unit 30 generates an RGB image signal by performing color signal processing (color tone correction) on the signal obtained in the Bayer array. Further, the image processing unit 30 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image signal. Further, the image processing unit 30 performs a process of compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary. The image processing unit 30 outputs the generated image data to the recording unit 60. Further, the image processing unit 30 outputs the generated image data to the display unit 50.

画像処理部30が画像処理を行う際に参照されるパラメータも制御パラメータ(撮像条件)に含まれる。例えば、色信号処理(色調補正)、ホワイトバランス調整、階調調整、圧縮率などのパラメータが制御パラメータに含まれる。電荷の蓄積時間などに応じて撮像素子100から読み出される信号が変化し、その信号の変化に応じて画像処理を行う際に参照されるパラメータも変化する。画像処理部30は、ブロック単位ごとに異なる制御パラメータを設定し、これらの制御パラメータに基づいて色信号処理などの画像処理を実行する。 The parameters referred to when the image processing unit 30 performs image processing are also included in the control parameters (imaging conditions). For example, parameters such as color signal processing (color tone correction), white balance adjustment, gradation adjustment, and compression rate are included in the control parameters. The signal read from the image sensor 100 changes according to the charge accumulation time and the like, and the parameters referred to when performing image processing also change according to the change in the signal. The image processing unit 30 sets different control parameters for each block, and executes image processing such as color signal processing based on these control parameters.

画像処理部30は、撮像部20から時系列的に得られる複数のフレームのうち所定タイミングごとのフレームを抽出する。または、画像処理部30は、撮像部20から時系列的に得られる複数のフレームのうち所定タイミングごとのフレームを廃棄する。これにより、データ量を減らすことができるため、後段処理の負荷を軽減することができる。また、画像処理部30は、撮像部20から時系列的に得られる複数のフレームに基づいて、各フレーム間に補間する1又は複数のフレームを算出する。そして、画像処理部30は、算出した1又は複数のフレームを各フレーム間に追加する。これにより、動画再生時においてより滑らかな動きの動画を再生することができる。また、駆動部21が間引き率を制御するように構成しているが、このような構成に限られない。例えば、駆動部21はすべての画素から画素信号を読み出すが、画像処理部30又は演算回路416は読み出した画素信号のうち所定の画素信号を廃棄することにより、間引き率を制御するようにしてもよい。 The image processing unit 30 extracts frames at predetermined timings from a plurality of frames obtained from the imaging unit 20 in time series. Alternatively, the image processing unit 30 discards the frames for each predetermined timing among the plurality of frames obtained from the imaging unit 20 in time series. As a result, the amount of data can be reduced, so that the load of post-stage processing can be reduced. Further, the image processing unit 30 calculates one or a plurality of frames to be interpolated between the frames based on the plurality of frames obtained from the imaging unit 20 in time series. Then, the image processing unit 30 adds the calculated one or a plurality of frames between the frames. As a result, it is possible to play a moving image with smoother movement during moving image playback. Further, the drive unit 21 is configured to control the thinning rate, but the configuration is not limited to this. For example, the drive unit 21 reads pixel signals from all the pixels, but the image processing unit 30 or the arithmetic circuit 416 may control the thinning rate by discarding a predetermined pixel signal among the read pixel signals. Good.

本実施形態では、画像処理部30は、図7に示すように、画像生成部31を備えている。画像生成部31は、撮像部20から出力される各画素の画素信号からなるRAWデータに対して種々の画像処理を施すことにより画像データを生成する。画像生成部31は、第1撮像領域の画素信号からなるRAWデータに基づいて第1画像データを生成し、第2撮像領域の画素信号からなるRAWデータに基づいて第2画像データを生成し、第3撮像領域の画素信号からなるRAWデータに基づいて第3画像データを生成し、第4撮像領域の画素信号からなるRAWデータに基づいて第4画像データを生成する。 In the present embodiment, the image processing unit 30 includes an image generation unit 31 as shown in FIG. 7. The image generation unit 31 generates image data by performing various image processing on the RAW data composed of the pixel signals of each pixel output from the image pickup unit 20. The image generation unit 31 generates the first image data based on the RAW data composed of the pixel signals of the first imaging region, and generates the second image data based on the RAW data composed of the pixel signals of the second imaging region. The third image data is generated based on the RAW data composed of the pixel signals of the third imaging region, and the fourth image data is generated based on the RAW data composed of the pixel signals of the fourth imaging region.

ワークメモリ40は、画像処理部30による画像処理が行われる際に画像データなどを一時的に記憶する。表示部50は、撮像部20で撮像された画像(静止画、動画、ライブビュー画像)や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどの表示面(表示パネル)51を有している。表示部50の表示面51上にはタッチパネル(選択部)52が形成されている。タッチパネル52は、使用者がメニューの選択などの操作を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。 The work memory 40 temporarily stores image data and the like when image processing is performed by the image processing unit 30. The display unit 50 displays images (still images, moving images, live view images) captured by the imaging unit 20 and various types of information. The display unit 50 has a display surface (display panel) 51 such as a liquid crystal display panel. A touch panel (selection unit) 52 is formed on the display surface 51 of the display unit 50. The touch panel 52 outputs a signal indicating the position touched by the user to the system control unit 70 when the user performs an operation such as selecting a menu.

操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動作の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。 The operation unit 55 is a release switch (a switch pressed when shooting a still image), a moving image switch (a switch pressed when shooting an operation), various operation switches, and the like operated by the user. The operation unit 55 outputs a signal corresponding to the operation by the user to the system control unit 70. The recording unit 60 has a card slot into which a storage medium such as a memory card can be mounted. The recording unit 60 stores the image data and various data generated by the image processing unit 30 in the recording medium installed in the card slot. Further, the recording unit 60 has an internal memory. The recording unit 60 can also record the image data and various data generated by the image processing unit 30 in the internal memory.

システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。このシステム制御部70はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部70は、撮像素子100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部70は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部21に対して指示する。 The system control unit 70 controls the overall processing and operation of the digital camera 1. The system control unit 70 has a body-side CPU (Central Processing Unit). In the present embodiment, the system control unit 70 divides the imaging surface (pixel region 113A) of the image sensor 100 (imaging chip 113) into a plurality of blocks, and the charge accumulation time (or the number of charge accumulations) and the frame rate differ between the blocks. , Get the image with the gain. Therefore, the system control unit 70 instructs the drive unit 21 of the position, shape, range, and storage conditions for each block.

また、システム制御部70は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部70は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部21に対して指示する。また、画像処理部30は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部70は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部30に指示する。 Further, the system control unit 70 causes the system control unit 70 to acquire an image with different thinning rates between blocks, the number of added rows or columns for adding pixel signals, and the number of digitized bits. Therefore, the system control unit 70 instructs the drive unit 21 of the imaging conditions (thinning rate, the number of additional rows or columns for adding the pixel signals, and the number of digitization bits) for each block. Further, the image processing unit 30 executes image processing under different imaging conditions (control parameters such as color signal processing, white balance adjustment, gradation adjustment, compression rate, etc.) between blocks. Therefore, the system control unit 70 instructs the image processing unit 30 of imaging conditions (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate) for each block.

また、システム制御部70は、画像処理部30において生成された画像データを記録部60に記録させる。また、システム制御部70は、画像処理部30において生成された画像データを表示部50に出力させることにより、表示部50に画像を表示させる。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させることにより、表示部50に画像を表示させる。表示部50に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。 Further, the system control unit 70 causes the recording unit 60 to record the image data generated by the image processing unit 30. Further, the system control unit 70 causes the display unit 50 to display an image by outputting the image data generated by the image processing unit 30 to the display unit 50. Further, the system control unit 70 reads the image data recorded in the recording unit 60 and outputs the image data to the display unit 50 so that the display unit 50 displays the image. The image displayed on the display unit 50 includes a still image, a moving image, and a live view image.

また、システム制御部70は、制御情報をレンズ駆動制御装置15に出力することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cの駆動制御及び絞り14の駆動制御を実行させる。なお、システム制御部70は、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。 Further, the system control unit 70 causes the lens drive control device 15 to execute the drive control of the focusing lens 11c and the drive control of the aperture 14 by outputting the control information to the lens drive control device 15. The system control unit 70 is realized by the body-side CPU executing processing based on the control program.

本実施形態では、システム制御部70は、図7に示すように、制御部71、選択部72、設定部73及び分割部74を備えている。制御部71は、画像生成部31で生成された画像データを表示部50に出力させて、表示部50の表示面51に画像を表示させる制御を行う。また、制御部71は、予め設定されているメニュー画像(図8参照)を表示部50の表示面51に表示させる制御を行う。 In the present embodiment, as shown in FIG. 7, the system control unit 70 includes a control unit 71, a selection unit 72, a setting unit 73, and a division unit 74. The control unit 71 controls the display unit 50 to output the image data generated by the image generation unit 31 and display the image on the display surface 51 of the display unit 50. Further, the control unit 71 controls to display a preset menu image (see FIG. 8) on the display surface 51 of the display unit 50.

選択部72は、使用者によるタッチパネル52のタッチ操作に応じて、4つの表示領域(第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514)のいずれかを選択する制御を行う。また、設定部73は、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を設定する制御を行う。ここで、設定部73は、撮像素子100のすべての画素領域113Aにおいて同一の撮像条件を設定することが可能である。また、設定部73は、図5に示す各撮像領域(第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域)において異なる撮像条件を設定することが可能である。また、設定部73は、予め決められた撮像条件、又は使用者の操作に応じて変更された撮像条件で撮像素子100に撮像を行わせる制御を行う。また、分割部74は、撮像素子100の画素領域113Aを、図5に示すように第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域に分割する処理を行う。 The selection unit 72 selects any one of the four display areas (first display area 511, second display area 512, third display area 513, and fourth display area 514) in response to a touch operation of the touch panel 52 by the user. Control the selection. Further, the setting unit 73 controls to set the imaging conditions (including the accumulation conditions) in response to the touch operation of the touch panel 52 by the user or automatically. Here, the setting unit 73 can set the same imaging conditions in all the pixel regions 113A of the image sensor 100. In addition, the setting unit 73 can set different imaging conditions in each imaging region (first imaging region, second imaging region, third imaging region, and fourth imaging region) shown in FIG. Further, the setting unit 73 controls the image pickup device 100 to perform imaging under predetermined imaging conditions or imaging conditions changed according to the operation of the user. Further, the dividing unit 74 performs a process of dividing the pixel region 113A of the image sensor 100 into a first imaging region, a second imaging region, a third imaging region, and a fourth imaging region as shown in FIG.

ストロボ90は、撮影を行う際に光を発光(閃光)する発光装置である。ストロボ90は、システム制御部70からの指示信号に基づいて所定の光量で発光する。 The strobe 90 is a light emitting device that emits (flashes) light when taking a picture. The strobe 90 emits light with a predetermined amount of light based on an instruction signal from the system control unit 70.

図8は、本実施形態のデジタルカメラ1に係る表示部50を示す図である。図8に示すように、表示部50は、表示面51を有する。表示面51は、画像表示領域510と操作ボタン表示領域520とが設けられている。画像表示領域510は、撮像部20で生成された画像データにより示される画像を表示する領域である。画像表示領域510には、例えば、静止画像、動画像及びライブビュー画像が表示される。操作ボタン表示領域520は、使用者が撮像条件などを設定するためのメニュー画像520Mを表示する領域である。画像表示領域510及び操作ボタン表示領域520は、1つの表示面51内に設けられている。 FIG. 8 is a diagram showing a display unit 50 according to the digital camera 1 of the present embodiment. As shown in FIG. 8, the display unit 50 has a display surface 51. The display surface 51 is provided with an image display area 510 and an operation button display area 520. The image display area 510 is an area for displaying an image indicated by image data generated by the imaging unit 20. For example, a still image, a moving image, and a live view image are displayed in the image display area 510. The operation button display area 520 is an area for displaying the menu image 520M for the user to set the imaging conditions and the like. The image display area 510 and the operation button display area 520 are provided in one display surface 51.

画像表示領域510は、複数の画像を表示できるように複数の表示領域に分割されている。例えば、撮像部20で生成された4つの画像データにより示される各画像を表示するように4つの表示領域に分割されている。4つの表示領域のうち、左上の表示領域を第1表示領域511という。4つの表示領域のうち、右上の表示領域を第2表示領域512という。4つの表示領域のうち、左下の表示領域を第3表示領域513という。4つの表示領域のうち、右下の表示領域を第4表示領域514という。 The image display area 510 is divided into a plurality of display areas so that a plurality of images can be displayed. For example, it is divided into four display areas so as to display each image indicated by the four image data generated by the imaging unit 20. Of the four display areas, the upper left display area is referred to as the first display area 511. Of the four display areas, the upper right display area is referred to as a second display area 512. Of the four display areas, the lower left display area is referred to as a third display area 513. Of the four display areas, the lower right display area is referred to as the fourth display area 514.

図8に示す例では、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514は、それぞれ同じ表示面積を有する表示領域である。また、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514は、それぞれ異なる表示面積を有する表示領域であってもよい。例えば、第1表示領域の表示面積は、第2表示領域の表示面積よりも大きくてもよい。第1表示領域の表示面積は、第3表示領域の表示面積よりも大きくてもよい。第1表示領域の表示面積は、第4表示領域の表示面積よりも大きくてもよい。第2表示領域の表示面積は、第1表示領域の表示面積よりも大きくてもよい。第2表示領域の表示面積は、第3表示領域の表示面積よりも大きくてもよい。第2表示領域の表示面積は、第4表示領域の表示面積よりも大きくてもよい。第3表示領域の表示面積は、第1表示領域の表示面積よりも大きくてもよい。第3表示領域の表示面積は、第2表示領域の表示面積よりも大きくてもよい。第3表示領域の表示面積は、第4表示領域の表示面積よりも大きくてもよい。第4表示領域の表示面積は、第1表示領域の表示面積よりも大きくてもよい。第4表示領域の表示面積は、第2表示領域の表示面積よりも大きくてもよい。第4表示領域の表示面積は、第3表示領域の表示面積よりも大きくてもよい。 In the example shown in FIG. 8, the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 are display areas having the same display area, respectively. Further, the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 may be display areas having different display areas. For example, the display area of the first display area may be larger than the display area of the second display area. The display area of the first display area may be larger than the display area of the third display area. The display area of the first display area may be larger than the display area of the fourth display area. The display area of the second display area may be larger than the display area of the first display area. The display area of the second display area may be larger than the display area of the third display area. The display area of the second display area may be larger than the display area of the fourth display area. The display area of the third display area may be larger than the display area of the first display area. The display area of the third display area may be larger than the display area of the second display area. The display area of the third display area may be larger than the display area of the fourth display area. The display area of the fourth display area may be larger than the display area of the first display area. The display area of the fourth display area may be larger than the display area of the second display area. The display area of the fourth display area may be larger than the display area of the third display area.

第1表示領域511は、図5に示した第1撮像領域で生成された画像データにより示される画像(この画像を第1画像という。)を表示する領域である。第2表示領域512は、図5に示した第2撮像領域で生成された画像データにより示される画像(この画像を第2画像という。)を表示する領域である。第3表示領域513は、図5に示した第3撮像領域で生成された画像データにより示される画像(この画像を第3画像という。)を表示する領域である。第4表示領域514は、図5に示した第4撮像領域で生成された画像データにより示される画像(この画像を第4画像という。)を表示する領域である。上述したように、図5に示した第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、画素領域113Aにおいて全面的に均等に配置されているため、第1画像、第2画像、第3画像及び第4画像は、見た目上、同一の被写体の画像に見える。しかし、上述したように、図5に示した第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、それぞれ異なる撮像条件で撮像する。従って、被写体の明るさ、被写体のブレ、動画における被写体の動きの滑らかさなどが撮像条件によって変化する。 The first display area 511 is an area for displaying an image (this image is referred to as a first image) represented by the image data generated in the first imaging region shown in FIG. The second display area 512 is an area for displaying an image (this image is referred to as a second image) represented by the image data generated in the second imaging region shown in FIG. The third display area 513 is an area for displaying an image (this image is referred to as a third image) represented by the image data generated in the third imaging region shown in FIG. The fourth display area 514 is an area for displaying an image (this image is referred to as a fourth image) represented by the image data generated in the fourth imaging region shown in FIG. As described above, since the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region shown in FIG. 5 are arranged evenly over the entire pixel region 113A, the first image, The second image, the third image, and the fourth image appear to be images of the same subject. However, as described above, the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region shown in FIG. 5 are imaged under different imaging conditions. Therefore, the brightness of the subject, the blurring of the subject, the smoothness of the movement of the subject in the moving image, and the like change depending on the imaging conditions.

なお、第1画像は、第1ライブビュー画像、第1静止画及び第1動画を含む。また、第2画像は、第2ライブビュー画像、第2静止画及び第2動画を含む。また、第3画像は、第3ライブビュー画像、第3静止画及び第3動画を含む。また、第4画像は、第4ライブビュー画像、第4静止画及び第4動画を含む。 The first image includes a first live view image, a first still image, and a first moving image. In addition, the second image includes a second live view image, a second still image, and a second moving image. Further, the third image includes a third live view image, a third still image, and a third moving image. Further, the fourth image includes a fourth live view image, a fourth still image, and a fourth moving image.

表示部50は、タッチパネル52を備える。タッチパネル52は、表示面51上に設けられている。タッチパネル52において、第1タッチ領域511aが第1表示領域511上に重なるように形成されている。また、第2タッチ領域512aが第2表示領域512上に重なるように形成されている。また、第3タッチ領域513aが第3表示領域513上に重なるように形成されている。また、第4タッチ領域514aが第4表示領域514上に重なるように形成されている。第1タッチ領域511a、第2タッチ領域512a、第3タッチ領域513a及び第4タッチ領域514aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。 The display unit 50 includes a touch panel 52. The touch panel 52 is provided on the display surface 51. In the touch panel 52, the first touch area 511a is formed so as to overlap the first display area 511. Further, the second touch area 512a is formed so as to overlap the second display area 512. Further, the third touch area 513a is formed so as to overlap the third display area 513. Further, the fourth touch region 514a is formed so as to overlap the fourth display region 514. When the user detects that the first touch area 511a, the second touch area 512a, the third touch area 513a, and the fourth touch area 514a have been pressed (touched), the pressed positions (any touch area). Is it?) Is output to the system control unit 70.

操作ボタン表示領域520は、画像表示領域510の近傍に設けられている。操作ボタン表示領域520には、使用者が表示領域の選択や、撮像条件及び撮影モードなどを設定するためのメニュー画像520Mが表示される。メニュー画像520Mには、選択ボタン画像521、ISO感度ボタン画像522、シャッタースピードボタン画像523、ピクチャーコントロールボタン画像524及び撮像モードボタン画像525が含まれる。選択ボタン画像521は、使用者が第1表示領域、第2表示領域、第3表示領域及び第4表示領域それぞれに表示された第1画像、第2画像、第3画像及び第4画像のうちいずれかを選択する場合に用いる。ISO感度ボタン画像522は、使用者がISO感度(すなわちゲイン)を設定する場合に用いる。シャッタースピードボタン画像523は、使用者がシャッタースピード(すなわち、露光時間)を設定する場合に用いる。なお、シャッタースピードは電荷の蓄積時間に対応する。ピクチャーコントロールボタン画像524は、使用者が画調、色相、コントラストなどの画像の特性を設定(調整)する場合に用いる。撮像モードボタン画像525は、使用者が手動で撮像条件を設定するか、自動で撮像条件を設定するかを選択する場合に用いる。 The operation button display area 520 is provided in the vicinity of the image display area 510. In the operation button display area 520, a menu image 520M for the user to select a display area and set an imaging condition, a shooting mode, and the like is displayed. The menu image 520M includes a selection button image 521, an ISO sensitivity button image 522, a shutter speed button image 523, a picture control button image 524, and an imaging mode button image 525. The selection button image 521 is one of the first image, the second image, the third image, and the fourth image displayed by the user in each of the first display area, the second display area, the third display area, and the fourth display area. Used when selecting either. The ISO sensitivity button image 522 is used when the user sets the ISO sensitivity (that is, gain). The shutter speed button image 523 is used when the user sets the shutter speed (that is, the exposure time). The shutter speed corresponds to the charge accumulation time. The picture control button image 524 is used when the user sets (adjusts) image characteristics such as image tone, hue, and contrast. The imaging mode button image 525 is used when the user selects whether to manually set the imaging conditions or to automatically set the imaging conditions.

タッチパネル52において、タッチ領域521aが選択ボタン画像521上に重なるように形成されている。タッチ領域522aがISO感度ボタン画像522上に重なるように形成されている。タッチ領域523aがシャッタースピードボタン画像523上に重なるように形成されている。タッチ領域524aがピクチャーコントロールボタン画像524上に重なるように形成されている。タッチ領域525aが撮像モードボタン画像525上に重なるように形成されている。タッチ領域521a、タッチ領域521a、タッチ領域521a及びタッチ領域525aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。 In the touch panel 52, the touch area 521a is formed so as to overlap the selection button image 521. The touch region 522a is formed so as to overlap the ISO sensitivity button image 522. The touch area 523a is formed so as to overlap the shutter speed button image 523. The touch area 524a is formed so as to overlap the picture control button image 524. The touch region 525a is formed so as to overlap the image pickup mode button image 525. When the touch area 521a, the touch area 521a, the touch area 521a, and the touch area 525a are detected to be pressed (touched) by the user, a detection signal indicating the pressed position (which touch area) is indicated. Is output to the system control unit 70.

次に、第1実施形態に係るデジタルカメラ1の静止画撮影動作について説明する。図9は、第1実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。また、図10、図11、図12及び図13は、第1実施形態における表示面51の表示例を示す図である。 Next, the still image shooting operation of the digital camera 1 according to the first embodiment will be described. FIG. 9 is a flowchart for explaining a shooting operation executed by the system control unit 70 of the first embodiment. In addition, FIGS. 10, 11, 12, and 13 are views showing a display example of the display surface 51 in the first embodiment.

図9に示す処理において、デジタルカメラ1に電源が投入された後、使用者が撮影を開始するために操作部55などの操作を行うと、分割部74は、撮像素子100の画素領域113Aにおいて、図5に示すような複数の撮像領域(第1撮像領域、第2撮像領域、第3撮像領域、第4撮像領域)に分割して設定する。また、設定部73は、分割部74が設定した第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域に対して、予め決められた標準の撮像条件を設定する(ステップS1)。例えば、設定部73は、第1撮像領域に対する標準の撮像条件として、ISO感度(「100」)、シャッタースピード(「1/2秒」)などを設定する。また、設定部73は、第2撮像領域に対する標準の撮像条件として、ISO感度(「200」)、シャッタースピード(「1/100秒」)などを設定する。また、設定部73は、第3撮像領域に対する標準の撮像条件として、ISO感度(「400」)、シャッタースピード(「1/500秒」)などを設定する。また、設定部73は、第4撮像領域に対する標準の撮像条件として、ISO感度(「800」)、シャッタースピード(「1/1000秒」)などを設定する。 In the process shown in FIG. 9, after the power is turned on to the digital camera 1, when the user operates the operation unit 55 or the like to start shooting, the division unit 74 in the pixel region 113A of the image sensor 100. , The setting is divided into a plurality of imaging regions (first imaging region, second imaging region, third imaging region, fourth imaging region) as shown in FIG. Further, the setting unit 73 sets predetermined standard imaging conditions for the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region set by the dividing unit 74 (step S1). ). For example, the setting unit 73 sets ISO sensitivity (“100”), shutter speed (“1/2 second”), and the like as standard imaging conditions for the first imaging region. In addition, the setting unit 73 sets ISO sensitivity (“200”), shutter speed (“1/100 second”), and the like as standard imaging conditions for the second imaging region. Further, the setting unit 73 sets ISO sensitivity (“400”), shutter speed (“1/500 second”), and the like as standard imaging conditions for the third imaging region. Further, the setting unit 73 sets ISO sensitivity (“800”), shutter speed (“1/1000 second”), and the like as standard imaging conditions for the fourth imaging region.

次に、システム制御部70が撮影動作を開始する(ステップS2)。撮影が開始されると、制御部71は、撮像素子100の第1撮像領域で生成された第1画像データにより示される第1ライブビュー画像を表示面51の第1表示領域511に表示させる。制御部71は、撮像素子100の第2撮像領域で生成された第2画像データにより示される第2ライブビュー画像を表示面51の第2表示領域512に表示させる。制御部71は、撮像素子100の第3撮像領域で生成された第3画像データにより示される第3ライブビュー画像を表示面51の第3表示領域513に表示させる。制御部71は、撮像素子100の第4撮像領域で生成された第4画像データにより示される第4ライブビュー画像を表示面51の第4表示領域514に表示させる(ステップS3)。図10に示す例では、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514それぞれに滝のライブビュー画像を示す第1ライブビュー画像、第2ライブビュー画像、第3ライブビュー画像及び第4ライブビュー画像が表示されている。第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域は、それぞれ異なる撮像条件で撮像が行われている。このため、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514には、それぞれ被写体の明るさ、被写体(移動する移動被写体)のブレ、コントラストなどが異なるライブビュー画像が表示される。 Next, the system control unit 70 starts the shooting operation (step S2). When shooting is started, the control unit 71 causes the first live view image indicated by the first image data generated in the first image pickup region of the image pickup element 100 to be displayed in the first display area 511 of the display surface 51. The control unit 71 displays the second live view image indicated by the second image data generated in the second image pickup region of the image pickup device 100 on the second display region 512 of the display surface 51. The control unit 71 displays the third live view image indicated by the third image data generated in the third image pickup region of the image pickup device 100 on the third display region 513 of the display surface 51. The control unit 71 displays the fourth live view image indicated by the fourth image data generated in the fourth image pickup region of the image pickup device 100 on the fourth display region 514 of the display surface 51 (step S3). In the example shown in FIG. 10, the first live view image and the second live view image showing the live view image of the waterfall in the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514, respectively. , The third live view image and the fourth live view image are displayed. The first imaging region, the second imaging region, the third imaging region, and the fourth imaging region are imaged under different imaging conditions. Therefore, the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 have different live performances such as subject brightness, subject (moving moving subject) blur, and contrast. The view image is displayed.

使用者は、画像表示領域510の第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514にそれぞれ表示された第1ライブビュー画像、第2ライブビュー画像、第3ライブビュー画像及び第4ライブビュー画像を見比べて、撮像条件の違いによる画像の違いを確認することができる。そして、使用者は、第1ライブビュー画像、第2ライブビュー画像、第3ライブビュー画像及び第4ライブビュー画像のうちのいずれかを選択する場合、選択ボタン画像521(すなわちタッチ領域521a)を指でタッチする。これにより、表示領域の選択が可能な状態、すなわち、タッチパネル52の4つのタッチ領域(タッチ領域511a、タッチ領域512a、タッチ領域513a及びタッチ領域514a)がタッチ操作を検出可能な状態となる。その後、使用者は、4つの表示領域(第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514)のいずれかを指でタッチすることにより、1つの表示領域を選択する。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。 The user can use the first live view image, the second live view image, and the second live view image displayed in the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 of the image display area 510, respectively. By comparing the 3 live view images and the 4th live view image, it is possible to confirm the difference in the images due to the difference in the imaging conditions. Then, when the user selects any one of the first live view image, the second live view image, the third live view image, and the fourth live view image, the user selects the selection button image 521 (that is, the touch area 521a). Touch with your finger. As a result, the display area can be selected, that is, the four touch areas (touch area 511a, touch area 512a, touch area 513a, and touch area 514a) of the touch panel 52 can detect the touch operation. After that, the user touches any of the four display areas (first display area 511, second display area 512, third display area 513, and fourth display area 514) with a finger to obtain one display area. Select. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70.

選択部72は、タッチパネル52からの検出信号に基づいて、使用者によって選択された表示領域を認識する。図11、図12及び図13に示す例では、使用者によって第1表示領域511が選択されている。選択部72は、使用者により第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514のいずれかが選択されたか否かを判定する(ステップS4)。使用者により第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514のいずれかが選択されたと判定した場合は、選択部72は、使用者により選択された表示領域(図11では第1表示領域511)を設定する(ステップS5)。具体的には、選択部72は、駆動部21に対して使用者により選択された表示領域に対応するブロックの位置などを指示する指示信号を出力する。 The selection unit 72 recognizes the display area selected by the user based on the detection signal from the touch panel 52. In the examples shown in FIGS. 11, 12, and 13, the first display area 511 is selected by the user. The selection unit 72 determines whether or not any of the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 has been selected by the user (step S4). When it is determined by the user that any one of the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514 is selected, the selection unit 72 displays the display selected by the user. An area (first display area 511 in FIG. 11) is set (step S5). Specifically, the selection unit 72 outputs an instruction signal indicating to the drive unit 21 the position of the block corresponding to the display area selected by the user.

使用者は、選択した表示領域(すなわち第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域のいずれか)における撮像条件を変更することが可能である。設定部72は、使用者により撮像条件が変更されたか否かを判定する(ステップS6)。選択部72は、使用者により撮像条件が変更されたと判定した場合は、変更された撮像条件を設定する(ステップS7)。 The user can change the imaging conditions in the selected display region (that is, any one of the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region). The setting unit 72 determines whether or not the imaging conditions have been changed by the user (step S6). When the selection unit 72 determines that the imaging conditions have been changed by the user, the selection unit 72 sets the changed imaging conditions (step S7).

例えば、使用者は、第1表示領域511の撮像条件としてISO感度を設定する場合は、ISO感度ボタン画像522(すなわちタッチ領域522a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域522aに対応する検出信号をシステム制御部70に出力する。制御部71は、図11に示すように、ISO感度ボタン画像522の横にISO感度の値を複数表示させる。図11に示す例では、ISO感度として、「100」「200」「400」「800」「1600」が表示される。設定部73は、タッチパネル52において、ISO感度のそれぞれの値の領域と重なるように新たにタッチ領域を設定する。使用者は、ISO感度の値のいずれかをタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。設定部73は、使用者にタッチされたISO感度の値を設定する。具体的には、設定部73は、使用者により選択されたISO感度に応じたゲインを指示する指示信号を駆動部21に出力する。 For example, when setting the ISO sensitivity as the imaging condition of the first display area 511, the user touches the ISO sensitivity button image 522 (that is, the touch area 522a). The touch panel 52 outputs a detection signal corresponding to the touch area 522a touched by the user to the system control unit 70. As shown in FIG. 11, the control unit 71 displays a plurality of ISO sensitivity values next to the ISO sensitivity button image 522. In the example shown in FIG. 11, "100", "200", "400", "800", and "1600" are displayed as the ISO sensitivity. The setting unit 73 newly sets the touch area on the touch panel 52 so as to overlap the area of each value of the ISO sensitivity. The user touches any of the ISO sensitivity values. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70. The setting unit 73 sets the value of the ISO sensitivity touched by the user. Specifically, the setting unit 73 outputs an instruction signal indicating a gain according to the ISO sensitivity selected by the user to the drive unit 21.

また、使用者は、第1表示領域511の撮像条件としてシャッタースピード(電荷蓄積時間)を設定する場合も、ISO感度の設定と同じような操作を行う。すなわち、使用者は、撮像条件としてシャッタースピードを設定する場合は、シャッタースピードボタン画像523(すなわちタッチ領域523a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域523aに対応する検出信号をシステム制御部70に出力する。制御部71は、シャッタースピードボタン画像523の横にシャッタースピードの値を複数表示させる。使用者は、シャッタースピードの値のいずれかをタッチする。設定部73は、使用者によりタッチされたシャッタースピードの値を設定する。具体的には、設定部73は、使用者により選択されたシャッタースピードを指示する指示信号を駆動部21に出力する。 Further, when the shutter speed (charge accumulation time) is set as the imaging condition of the first display area 511, the user performs the same operation as the setting of the ISO sensitivity. That is, when setting the shutter speed as an imaging condition, the user touches the shutter speed button image 523 (that is, the touch area 523a). The touch panel 52 outputs a detection signal corresponding to the touch area 523a touched by the user to the system control unit 70. The control unit 71 displays a plurality of shutter speed values next to the shutter speed button image 523. The user touches one of the shutter speed values. The setting unit 73 sets the value of the shutter speed touched by the user. Specifically, the setting unit 73 outputs an instruction signal indicating the shutter speed selected by the user to the drive unit 21.

また、使用者は、第1表示領域511の撮像条件としてピクチャーコントロールを設定する場合は、ピクチャーコントロールボタン画像524(すなわちタッチ領域524a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域524aに対応する検出信号をシステム制御部70に出力する。制御部71は、図12に示すように、ピクチャーコントロールボタン画像524の横にピクチャーコントロールの種類を複数表示させる。図12に示す例では、ピクチャーコントロールの種類として、「スタンダード」「ニュートラル」「風景」「ビビッド」が表示される。なお、「スタンダード」は、画像処理部30が被写体の輪郭の強さ、コントラスト、明るさ、色の濃さなどにおいて偏りのない標準的な画像に調整する。「ニュートラル」は、画像処理部30が被写体固有の階調や色合いを忠実に再現し、最も実物の被写体に近い画像に調整する。「風景」は、画像処理部30が自然の風景や街並みなどを高い階調で立体感のある画像に調整する。「ビビッド」は、画像処理部30が被写体の輪郭やコントラストを強調した色鮮やかな画像に調整する。 Further, when setting the picture control as the imaging condition of the first display area 511, the user touches the picture control button image 524 (that is, the touch area 524a). The touch panel 52 outputs a detection signal corresponding to the touch area 524a touched by the user to the system control unit 70. As shown in FIG. 12, the control unit 71 displays a plurality of types of picture control next to the picture control button image 524. In the example shown in FIG. 12, "standard", "neutral", "landscape", and "vivid" are displayed as the types of picture control. The "standard" is adjusted by the image processing unit 30 to a standard image having no bias in the strength, contrast, brightness, color depth, etc. of the outline of the subject. In "neutral", the image processing unit 30 faithfully reproduces the gradation and hue peculiar to the subject, and adjusts the image to be the closest to the actual subject. In the "landscape", the image processing unit 30 adjusts a natural landscape, a cityscape, etc. into an image having a three-dimensional effect with high gradation. “Vivid” is adjusted by the image processing unit 30 to a colorful image in which the outline and contrast of the subject are emphasized.

設定部73は、タッチパネル52において、ピクチャーコントロールの種類の領域と重なるように新たにタッチ領域を設定する。使用者は、ピクチャーコントロールの種類のいずれかをタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。設定部73は、使用者にタッチされたピクチャーコントロールの種類を設定する。具体的には、設定部73は、使用者により選択されたピクチャーコントロールの種類を指示する指示信号を画像処理部30に出力する。 The setting unit 73 newly sets a touch area on the touch panel 52 so as to overlap with the area of the type of picture control. The user touches one of the picture control types. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70. The setting unit 73 sets the type of picture control touched by the user. Specifically, the setting unit 73 outputs an instruction signal indicating the type of the picture control selected by the user to the image processing unit 30.

また、使用者は、第1表示領域511の撮像条件として撮影モードを設定する場合は、撮像モードボタン画像525(すなわちタッチ領域525a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域525aに対応する検出信号をシステム制御部70に出力する。制御部71は、図13に示すように、撮像モードボタン画像525の横に「P」「S」「A」「M」を表示させる。なお、「P」はPモード(プログラムオート)を意味し、適正露出となるように、絞り値とシャッタースピードを自動的に決定するモードである。「S」はSモード(シャッター優先モード)を意味し、使用者が選択したシャッタースピードに対して適正露出となるような絞り値を決定するモードである。「A」はAモード(絞り優先モード)を意味し、使用者が選択した絞り値に対して適正露出となるようなシャッタースピードを自動的に決定するモードである。「M」はMモード(マニュアルモード)を意味し、使用者が絞り値もシャッタースピードも選択するモードである。なお、上述したように、システム制御部70(設定部73)は、撮像領域113Aのブロックごとに異なる撮像条件を設定することが可能であるが、絞り値についてはブロックごとに設定することはできず撮像領域113A全面に対して設定する。 When setting the shooting mode as the imaging condition of the first display area 511, the user touches the imaging mode button image 525 (that is, the touch region 525a). The touch panel 52 outputs a detection signal corresponding to the touch area 525a touched by the user to the system control unit 70. As shown in FIG. 13, the control unit 71 displays “P”, “S”, “A”, and “M” next to the image pickup mode button image 525. Note that "P" means P mode (program auto), which is a mode in which the aperture value and the shutter speed are automatically determined so as to obtain an appropriate exposure. “S” means an S mode (shutter priority mode), and is a mode for determining an aperture value such that an appropriate exposure is obtained with respect to a shutter speed selected by the user. “A” means A mode (aperture priority mode), and is a mode for automatically determining a shutter speed that gives an appropriate exposure to an aperture value selected by the user. "M" means M mode (manual mode), and is a mode in which the user selects both the aperture value and the shutter speed. As described above, the system control unit 70 (setting unit 73) can set different imaging conditions for each block of the imaging region 113A, but the aperture value can be set for each block. It is set for the entire surface of the imaging region 113A.

設定部73は、タッチパネル52において、撮影モードの種類の領域と重なるように新たにタッチ領域を設定する。使用者は、撮影モードの種類のいずれかをタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。設定部73は、使用者にタッチされた撮影モードの種類を設定する。そして、設定部73は、「P」「S」「A」のいずれかが選択された場合は、絞り値及びシャッタースピードの少なくともいずれか1つを、適正露出となるように自動的に決定する。設定部73は、シャッタースピードを決定した場合は、シャッタースピードを指示する指示信号を駆動部21に出力する。また、設定部73は、絞り値を決定した場合は、絞り値に対応する制御情報をレンズ駆動制御装置15に出力する。 The setting unit 73 newly sets a touch area on the touch panel 52 so as to overlap the area of the type of shooting mode. The user touches one of the shooting mode types. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70. The setting unit 73 sets the type of shooting mode touched by the user. Then, when any one of "P", "S", and "A" is selected, the setting unit 73 automatically determines at least one of the aperture value and the shutter speed so as to obtain an appropriate exposure. .. When the shutter speed is determined, the setting unit 73 outputs an instruction signal instructing the shutter speed to the drive unit 21. When the aperture value is determined, the setting unit 73 outputs control information corresponding to the aperture value to the lens drive control device 15.

駆動部21は、使用者により選択された第1表示領域511に対応する第1撮像領域をブロック単位で指示する指示信号を受け取る。また、駆動部21は、使用者により選択された撮像条件を指示する指示信号を受け取る。これに応じて、駆動部21は、第1表示領域511に対応するブロックにおいて、指示された撮像条件(シャッタースピード、ISO感度)で撮像するように撮像部20を駆動する。また、画像処理部30は、使用者により選択された撮像条件を指示する指示信号を受け取る。これに応じて、画像処理部30は、指示された撮像条件(ホワイトバランス、階調、色調補正などの制御パラメータ)に基づいて、第1撮像領域のRAWデータに対して画像処理を実行する。また、レンズ駆動制御装置15は、システム制御部70からの制御情報に基づいて絞り14の開口径調節を行う。 The drive unit 21 receives an instruction signal instructing the first imaging region corresponding to the first display region 511 selected by the user in block units. In addition, the drive unit 21 receives an instruction signal instructing the imaging conditions selected by the user. In response to this, the drive unit 21 drives the image pickup unit 20 so as to take an image under the instructed image pickup conditions (shutter speed, ISO sensitivity) in the block corresponding to the first display area 511. In addition, the image processing unit 30 receives an instruction signal instructing the imaging conditions selected by the user. In response to this, the image processing unit 30 executes image processing on the RAW data in the first imaging region based on the instructed imaging conditions (control parameters such as white balance, gradation, and color tone correction). Further, the lens drive control device 15 adjusts the aperture diameter of the aperture 14 based on the control information from the system control unit 70.

このように第1撮像領域の撮像条件が変更されると、第1表示領域511に表示される第1ライブビュー画像が変化する。例えば、ISO感度を高くすると、被写体が少ない光量でも明るく撮像される。また、第1ライブビュー画像の暗い部分が明るくなる。また、シャッタースピードを高くすると、動いている被写体のブレが少なくなる。 When the imaging conditions of the first imaging region are changed in this way, the first live view image displayed in the first display region 511 changes. For example, when the ISO sensitivity is increased, the subject is imaged brightly even with a small amount of light. In addition, the dark portion of the first live view image becomes brighter. Also, increasing the shutter speed reduces blurring of moving subjects.

このように、使用者は、第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514のいずれかを選択し、選択した表示領域における撮像条件を設定することにより、撮像条件に変更に応じて変化するライブビュー画像を確認することができる。この場合、使用者が選択した撮像条件が適正露出に合った条件でないこともある。しかし、使用者は、撮像条件の変更によって露出オーバーや露出アンダーになることを認識することもできる。また、使用者は、どのような撮像条件を変更するとどのようにライブビュー画像が変化するかを認識することができる。従って、使用者は、撮影を行う前に撮像条件を変更することによって複数のライブビュー画像を確認した上で撮影を行うことができる。 In this way, the user selects one of the first display area 511, the second display area 512, the third display area 513, and the fourth display area 514, and sets the imaging conditions in the selected display area. , You can check the live view image that changes according to the change in the imaging conditions. In this case, the imaging conditions selected by the user may not be suitable for the proper exposure. However, the user can also recognize that overexposure or underexposure occurs due to changes in imaging conditions. In addition, the user can recognize what kind of imaging conditions are changed and how the live view image changes. Therefore, the user can perform shooting after confirming a plurality of live view images by changing the imaging conditions before shooting.

以上のようなステップS1からS7までの処理は、使用者による操作部55のレリーズスイッチの半押し操作(ステップS8)が行われるまで繰り返し実行される。なお、図10、図11、図12及び図13においては、使用者が4つの表示領域のうちの第1表示領域511を選択した場合について説明したが、使用者が第2表示領域512、第3表示領域513、及び第4表示領域514を選択する場合についても同様の処理が行われる。 The processes from steps S1 to S7 as described above are repeatedly executed until the user half-presses the release switch of the operation unit 55 (step S8). Although the case where the user selects the first display area 511 out of the four display areas has been described in FIGS. 10, 11, 12, and 13, the user has selected the second display area 512 and the second display area 512. The same process is performed when the 3 display area 513 and the 4th display area 514 are selected.

なお、図10、図11、図12及び図13において図示していないが、使用者が設定可能な領域ごとの撮像条件として、ISO感度、シャッタースピード、及びピクチャーコントロールに限られない。例えば、上述したフレームレート、間引き率、画素信号を加算する加算行数又は加算列数、デジタル化のビット数なども表示領域ごとの撮像条件として設定可能に構成してもよい。また、色信号処理、ホワイトバランス調整、階調調整、圧縮率などのパラメータも表示領域ごとの撮像条件として設定可能に構成してもよい。 Although not shown in FIGS. 10, 11, 12, and 13, the imaging conditions for each region that can be set by the user are not limited to ISO sensitivity, shutter speed, and picture control. For example, the above-mentioned frame rate, thinning rate, number of added rows or columns for adding pixel signals, number of digitized bits, and the like may be set as imaging conditions for each display area. Further, parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate may be configured to be set as imaging conditions for each display area.

システム制御部70は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS8)。半押し操作は、撮影準備を開始させる指示として用いられる。なお、図8において図示していないが、システム制御部70は、自動的に焦点調節を行うオートフォーカス(AF)の制御などを実行する。 The system control unit 70 determines whether or not the release switch half-press operation (SW1 operation) has been performed (step S8). The half-press operation is used as an instruction to start preparation for shooting. Although not shown in FIG. 8, the system control unit 70 executes autofocus (AF) control or the like that automatically adjusts the focus.

次に、システム制御部70は、レリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS9)。全押し操作が行われたと判定した場合は、設定部73は、撮像素子100に撮像を実行させる撮像処理を行う(ステップS10)。なお、ステップS10における全押し操作に基づく撮像のことを本撮像という。本実施形態では、撮像部20は、ステップS5において選択部72により最後に設定された表示領域(ライブビュー画像)における撮像条件に基づいて、撮像素子100の画素領域(撮像領域)113Aに対して本撮像を行う。また、制御部71は、画素領域(撮像領域)113Aに対して本撮像された画像(静止画)を、画像表示領域510のすべての領域において表示するように制御する。これにより、使用者は、どのような画像が撮像されたかを大きな表示領域で確認することができる。 Next, the system control unit 70 determines whether or not the release switch is fully pressed (SW2 is operated) (step S9). When it is determined that the full pressing operation has been performed, the setting unit 73 performs an imaging process for causing the image sensor 100 to perform imaging (step S10). The imaging based on the full pressing operation in step S10 is referred to as the main imaging. In the present embodiment, the image pickup unit 20 relates to the pixel region (imaging area) 113A of the image pickup device 100 based on the imaging conditions in the display area (live view image) finally set by the selection unit 72 in step S5. This imaging is performed. Further, the control unit 71 controls the pixel region (imaging region) 113A so that the captured image (still image) is displayed in all the regions of the image display region 510. As a result, the user can confirm what kind of image has been captured in a large display area.

なお、図9、図10、図11、図12及び図13を用いて静止画の撮影動作について説明したが、動画の撮影動作についても同じ処理により実現される。この場合、各表示領域(第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514)には、各撮像領域(第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域)において異なる撮像条件(例えばフレームレート)で撮像された動画がそれぞれ表示される。また、この場合、操作ボタン表示領域520には、フレームレートを設定するためのボタンが表示されることが好ましい。また、この場合も、制御部71は、画素領域(撮像領域)113Aに対して本撮像された動画を、画像表示領域510のすべての領域において表示する。 Although the still image shooting operation has been described with reference to FIGS. 9, 10, 11, 12, and 13, the moving image shooting operation is also realized by the same processing. In this case, each display area (first display area 511, second display area 512, third display area 513, and fourth display area 514) includes each imaging area (first imaging region, second imaging region, third image region). Moving images captured under different imaging conditions (for example, frame rate) in the imaging region and the fourth imaging region are displayed. Further, in this case, it is preferable that a button for setting the frame rate is displayed in the operation button display area 520. Further, also in this case, the control unit 71 displays the moving image actually captured with respect to the pixel region (imaging region) 113A in all the regions of the image display region 510.

以上に説明したように、第1実施形態では、第1撮像条件で撮像を行う第1撮像素子(撮像素子100の一部の撮像素子)と第1撮像条件とは異なる第2撮像条件で撮像を行う第2撮像素子(撮像素子100の一部の撮像素子とは異なる撮像素子)とが複数配列され、第1撮像素子に入射した被写体像に応じて生成された第1画像データと第2撮像素子に入射した被写体像に応じて生成された第2画像データとを出力する撮像部20と、第1画像データにより示される第1画像(例えば第1表示領域511に表示される画像)と第2画像データにより示される第2画像(例えば第2表示領域512に表示される画像)とを表示部50に表示して第1画像データ及び第2画像データの記録態様を選択可能なように提示する制御部71とを備える。このような構成によれば、撮像条件の変更に対応する複数の画像の変化を確認することができる。 As described above, in the first embodiment, the first image sensor (a part of the image sensor 100) that performs image pickup under the first image pickup condition and the second image pickup condition different from the first image pickup condition are used for image pickup. A plurality of second image sensors (image sensors different from some image sensors of the image sensor 100) are arranged, and the first image data and the second image data generated according to the subject image incident on the first image sensor are arranged. An image pickup unit 20 that outputs the second image data generated according to the subject image incident on the image sensor, and a first image (for example, an image displayed in the first display area 511) indicated by the first image data. A second image (for example, an image displayed in the second display area 512) indicated by the second image data is displayed on the display unit 50 so that the recording mode of the first image data and the second image data can be selected. It includes a control unit 71 to be presented. With such a configuration, it is possible to confirm changes in a plurality of images corresponding to changes in imaging conditions.

また、第1実施形態では、第1画像及び第2画像は、いずれもライブビュー画像であり、第1画像データ及び第2画像データの記録態様を選択する選択部72を備え、撮像部20は、選択部72により選択された記録態様に対応する撮像条件で本撮像を行う。このような構成によれば、静止画又は動画の本撮像を開始する前に、異なる撮像条件で撮像された複数のライブビュー画像を確認した上で本撮像を行うことができる。また、第1実施形態では、選択部72は、表示部50に形成されたタッチパネル52を有するので、簡易な操作でライブビュー画像を選択することができる。 Further, in the first embodiment, the first image and the second image are both live view images, and the imaging unit 20 includes a selection unit 72 for selecting the recording mode of the first image data and the second image data. , The main imaging is performed under the imaging conditions corresponding to the recording mode selected by the selection unit 72. According to such a configuration, before starting the main imaging of a still image or a moving image, it is possible to perform the main imaging after confirming a plurality of live view images captured under different imaging conditions. Further, in the first embodiment, since the selection unit 72 has the touch panel 52 formed on the display unit 50, the live view image can be selected by a simple operation.

また、第1実施形態では、撮像部20の複数の撮像素子を少なくとも第1撮像素子と第2撮像素子とに分割する分割部74を備える。このような構成によれば、制御部71が少なくとも2つ以上のライブビュー画像を表示部50に表示させることができるようになる。また、第1実施形態では、分割部74は、撮像部20の撮像領域113Aにおいて第1撮像素子及び第2撮像素子をそれぞれ全面的に複数配置する。このような構成によれば、撮像部20が使用者にとって同一に見える被写体像についての複数のライブビュー画像を撮像することができる。従って、使用者が撮像条件の違いによる被写体像についてのライブビュー画像の違いを容易に確認することができる。 Further, in the first embodiment, a division unit 74 that divides a plurality of image pickup elements of the image pickup unit 20 into at least a first image pickup element and a second image pickup element is provided. According to such a configuration, the control unit 71 can display at least two or more live view images on the display unit 50. Further, in the first embodiment, the division unit 74 arranges a plurality of first image pickup elements and second image pickup elements on the entire surface in the image pickup region 113A of the image pickup unit 20. With such a configuration, the imaging unit 20 can capture a plurality of live view images of subject images that look the same to the user. Therefore, the user can easily confirm the difference in the live view image of the subject image due to the difference in the imaging conditions.

また、第1実施形態では、第1撮像条件と第2撮像条件とを設定する設定部73を備える。このような構成によれば、予め決められた撮像条件だけでなく、使用者により選択された撮像条件で撮像を行わせることも可能となる。また、第1実施形態では、設定部73は、撮像条件として、フレームレート、ゲイン、露光時間のうち、少なくとも1つを異ならせる。このような構成によれば、使用者は、複数の撮像領域(複数のライブビュー画像)ごとに、フレームレート、ゲイン、露光時間(シャッタースピード)を異ならせてライブビュー画像を変化させ、変化させたライブビュー画像を確認した上で撮像を行うことができる。 Further, in the first embodiment, a setting unit 73 for setting the first imaging condition and the second imaging condition is provided. According to such a configuration, it is possible to perform imaging not only under predetermined imaging conditions but also under imaging conditions selected by the user. Further, in the first embodiment, the setting unit 73 makes at least one of the frame rate, the gain, and the exposure time different as the imaging conditions. According to such a configuration, the user changes and changes the live view image by changing the frame rate, gain, and exposure time (shutter speed) for each of a plurality of imaging regions (plurality of live view images). It is possible to take an image after confirming the live view image.

また、第1実施形態では、設定部73は、撮像条件として、ホワイトバランス、階調、色調補正のうち、少なくとも1つを異ならせる。このような構成によれば、使用者は、複数の撮像領域(複数のライブビュー画像)ごとに、ホワイトバランス、階調、色調補正を異ならせてライブビュー画像を変化させ、変化させたライブビュー画像を確認した上で撮像を行うことができる。 Further, in the first embodiment, the setting unit 73 makes at least one of white balance, gradation, and color tone correction different as an imaging condition. According to such a configuration, the user changes the live view image by changing the white balance, gradation, and color tone correction for each of a plurality of imaging regions (plurality of live view images), and the live view is changed. Imaging can be performed after confirming the image.

上記した第1実施形態において、設定部73は、第1画像と第2画像との明るさが同じになるように、露光時間(シャッタースピード)及びゲイン(ISO感度)のいずれか一方の変更に応じて、露光時間及びゲインのいずれか他方を変更するように構成してもよい。具体的には、設定部73は、第1画像と第2画像とが同じ適正な明るさになるように、第1撮像領域又は第2撮像領域において露光時間を長くするとゲインを低くし、露光時間を短くするとゲインを高くする。このような構成によれば、使用者が同一の明るさとなる異なる露光時間及びゲインの組み合わせによる画像の違いを事前の確認することができる。 In the first embodiment described above, the setting unit 73 changes either the exposure time (shutter speed) or the gain (ISO sensitivity) so that the brightness of the first image and the second image are the same. Depending on the situation, either the exposure time or the gain may be changed. Specifically, the setting unit 73 lowers the gain when the exposure time is lengthened in the first imaging region or the second imaging region so that the first image and the second image have the same appropriate brightness, and the exposure is performed. The shorter the time, the higher the gain. According to such a configuration, the user can confirm in advance the difference in the image due to the combination of different exposure times and gains having the same brightness.

なお、図7に示したように、第1実施形態では、電子機器の一例としてデジタルカメラ1について説明した。しかし、電子機器はデジタルカメラ1に限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図7に示す第1実施形態に係るデジタルカメラ1において、表示部50は電子機器の外部に設けられる構成であってもよい。この場合、システム制御部70及び表示部50のそれぞれには、有線又は無線で信号(画像データや制御信号など)を送受信する通信部が設けられる。また、画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。 As shown in FIG. 7, in the first embodiment, the digital camera 1 has been described as an example of the electronic device. However, the electronic device is not limited to the digital camera 1, and may be composed of a device such as a smartphone, a mobile phone, or a personal computer having an imaging function. Further, in the digital camera 1 according to the first embodiment shown in FIG. 7, the display unit 50 may be provided outside the electronic device. In this case, each of the system control unit 70 and the display unit 50 is provided with a communication unit for transmitting and receiving signals (image data, control signals, etc.) by wire or wirelessly. Further, the image processing unit 30 and the system control unit 70 may be integrally configured. In this case, the system control unit having one body-side CPU takes on the functions of the image processing unit 30 and the system control unit 70 by executing the processing based on the control program.

<第2実施形態>
上記した第1実施形態では、画像表示領域510における各表示領域(第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514)の撮像条件(蓄積条件を含む)は同じ条件としていたが、第2実施形態では、各表示領域を複数の領域に分割し、分割した領域ごとに異なる撮像条件(蓄積条件を含む)を設定する。
<Second Embodiment>
In the above-described first embodiment, imaging conditions (including accumulation conditions) of each display area (first display area 511, second display area 512, third display area 513, and fourth display area 514) in the image display area 510 are included. However, in the second embodiment, each display area is divided into a plurality of areas, and different imaging conditions (including storage conditions) are set for each divided area.

図14は、第2実施形態のデジタルカメラ1に係る表示部50Aを示す図である。図14に示すように、表示部50Aの表示面51Aは、図8に示した表示面51と同様に、画像表示領域510Aと操作ボタン表示領域520とが設けられている。画像表示領域510Aは、撮像部20で撮像された画像、すなわち、静止画、動画、及びライブビュー画像を表示する領域である。また、操作ボタン表示領域520は、使用者が撮像条件などを設定するためのメニューを表示する領域である。 FIG. 14 is a diagram showing a display unit 50A according to the digital camera 1 of the second embodiment. As shown in FIG. 14, the display surface 51A of the display unit 50A is provided with an image display area 510A and an operation button display area 520, similarly to the display surface 51 shown in FIG. The image display area 510A is an area for displaying an image captured by the imaging unit 20, that is, a still image, a moving image, and a live view image. The operation button display area 520 is an area for displaying a menu for the user to set imaging conditions and the like.

画像表示領域510Aは、4つの表示領域(第1表示領域516、第2表示領域517、第3表示領域518、第4表示領域519)に分割されている。なお、第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519は、図8に示した第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514にそれぞれ相当する。各表示領域516,517,518,519内には、複数のブロックB(i,j)が設定されている。図14に示す例では、ブロックB(i,j)は、各表示領域516,517,518,519において、水平方向(図14の横方向)に8個のブロック(i=1,2,3,4,5,6,7,8)が設定され、垂直方向(図14の縦方向)に6個のブロック(j=1,2,3,4,5,6)が設定されている。つまり、各表示領域516,517,518,519が8×6個(=48個)のブロックに分割されている。 The image display area 510A is divided into four display areas (first display area 516, second display area 517, third display area 518, and fourth display area 519). The first display area 516, the second display area 517, the third display area 518, and the fourth display area 518 are the first display area 511, the second display area 512, the third display area 513, and the third display area 513 shown in FIG. Each corresponds to the fourth display area 514. A plurality of blocks B (i, j) are set in each display area 516, 517, 518, 519. In the example shown in FIG. 14, the blocks B (i, j) have eight blocks (i = 1, 2, 3) in the horizontal direction (horizontal direction in FIG. 14) in each display area 516, 517, 518, 519. , 4, 5, 6, 7, 8) are set, and six blocks (j = 1, 2, 3, 4, 5, 6) are set in the vertical direction (vertical direction in FIG. 14). That is, each display area 516, 517, 518, 519 is divided into 8 × 6 (= 48) blocks.

タッチパネル52が表示面51A上に設けられている。なお、図14において図示していないが、図8に示した場合と同様に、タッチパネル52において、第1タッチ領域516aが第1表示領域516上に重なるように形成されている。また、第2タッチ領域517aが第2表示領域517上に重なるように形成されている。また、第3タッチ領域518aが第3表示領域518上に重なるように形成されている。また、第4タッチ領域519aが第4表示領域519上に重なるように形成されている。各タッチ領域516a,517a,518a,519aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。 A touch panel 52 is provided on the display surface 51A. Although not shown in FIG. 14, the touch panel 52 is formed so that the first touch area 516a overlaps the first display area 516, as in the case shown in FIG. Further, the second touch area 517a is formed so as to overlap the second display area 517. Further, the third touch region 518a is formed so as to overlap the third display region 518. Further, the fourth touch region 519a is formed so as to overlap the fourth display region 519. When each touch area 516a, 517a, 518a, 519a detects that it has been pressed (touched) by the user, the system control unit 70 outputs a detection signal indicating the pressed position (which touch area it is). Output to.

第1タッチ領域516aは、複数のブロックB(i,j)に対応して複数のタッチ領域P(i,j)に分かれている。同様に、第2タッチ領域517a、第2タッチ領域518a及び第4タッチ領域519aも、それぞれ、複数のブロックB(i,j)に対応して複数のタッチ領域P(i,j)に分かれている。各タッチ領域P(i,j)は、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。なお、図14に示す表示面51Aにおいて、図8に示した表示面51と同様の構成については同一符号を付して、重複する説明を省略する。 The first touch area 516a is divided into a plurality of touch areas P (i, j) corresponding to the plurality of blocks B (i, j). Similarly, the second touch area 517a, the second touch area 518a, and the fourth touch area 519a are also divided into a plurality of touch areas P (i, j) corresponding to the plurality of blocks B (i, j), respectively. There is. When each touch area P (i, j) detects that it has been pressed (touched) by the user, a detection signal indicating the pressed position (which touch area it is) is sent to the system control unit 70. Output. In the display surface 51A shown in FIG. 14, the same reference numerals are given to the same configurations as those of the display surface 51 shown in FIG. 8, and duplicate description will be omitted.

次に、第2実施形態に係るデジタルカメラ1の撮影動作について説明する。図15は、第2実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。また、図16及び図17は、第2実施形態における表示面51Aの表示例を示す図である。なお、デジタルカメラ1は静止画と動画を撮影することが可能であるが、静止画を撮影する場合について説明する。 Next, the shooting operation of the digital camera 1 according to the second embodiment will be described. FIG. 15 is a flowchart for explaining a shooting operation executed by the system control unit 70 of the second embodiment. 16 and 17 are views showing a display example of the display surface 51A in the second embodiment. The digital camera 1 can shoot still images and moving images, but a case of shooting still images will be described.

図15に示すステップS1からS5までの処理は、図9に示したステップS1からS5までの処理と同様であるため、重複する説明を省略する。使用者は、第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519のいずれかを選択した後(ステップS4,S5参照)、選択した1つの表示領域内の領域を選択することが可能である。使用者が1つの表示領域内の領域を選択する場合、その表示領域内に設定されているブロックB(i,j)を指でタッチすること(又は指でなぞる)ことにより、表示領域内の領域をブロック単位で選択する。タッチパネル52は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部70に出力する。 Since the processes of steps S1 to S5 shown in FIG. 15 are the same as the processes of steps S1 to S5 shown in FIG. 9, duplicate description will be omitted. After selecting any of the first display area 516, the second display area 517, the third display area 518, and the fourth display area 519 (see steps S4 and S5), the user is in the selected display area. It is possible to select the area. When the user selects an area in one display area, the block B (i, j) set in the display area can be touched (or traced) with a finger to the block B (i, j) in the display area. Select the area in block units. The touch panel 52 outputs a detection signal corresponding to the touch area P (i, j) touched by the user to the system control unit 70.

選択部72は、タッチパネル52からの検出信号に基づいて、使用者によって選択された領域を認識する。図16に示す例では、使用者によって第1表示領域516が選択されている。また、使用者によって第1表示領域516内の領域516Aが選択されている。この領域516Aは、滝の後ろの背景の領域(図16中の白線が引かれている領域)である。具体的には、領域516Aは、ブロックB(3,1),B(4,1),B(5,1),B(6,1),B(7,1),B(8,1),B(4,2),B(5,2),B(6,2),B(7,2),B(8,2),B(5,3),B(6,3),B(7,3),B(8,3),B(6,4),B(7,4),B(8,4)からなる領域である。 The selection unit 72 recognizes the area selected by the user based on the detection signal from the touch panel 52. In the example shown in FIG. 16, the first display area 516 is selected by the user. Further, the area 516A in the first display area 516 is selected by the user. This area 516A is a background area behind the waterfall (the area drawn by the white line in FIG. 16). Specifically, the region 516A includes blocks B (3,1), B (4,1), B (5,1), B (6,1), B (7,1), B (8,1). ), B (4,2), B (5,2), B (6,2), B (7,2), B (8,2), B (5,3), B (6,3) , B (7,3), B (8,3), B (6,4), B (7,4), B (8,4).

選択部72は、使用者により領域が選択されたか否かを判定する(ステップS11)。使用者により領域が選択されたと判定した場合は、選択部72は、使用者により選択された領域516Aを設定する(ステップS12)。具体的には、選択部72は、駆動部21に対して使用者により選択されたブロックの位置などを指示する指示信号を出力する。 The selection unit 72 determines whether or not the area has been selected by the user (step S11). When it is determined that the area is selected by the user, the selection unit 72 sets the area 516A selected by the user (step S12). Specifically, the selection unit 72 outputs an instruction signal instructing the drive unit 21 of the position of the block selected by the user.

使用者は、選択した表示領域(すなわち第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域のいずれか)における撮像条件を変更することが可能である。また、使用者は、選択した表示領域内の領域における撮像条件を変更することも可能である。設定部72は、使用者により撮像条件が変更されたか否かを判定する(ステップS14)。選択部72は、使用者により撮像条件が変更されたと判定した場合は、変更された撮像条件を設定する(ステップS15)。 The user can change the imaging conditions in the selected display region (that is, any one of the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region). The user can also change the imaging conditions in the area within the selected display area. The setting unit 72 determines whether or not the imaging conditions have been changed by the user (step S14). When the selection unit 72 determines that the imaging conditions have been changed by the user, the selection unit 72 sets the changed imaging conditions (step S15).

例えば、使用者は、第1表示領域516の領域516Aの撮像条件としてISO感度を設定する場合は、ISO感度ボタン画像522(すなわちタッチ領域522a)をタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域522aに対応する検出信号をシステム制御部70に出力する。制御部71は、図16に示すように、ISO感度ボタン画像522の横にISO感度の値を複数表示させる。設定部73は、タッチパネル52において、ISO感度のそれぞれの値の領域と重なるように新たにタッチ領域を設定する。使用者は、ISO感度の値のいずれかをタッチする。タッチパネル52は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。設定部73は、使用者にタッチされたISO感度の値を設定する。具体的には、設定部73は、使用者により選択されたISO感度に応じたゲインを指示する指示信号を駆動部21に出力する。 For example, when the user sets the ISO sensitivity as the imaging condition of the area 516A of the first display area 516, the user touches the ISO sensitivity button image 522 (that is, the touch area 522a). The touch panel 52 outputs a detection signal corresponding to the touch area 522a touched by the user to the system control unit 70. As shown in FIG. 16, the control unit 71 displays a plurality of ISO sensitivity values next to the ISO sensitivity button image 522. The setting unit 73 newly sets the touch area on the touch panel 52 so as to overlap the area of each value of the ISO sensitivity. The user touches any of the ISO sensitivity values. The touch panel 52 outputs a detection signal corresponding to the touch area touched by the user to the system control unit 70. The setting unit 73 sets the value of the ISO sensitivity touched by the user. Specifically, the setting unit 73 outputs an instruction signal indicating a gain according to the ISO sensitivity selected by the user to the drive unit 21.

駆動部21は、使用者により選択された第1表示領域516に対応する第1撮像領域をブロック単位で指示する指示信号を受け取る。また、駆動部21は、使用者により選択された第1表示領域516内の領域516Aをブロック単位で指示する指示信号を受け取る。また、駆動部21は、使用者により選択された撮像条件を指示する指示信号を受け取る。これに応じて、駆動部21は、第1表示領域516の領域516Aに対応するブロックにおいて、指示された撮像条件(シャッタースピード、ISO感度)で撮像するように撮像部20を駆動する。なお、画像処理部30は、使用者により選択された撮像条件を指示する指示信号を受け取った場合は、指示された撮像条件(ホワイトバランス、階調、色調補正などの制御パラメータ)に基づいて、領域516Aに対応する領域のRAWデータに対して画像処理を実行する。また、レンズ駆動制御装置15は、システム制御部70からの制御情報に基づいて絞り14の開口径調節を行う。 The drive unit 21 receives an instruction signal indicating the first imaging region corresponding to the first display region 516 selected by the user in block units. Further, the drive unit 21 receives an instruction signal instructing the area 516A in the first display area 516 selected by the user in block units. In addition, the drive unit 21 receives an instruction signal instructing the imaging conditions selected by the user. In response to this, the drive unit 21 drives the image pickup unit 20 so as to take an image under the instructed image pickup conditions (shutter speed, ISO sensitivity) in the block corresponding to the area 516A of the first display area 516. When the image processing unit 30 receives an instruction signal instructing the imaging conditions selected by the user, the image processing unit 30 is based on the instructed imaging conditions (control parameters such as white balance, gradation, and color tone correction). Image processing is executed on the RAW data of the region corresponding to the region 516A. Further, the lens drive control device 15 adjusts the aperture diameter of the aperture 14 based on the control information from the system control unit 70.

このように画素領域113Aにおける領域516Aに対応する領域の撮像条件が変更されると、第1ライブビュー画像における領域516Aの画像が変化する。例えば、ISO感度を高くすると、被写体が少ない光量でも明るく撮像される。また、領域516Aの暗い部分が明るくなる。また、シャッタースピードを高くすると、動いている被写体のブレが少なくなる。 When the imaging conditions of the region corresponding to the region 516A in the pixel region 113A are changed in this way, the image of the region 516A in the first live view image changes. For example, when the ISO sensitivity is increased, the subject is imaged brightly even with a small amount of light. In addition, the dark portion of the region 516A becomes bright. Also, increasing the shutter speed reduces blurring of moving subjects.

このように、使用者は、第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519のいずれかを選択し、さらに選択した表示領域内の領域を選択する。そして、使用者は、選択した領域における撮像条件を設定する。これにより、撮像条件に変更に応じて変化するライブビュー画像中の所定領域の画像を確認することができる。 In this way, the user selects one of the first display area 516, the second display area 517, the third display area 518, and the fourth display area 519, and further selects an area within the selected display area. Then, the user sets the imaging conditions in the selected area. This makes it possible to confirm the image of a predetermined region in the live view image that changes according to the change in the imaging conditions.

以上のようなステップS1からS5までの処理及びS11からS14までの処理は、使用者による操作部55のレリーズスイッチの半押し操作(ステップS8)が行われるまで繰り返し実行される。なお、図16においては、使用者が第1表示領域516の領域516Aを選択した場合について説明したが、使用者が第1表示領域516の他の領域を選択した場合についても同様の処理が行われる。図17に示す例では、第1表示領域516のうち領域516A以外の領域516Bが選択されている。そして、使用者によるISO感度ボタン画像522、シャッタースピードボタン画像523、ピクチャーコントロールボタン画像524などの選択に応じて、第1表示領域516内の領域516Bに表示される画像が変化する。 The processes S1 to S5 and the processes S11 to S14 as described above are repeatedly executed until the user half-presses the release switch of the operation unit 55 (step S8). In addition, in FIG. 16, the case where the user selects the area 516A of the first display area 516 has been described, but the same processing is performed when the user selects another area of the first display area 516. Be told. In the example shown in FIG. 17, the area 516B other than the area 516A is selected from the first display area 516. Then, the image displayed in the area 516B in the first display area 516 changes according to the user's selection of the ISO sensitivity button image 522, the shutter speed button image 523, the picture control button image 524, and the like.

その後、ステップS8からS10までの処理を実行する。これらの処理については、図9で説明した処理と同様であるため、重複する説明を省略する。 After that, the processes from steps S8 to S10 are executed. Since these processes are the same as the processes described with reference to FIG. 9, duplicate description will be omitted.

なお、図14、図15、図16及び図17を用いて静止画の撮影動作について説明したが、動画の撮影動作についても同じ処理により実現される。この場合、各表示領域(第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519)には、各撮像領域(第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域)において異なる撮像条件(例えばフレームレート)で撮像された動画がそれぞれ表示される。また、この場合、操作ボタン表示領域520には、フレームレートを設定するためのボタンが表示されることが好ましい。また、この場合も、制御部71は、画素領域(撮像領域)113Aに対して本撮像された動画を、画像表示領域510のすべての領域において表示する。 Although the still image shooting operation has been described with reference to FIGS. 14, 15, 16 and 17, the moving image shooting operation is also realized by the same processing. In this case, each display area (first display area 516, second display area 517, third display area 518, and fourth display area 519) includes each imaging area (first imaging region, second imaging region, third image region). Moving images captured under different imaging conditions (for example, frame rate) in the imaging region and the fourth imaging region are displayed. Further, in this case, it is preferable that a button for setting the frame rate is displayed in the operation button display area 520. Further, also in this case, the control unit 71 displays the moving image actually captured with respect to the pixel region (imaging region) 113A in all the regions of the image display region 510.

以上に説明したように、第2実施形態では、設定部73は、第1撮像素子または第2撮像素子の一部の撮像素子の撮像条件を、第1撮像条件または第2撮像条件と異なるように設定する。このような構成によれば、第1実施形態の効果に加えて、第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519内における領域ごとに撮像条件を変更することが可能となる。従って、使用者は、静止画又は動画の撮像を開始する前に、領域ごとの撮像条件を変更して画像を作成することができる。このような処理は画像の撮像前編集が行われるものといえる。 As described above, in the second embodiment, the setting unit 73 makes the imaging conditions of a part of the first imaging element or the second imaging element different from the first imaging condition or the second imaging condition. Set to. According to such a configuration, in addition to the effect of the first embodiment, the imaging conditions are changed for each area in the first display area 516, the second display area 517, the third display area 518, and the fourth display area 519. It becomes possible to do. Therefore, the user can create an image by changing the imaging conditions for each region before starting the imaging of the still image or the moving image. It can be said that such processing performs pre-imaging editing of the image.

なお、第2実施形態においても、使用者が設定可能な領域ごとの撮像条件として、ISO感度、シャッタースピード、及びピクチャーなどに限られない。例えば、上述したフレームレート、間引き率、画素信号を加算する加算行数又は加算列数、デジタル化のビット数なども領域ごとの撮像条件として設定可能に構成してもよい。また、色信号処理、ホワイトバランス調整、階調調整、圧縮率などのパラメータも領域ごとの撮像条件として設定可能に構成してもよい。 Also in the second embodiment, the imaging conditions for each region that can be set by the user are not limited to ISO sensitivity, shutter speed, picture, and the like. For example, the above-mentioned frame rate, thinning rate, number of additional rows or columns for adding pixel signals, number of digitization bits, and the like may be set as imaging conditions for each region. Further, parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate may be configured to be set as imaging conditions for each region.

<第3実施形態>
上記した第1実施形態及び第2実施形態では、1つの表示部50の4つの表示領域にライブビュー画像を表示するように構成していた。これに対して、第3実施形態では、2つの表示部を設け、2つの表示部のうちの一方の表示部に2つのライブビュー画像又は静止画を表示する。また、他方の表示部に2つのライブビュー画像又は静止画を合成したライブビュー画像を表示する。
<Third Embodiment>
In the first embodiment and the second embodiment described above, the live view image is configured to be displayed in the four display areas of one display unit 50. On the other hand, in the third embodiment, two display units are provided, and two live view images or still images are displayed on one of the two display units. In addition, a live view image obtained by synthesizing two live view images or still images is displayed on the other display unit.

図18は、第3実施形態のデジタルカメラ1に係る画像処理部30A及びシステム制御部70の機能ブロック図である。なお、図18は、図7に示した構成のうち、画像処理部30及びシステム制御部70に相当する構成についてだけ示している。図18に示すように、画像処理部30Aは、画像生成部31のほかに合成部32を含んでいる。この合成部32は、異なる撮像条件で撮像された第1撮像領域の画像データと第2撮像領域の画像データとを合成する。なお、第3実施形態では、第1実施形態及び第2実施形態で説明した場合(図5に示した配列バターン)と異なり、画素領域113Aにおいて第1撮像領域及び第2撮像領域だけが設定されている。この場合、この配列パターンでは、画素領域113Aにおいて、奇数の列(2m−1)における奇数の行(2n−1)のブロックと、偶数の列(2m)における偶数の行(2n)のブロックとで第1撮像領域が構成される。また、偶数の列(2m)における奇数の行(2n−1)のブロックと、奇数の列(2m−1)における偶数の行(2n)のブロックとで第2撮像領域が構成される。すなわち、分割部74は、画素領域113Aにおける各ブロックを市松模様となるように分割する。m及びnは正の整数(m=1,2,3,・・・、n=1,2,3,・・・)である。 FIG. 18 is a functional block diagram of the image processing unit 30A and the system control unit 70 according to the digital camera 1 of the third embodiment. Note that FIG. 18 shows only the configuration corresponding to the image processing unit 30 and the system control unit 70 among the configurations shown in FIG. 7. As shown in FIG. 18, the image processing unit 30A includes a compositing unit 32 in addition to the image generating unit 31. The compositing unit 32 synthesizes the image data of the first imaging region and the image data of the second imaging region imaged under different imaging conditions. In the third embodiment, unlike the case described in the first embodiment and the second embodiment (arrangement pattern shown in FIG. 5), only the first imaging region and the second imaging region are set in the pixel region 113A. ing. In this case, in this arrangement pattern, in the pixel area 113A, the blocks of the odd row (2n-1) in the odd column (2m-1) and the blocks of the even row (2n) in the even column (2m). The first imaging region is configured by. Further, the second imaging region is composed of the blocks of the odd row (2n-1) in the even column (2m) and the blocks of the even row (2n) in the odd column (2m-1). That is, the dividing unit 74 divides each block in the pixel region 113A so as to form a checkerboard pattern. m and n are positive integers (m = 1,2,3, ..., n = 1,2,3, ...).

図19は、第3実施形態における第1表示部50B及び第2表示部53に画像を表示する場合の表示例を示す図である。上記した第1実施形態及び第2実施形態では、1つの表示部50だけが設けられていたが、第3実施形態では、2つの表示部(第1表示部50B及び第2表示部53)が設けられている。なお、図19において、電子機器(デジタルカメラ)1を背面から見た場合の外観を示している。図19に示すように、第1表示部50Bは、方形状の表示面を有する表示パネルである。この第1表示部50Bは、デジタルカメラ1の背面に設けられている。なお、図示していないが、第1タッチパネルは、第1表示部50Bの表示面上に形成されている。 FIG. 19 is a diagram showing a display example when an image is displayed on the first display unit 50B and the second display unit 53 in the third embodiment. In the first and second embodiments described above, only one display unit 50 is provided, but in the third embodiment, two display units (first display unit 50B and second display unit 53) are provided. It is provided. Note that FIG. 19 shows the appearance of the electronic device (digital camera) 1 when viewed from the back. As shown in FIG. 19, the first display unit 50B is a display panel having a rectangular display surface. The first display unit 50B is provided on the back surface of the digital camera 1. Although not shown, the first touch panel is formed on the display surface of the first display unit 50B.

また、第2表示部53は、方形状の表示面を有する表示パネルである。この第2表示部53の端部が、デジタルカメラ1の背面かつ第1表示部50Bの下方に設けられたヒンジ(図示せず)によって回転可能に連結されている。第2表示部53がヒンジを支点として回転することにより、第1表示部50Bが第2表示部53によって開閉される。 The second display unit 53 is a display panel having a rectangular display surface. The ends of the second display unit 53 are rotatably connected by hinges (not shown) provided on the back surface of the digital camera 1 and below the first display unit 50B. When the second display unit 53 rotates with the hinge as a fulcrum, the first display unit 50B is opened and closed by the second display unit 53.

デジタルカメラ1の上面には、レリーズスイッチ55a、モードダイヤル55b、及び動画スイッチ55cが設けられている。レリーズスイッチ55aは、静止画を撮像する際に使用者によって押されるスイッチである。なお、レリーズスイッチ55aの半押し操作が行われることによって、AF(Automatic Focusing)やAE(Automatic Exposure)などの撮影準備が行われる。モードダイヤル55bは、ポートレート、風景、夜景などの各種シーンモードを設定する際に使用者によって回転されるダイヤルである。動画スイッチ55cは、動画を撮像する際に使用者によって押されるスイッチである。また、デジタルカメラ1の背面かつ第1表示部50Bの側方には、マルチセレクタ55dが設けられている。マルチセレクタ55dは、第1表示部50B又は第2表示部53に表示されるメニュー(撮影モードを設定するためのメニュー)を、使用者が上下左右の矢印キーとOKスイッチにより選択するためのキー及びスイッチである。なお、操作部55は、レリーズスイッチ55a、モードダイヤル55b、動画スイッチ55c、及びマルチセレクタ55dを有している。なお、操作部55は、これら以外のスイッチなどを有していてもよい。 A release switch 55a, a mode dial 55b, and a moving image switch 55c are provided on the upper surface of the digital camera 1. The release switch 55a is a switch pressed by the user when capturing a still image. By half-pressing the release switch 55a, preparations for shooting such as AF (Automatic Focusing) and AE (Automatic Exposure) are performed. The mode dial 55b is a dial rotated by the user when setting various scene modes such as portrait, landscape, and night view. The moving image switch 55c is a switch pressed by the user when capturing a moving image. Further, a multi-selector 55d is provided on the back surface of the digital camera 1 and on the side of the first display unit 50B. The multi-selector 55d is a key for the user to select a menu (menu for setting the shooting mode) displayed on the first display unit 50B or the second display unit 53 by using the up / down / left / right arrow keys and the OK switch. And switches. The operation unit 55 has a release switch 55a, a mode dial 55b, a moving image switch 55c, and a multi-selector 55d. The operation unit 55 may have a switch or the like other than these.

図19に示すように、制御部71は、第2表示部53の表示面の左側領域53Lにおいて、第1撮像領域のライブビュー画像又は静止画(夜間に撮像した人物の画像)を表示する。また、制御部71は、第2表示部53の表示面の右側領域53Rにおいて、第2撮像領域のライブビュー画像又は静止画を表示する。また、制御部71は、第1表示部51の中央領域51Gにおいて、第1撮像領域のライブビュー画像又は静止画と第2撮像領域のライブビュー画像又は静止画とを合成したライブビュー画像又は静止画を表示する。 As shown in FIG. 19, the control unit 71 displays a live view image or a still image (an image of a person captured at night) in the first imaging region in the left region 53L of the display surface of the second display unit 53. Further, the control unit 71 displays a live view image or a still image of the second imaging region in the right region 53R of the display surface of the second display unit 53. Further, the control unit 71 combines a live view image or still image of the first imaging region with a live view image or still image of the second imaging region in the central region 51G of the first display unit 51 to obtain a live view image or still image. Display the image.

一般に、幅広いダイナミックレンジの画像を記録し表示するための画像合成技術として、HDR(High Dynamic Range)撮像が広く知られている。HDR撮像では、撮像条件(例えば露出)を変化させつつ複数枚の画像を撮像し、それらを合成することにより白飛びや黒つぶれの少ない画像を生成する。しかし、従来のHDRでは、例えば撮像条件の異なる2枚の画像を撮像する撮像時間が異なっているため、被写体が移動したり、使用者(撮影者)がデジタルカメラ1を動かしたりしてしまうことがある。この場合、複数枚の画像は同一の被写体の画像ではないため、画像合成が困難である。これに対して、第3実施形態では、撮像条件の異なる2枚の画像(ライブビュー画像又は静止画)の撮像時間を同じ時刻(又は略同じ時刻)とすることができる。従って、第3実施形態の構成により従来のHDR撮像の問題点を解決することができる。なお、HDRモードは、使用者によるマルチセレクタ55dの操作などに応じて選択可能に構成する。 In general, HDR (High Dynamic Range) imaging is widely known as an image composition technique for recording and displaying an image having a wide dynamic range. In HDR imaging, a plurality of images are imaged while changing the imaging conditions (for example, exposure), and the images are combined to generate an image with less overexposure and underexposure. However, in the conventional HDR, for example, since the imaging time for capturing two images with different imaging conditions is different, the subject may move or the user (photographer) may move the digital camera 1. There is. In this case, since the plurality of images are not the images of the same subject, it is difficult to combine the images. On the other hand, in the third embodiment, the imaging time of two images (live view image or still image) having different imaging conditions can be set to the same time (or substantially the same time). Therefore, the problem of the conventional HDR imaging can be solved by the configuration of the third embodiment. The HDR mode is configured to be selectable according to the operation of the multi-selector 55d by the user.

このような構成によれば、使用者は、異なる撮像条件で撮像された第1撮像領域における第1ライブビュー画像又は第1静止画と第2撮像領域における第2ライブビュー画像又は第2静止画とを撮像前に確認することができるとともに、第1ライブビュー画像又は静止画と第2ライブビュー画像又は静止画とを合成したダイナミックレンジの広いライブビュー画像又は静止画についても撮像前に確認することができる。 According to such a configuration, the user can use the first live view image or the first still image in the first imaging region and the second live view image or the second still image in the second imaging region captured under different imaging conditions. Can be confirmed before imaging, and a live view image or still image having a wide dynamic range, which is a combination of the first live view image or still image and the second live view image or still image, is also confirmed before imaging. be able to.

上記した第3実施形態では、合成部32は、第1撮像領域の画像データと第2撮像領域の画像データとを合成してダイナミックレンジの広い画像データを生成していた。しかし、このような構成に限らず、合成部32は、第1撮像領域の画像データと第2撮像領域の画像データとを合成して被写体のエッジ(輪郭)を強調した画像データを生成してもよい。具体的には、設定部73は、第1撮像領域のシャッタースピードを1/30秒に設定し、第2撮像領域のシャッタースピードを1/200秒に設定する。この場合、撮像素子100が動きの速い被写体を撮像すると、撮像素子100の第1撮像領域により生成された第1画像の画像データは、被写体のブレが大きい画像データとなる。一方、第2撮像領域により生成された画像データは、被写体のブレが少ない画像データとなる。合成部32は、第2画像の画像データにおける被写体のエッジ部分の画像データを、第1画像の画像データに付加して合成する。これにより、移動被写体のエッジ部分が強調された画像データが生成される。 In the third embodiment described above, the compositing unit 32 synthesizes the image data in the first imaging region and the image data in the second imaging region to generate image data having a wide dynamic range. However, not limited to such a configuration, the compositing unit 32 synthesizes the image data of the first imaging region and the image data of the second imaging region to generate image data in which the edge (contour) of the subject is emphasized. May be good. Specifically, the setting unit 73 sets the shutter speed of the first imaging region to 1/30 second and the shutter speed of the second imaging region to 1/200 second. In this case, when the image sensor 100 images a fast-moving subject, the image data of the first image generated by the first image pickup region of the image sensor 100 becomes image data with a large blur of the subject. On the other hand, the image data generated by the second imaging region is image data with less blurring of the subject. The synthesizing unit 32 adds the image data of the edge portion of the subject in the image data of the second image to the image data of the first image and synthesizes the image data. As a result, image data in which the edge portion of the moving subject is emphasized is generated.

制御部71は、第2表示部53の表示面の左側領域53Lにおいて、第1撮像領域のライブビュー画像又は静止画を表示する。また、制御部71は、第2表示部53の表示面の右側領域53Rにおいて、第2撮像領域のライブビュー画像又は静止画を表示する。また、制御部71は、第1表示部51の中央領域51Gにおいて、第1撮像領域のライブビュー画像又は静止画と第2撮像領域のライブビュー画像又は静止画とを合成したライブビュー画像又は静止画(被写体のエッジ部分が強調された合成画像)を表示する。このような構成によれば、使用者は、異なるシャッタースピードで撮像された画像を確認することができるとともに、それらの画像を合成した合成画像を確認することができる。 The control unit 71 displays a live view image or a still image of the first imaging region in the left region 53L of the display surface of the second display unit 53. Further, the control unit 71 displays a live view image or a still image of the second imaging region in the right region 53R of the display surface of the second display unit 53. Further, the control unit 71 combines a live view image or still image of the first imaging region with a live view image or still image of the second imaging region in the central region 51G of the first display unit 51 to obtain a live view image or still image. Display an image (composite image with emphasized edges of the subject). According to such a configuration, the user can confirm the images captured at different shutter speeds and can confirm the composite image obtained by synthesizing the images.

<第4実施形態>
上記した第1実施形態、第2実施形態及び第3実施形態では、制御部71が第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514(又は第1表示領域516、第2表示領域517、第3表示領域518及び第4表示領域519)において、それぞれ、第1ライブビュー画像、第2ライブビュー画像、第3ライブビュー画像及び第4ライブビュー画像を表示するように制御していた。これに対し、第4実施形態では、制御部71が第1表示領域、第2表示領域、第3表示領域及び第4表示領域において、それぞれ、第1動画、第2動画、第3動画及び第4動画を表示するように制御する。また、表示部は、第1動画、第2動画、第3動画及び第4動画のフレームレートに合わせたリフレッシュレート(単位時間あたりどれくらいでリフレッシュするかを示す値)で、それぞれの動画を表示する。
<Fourth Embodiment>
In the first embodiment, the second embodiment and the third embodiment described above, the control unit 71 has the first display area 511, the second display area 512, the third display area 513 and the fourth display area 514 (or the first display). The first live view image, the second live view image, the third live view image, and the fourth live view image are displayed in the area 516, the second display area 517, the third display area 518, and the fourth display area 519), respectively. It was controlled to do. On the other hand, in the fourth embodiment, the control unit 71 in the first display area, the second display area, the third display area, and the fourth display area, respectively, in the first moving image, the second moving image, the third moving image, and the fourth display area. 4 Control to display a moving image. In addition, the display unit displays each video at a refresh rate (a value indicating how much it refreshes per unit time) according to the frame rate of the first video, the second video, the third video, and the fourth video. ..

図20は、第4実施形態における表示面51Cの表示例を示す図である。図20に示すように、操作ボタン表示領域540には、フレームレートを設定するためのフレームレートボタン画像545が表示される。このフレームレートボタン画像545もメニュー画像540Mに含まれる。なお、選択ボタン画像541、ISO感度ボタン画像542、シャッタースピードボタン画像543、及びピクチャーコントロールボタン画像544は、図8等に示した選択ボタン画像521、ISO感度ボタン画像522、シャッタースピードボタン画像523、及びピクチャーコントロールボタン画像524に対応する。図20に示す表示例では、図8等に示した撮像モードボタン画像525に代えてフレームレートボタン画像545が設けられている。また、図20に示す表示例では、第1表示領域531、第2表示領域532、第3表示領域533及び第4表示領域534は、それぞれ、図8等に示した第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514に対応する。 FIG. 20 is a diagram showing a display example of the display surface 51C in the fourth embodiment. As shown in FIG. 20, a frame rate button image 545 for setting a frame rate is displayed in the operation button display area 540. This frame rate button image 545 is also included in the menu image 540M. The selection button image 541, the ISO sensitivity button image 542, the shutter speed button image 543, and the picture control button image 544 are the selection button image 521, the ISO sensitivity button image 522, and the shutter speed button image 523 shown in FIG. And the picture control button image 524. In the display example shown in FIG. 20, a frame rate button image 545 is provided in place of the image pickup mode button image 525 shown in FIG. 8 and the like. Further, in the display example shown in FIG. 20, the first display area 531 and the second display area 532, the third display area 533, and the fourth display area 534 are the first display area 511 and the first display area 511 shown in FIG. 8 and the like, respectively. 2 Corresponds to the display area 512, the third display area 513, and the fourth display area 514.

設定部73は、使用者によるフレームレートボタン画像545の操作に応じて、又は自動的に、撮像素子100の第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域において異なるフレームレートを設定する。例えば、設定部73は、第1撮像領域のフレームレートを30fpsに設定し、第2撮像領域のフレームレートを60fpsに設定し、第3撮像領域のフレームレートを90fpsに設定し、第4撮像領域のフレームレートを120fpsに設定する。そして、設定部73は、使用者による動画スイッチの操作に応じて、撮像素子100の第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域において異なるフレームレートによる動画の撮像を実行させる。 The setting unit 73 automatically or according to the operation of the frame rate button image 545 by the user, has different frames in the first image pickup area, the second image pickup area, the third image pickup area, and the fourth image pickup area of the image pickup element 100. Set the rate. For example, the setting unit 73 sets the frame rate of the first imaging region to 30 fps, sets the frame rate of the second imaging region to 60 fps, sets the frame rate of the third imaging region to 90 fps, and sets the fourth imaging region. Set the frame rate of to 120 fps. Then, the setting unit 73 captures moving images at different frame rates in the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region of the image sensor 100 according to the operation of the moving image switch by the user. Let it run.

制御部71は、画像表示領域530の第1表示領域531、第2表示領域532、第3表示領域533及び第4表示領域534に、それぞれ、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域において異なるフレームレートで撮像された動画を表示させる。一般に、液晶ディスプレイで構成された表示部は、表示面において同一のリフレッシュレートで画像がリフレッシュ(更新)される。一方、第4実施形態では、表示部50Cは、表示面51Cの第1表示領域531、第2表示領域532、第3表示領域533及び第4表示領域534において異なるリフレッシュレートでリフレッシュ可能に構成されている。すなわち、表示部50Cの表示面51Cでは、第1表示領域531の各画素のリフレッシュを駆動する駆動回路、第2表示領域532の各画素のリフレッシュを駆動する駆動回路、第3表示領域533の各画素のリフレッシュを駆動する駆動回路、及び第4表示領域534の各画素のリフレッシュを駆動する駆動回路が別々に設けられている。このような構成によれば、使用者は、異なるフレームレートで撮像された複数の動画の違いを容易に認識することができる。 The control unit 71 sets the first display area 531 and the second display area 532, the third display area 533, and the fourth display area 534 of the image display area 530 into the first image pickup area, the second image pickup area, and the third image pickup area, respectively. The moving images captured at different frame rates in the region and the fourth imaging region are displayed. In general, a display unit composed of a liquid crystal display refreshes (updates) an image at the same refresh rate on the display surface. On the other hand, in the fourth embodiment, the display unit 50C is configured to be refreshable at different refresh rates in the first display area 531, the second display area 532, the third display area 533, and the fourth display area 534 of the display surface 51C. ing. That is, on the display surface 51C of the display unit 50C, each of the drive circuit that drives the refresh of each pixel in the first display area 531, the drive circuit that drives the refresh of each pixel in the second display area 532, and the third display area 533. A drive circuit for driving the refresh of the pixels and a drive circuit for driving the refresh of each pixel in the fourth display area 534 are separately provided. With such a configuration, the user can easily recognize the difference between a plurality of moving images captured at different frame rates.

また、制御部71は、撮像素子100の第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域において異なるフレームレートで撮像された第1動画、第2動画、第3動画及び第4動画の画像データを、それぞれ別々に記録部60に記録するように制御する。このような構成によれば、異なるフレームレートで撮像された複数の動画の画像データを同時に記録部60に記録させることができる。 In addition, the control unit 71 includes a first moving image, a second moving image, a third moving image, and images taken at different frame rates in the first imaging region, the second imaging region, the third imaging region, and the fourth imaging region of the image sensor 100. The image data of the fourth moving image is controlled to be recorded separately in the recording unit 60. According to such a configuration, the recording unit 60 can simultaneously record image data of a plurality of moving images captured at different frame rates.

なお、上記した第1実施形態、第2実施形態及び第3実施形態では、制御部71は、表示面の第1表示領域、第2表示領域、第3表示領域及び第4表示領域において、異なる撮像条件(シャッタースピード、フレームレート等)で撮像されたライブビュー画像や動画を表示する構成としていたが、表示面の第1表示領域、第2表示領域、第3表示領域及び第4表示領域において、異なる撮像条件で撮像された静止画を表示する構成でもよい。この場合、制御部71は、使用者によるレリーズスイッチの1回の撮像操作で撮像された第1静止画、第2静止画、第3静止画及び第4静止画をそれぞれ第1表示領域、第2表示領域、第3表示領域及び第4表示領域に表示するように制御する。このような構成により、使用者は、異なる撮像条件で撮像された複数の静止画の違いを容易に認識することができる。 In the first embodiment, the second embodiment, and the third embodiment described above, the control unit 71 is different in the first display area, the second display area, the third display area, and the fourth display area of the display surface. It was configured to display live view images and moving images captured under imaging conditions (shutter speed, frame rate, etc.), but in the first display area, second display area, third display area, and fourth display area of the display surface. , A configuration may be used in which still images captured under different imaging conditions are displayed. In this case, the control unit 71 sets the first still image, the second still image, the third still image, and the fourth still image captured by one imaging operation of the release switch by the user in the first display area and the fourth still image, respectively. It is controlled to display in the 2 display area, the 3rd display area and the 4th display area. With such a configuration, the user can easily recognize the difference between a plurality of still images captured under different imaging conditions.

<第5実施形態>
第5実施形態では、システム制御部70は、第1表示領域、第2表示領域、第3表示領域及び第4表示領域のうちのいずれかの表示領域において電子ズーム(デジタルズームともいう。)による画像の拡大表示を行った場合に、そのような画像の拡大表示に合わせて他の表示領域においても画像の拡大表示を行う。
<Fifth Embodiment>
In the fifth embodiment, the system control unit 70 uses an electronic zoom (also referred to as a digital zoom) image in any of the first display area, the second display area, the third display area, and the fourth display area. When the enlarged display of the image is performed, the enlarged display of the image is also performed in other display areas in accordance with the enlarged display of such an image.

使用者は、電子ズームによる画像の拡大表示を行う場合は、例えば表示面上のタッチパネルのタッチ操作などを行う。制御部71は、使用者によるタッチパネルのタッチ操作などに応じて、画像を切り出す領域を指示する指示信号を画像処理部30に出力する。画像処理部30は、システム制御部70により指示された領域の画像データを切り出す処理(トリミング処理)を行う。制御部71は、画像処理部30により切り出された領域の画像データを表示部に出力させ、その領域の画像データに基づく画像を表示部の表示面に拡大表示させる制御を行う。 When enlarging the image by the electronic zoom, the user performs, for example, a touch operation of the touch panel on the display surface. The control unit 71 outputs an instruction signal indicating an area for cutting out an image to the image processing unit 30 in response to a touch operation of the touch panel by the user. The image processing unit 30 performs a process (trimming process) of cutting out image data in a region designated by the system control unit 70. The control unit 71 controls the display unit to output the image data of the region cut out by the image processing unit 30, and enlarges and displays the image based on the image data of the region on the display surface of the display unit.

図21は、第5実施形態における電子ズームを行った場合の表示面51Dの表示例を示す図である。図21に示す表示部50Dの表示例では、第1表示領域511D、第2表示領域512D、第3表示領域513D及び第4表示領域514Dは、それぞれ、図8等に示した第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514に対応する。なお、操作ボタン表示領域520は図8等に示した操作ボタン表示領域と同様であるため、重複する説明を省略する。 FIG. 21 is a diagram showing a display example of the display surface 51D when the electronic zoom is performed in the fifth embodiment. In the display example of the display unit 50D shown in FIG. 21, the first display area 511D, the second display area 512D, the third display area 513D, and the fourth display area 514D are the first display area 511 shown in FIG. , The second display area 512, the third display area 513, and the fourth display area 514. Since the operation button display area 520 is the same as the operation button display area shown in FIG. 8 and the like, duplicate description will be omitted.

例えば、図21に示すように、使用者は、電子ズームによって第1表示領域511D内の領域516Dに表示されている人物の画像O1の拡大表示を行うために、第1表示領域511D上に形成されているタッチパネルのタッチ操作を行って領域516Dを選択する。このような操作に応じて、制御部71は、第1表示領域511D内の領域516Dに表示されている人物の画像O1を、第1表示領域511Dの全領域に拡大表示させる。また、制御部71は、第1表示領域511Dにおける人物の画像O1の拡大表示と同じ表示倍率で、第2表示領域512D、第3表示領域513D及び第4表示領域514Dにおいても人物の画像O1を拡大表示させる。すなわち、制御部71は、第2表示領域512D内の領域517Dに表示されている人物の画像O1を、第2表示領域512Dの全領域に拡大表示させる。また、制御部71は、第3表示領域513D内の領域518Dに表示されている人物の画像O1を、第3表示領域513Dの全領域に拡大表示させる。また、制御部71は、第4表示領域514D内の領域519Dに表示されている人物の画像O1を、第4表示領域514Dの全領域に拡大表示させる。 For example, as shown in FIG. 21, the user is formed on the first display area 511D in order to enlarge the image O1 of the person displayed in the area 516D in the first display area 511D by the electronic zoom. The area 516D is selected by performing a touch operation on the touch panel. In response to such an operation, the control unit 71 enlarges and displays the image O1 of the person displayed in the area 516D in the first display area 511D in the entire area of the first display area 511D. Further, the control unit 71 displays the image O1 of the person in the second display area 512D, the third display area 513D, and the fourth display area 514D at the same display magnification as the enlarged display of the image O1 of the person in the first display area 511D. Enlarge the display. That is, the control unit 71 enlarges and displays the image O1 of the person displayed in the area 517D in the second display area 512D in the entire area of the second display area 512D. Further, the control unit 71 enlarges and displays the image O1 of the person displayed in the area 518D in the third display area 513D in the entire area of the third display area 513D. Further, the control unit 71 enlarges and displays the image O1 of the person displayed in the area 519D in the fourth display area 514D in the entire area of the fourth display area 514D.

なお、制御部71は、第1表示領域511D、第2表示領域512D、第3表示領域513D及び第4表示領域514Dのうちのいずれかの表示領域において電子ズームによる画像の縮小表示を行った場合に、そのような画像の縮小表示に合わせて他の表示領域においても画像の縮小表示を行うことも可能である。例えば、図21に示すように、使用者は、電子ズームによって第1表示領域511Dの全領域に表示されている人物の画像O1の縮小表示を行うために、第1表示領域511D上に形成されているタッチパネルのタッチ操作を行って第1表示領域511Dの全領域を選択する。このような操作に応じて、制御部71は、第1表示領域511Dの全領域に表示されている人物の画像O1を、第1表示領域511Dの領域516Dに縮小表示させる。また、制御部71は、第1表示領域511Dにおける人物の画像O1の縮小表示と同じ表示倍率で、第2表示領域512D、第3表示領域513D及び第4表示領域514Dにおいても人物の画像O1を縮小表示させる。 When the control unit 71 performs reduced display of the image by electronic zoom in any of the display areas of the first display area 511D, the second display area 512D, the third display area 513D, and the fourth display area 514D. In addition, it is also possible to perform the reduced display of the image in other display areas in accordance with the reduced display of such an image. For example, as shown in FIG. 21, the user is formed on the first display area 511D in order to reduce the image O1 of the person displayed in the entire area of the first display area 511D by the electronic zoom. The entire area of the first display area 511D is selected by performing a touch operation on the touch panel. In response to such an operation, the control unit 71 reduces the image O1 of the person displayed in the entire area of the first display area 511D to the area 516D of the first display area 511D. Further, the control unit 71 displays the image O1 of the person in the second display area 512D, the third display area 513D, and the fourth display area 514D at the same display magnification as the reduced display of the image O1 of the person in the first display area 511D. Reduce the display.

以上に説明したように、第5実施形態では、制御部71は、表示部50Dにおいて第1画像(例えば第1表示領域511Dに表示されている人物の画像O1)及び第2画像(例えば第2表示領域512Dに表示されている人物の画像O1)のいずれか一方を拡大または縮小することに合わせて、第1画像及び第2画像のいずれか他方を拡大または縮小する。このような構成によれば、使用者は電子ズームにより画像を拡大または縮小させた場合に、各表示領域に表示されている画像の大きさを合わせることができ、撮像条件の違いに起因した各画像の違いを容易に認識することができる。また、使用者は画像ごとに拡大または縮小の操作を行う必要がなく、使用者の操作労力が増加しない。 As described above, in the fifth embodiment, the control unit 71 has the first image (for example, the image O1 of the person displayed in the first display area 511D) and the second image (for example, the second image) on the display unit 50D. One of the first image and the second image is enlarged or reduced in accordance with the enlargement or reduction of one of the images O1) of the person displayed in the display area 512D. According to such a configuration, when the image is enlarged or reduced by the electronic zoom, the user can adjust the size of the image displayed in each display area, and each of them is caused by the difference in the imaging conditions. The difference between the images can be easily recognized. In addition, the user does not need to perform an enlargement or reduction operation for each image, and the operation effort of the user does not increase.

なお、使用者がタッチパネルのタッチ操作を行うことにより電子ズームを実行する構成に限られず、使用者が操作部55の電子ズームスイッチ(例えば電子ズームの実行時に操作されるスイッチ)などを操作することにより電子ズームを実行する構成でもよい。 The configuration is not limited to the configuration in which the user executes the electronic zoom by performing a touch operation on the touch panel, and the user operates an electronic zoom switch (for example, a switch operated when executing the electronic zoom) of the operation unit 55. It may be configured to execute electronic zoom by.

<第6実施形態>
図22は、第6実施形態における表示面51Eの表示例を示す図である。図22に示す表示部50Eの表示例では、第1表示領域511E、第2表示領域512E、第3表示領域513E及び第4表示領域514Eは、それぞれ、図8等に示した第1表示領域511、第2表示領域512、第3表示領域513及び第4表示領域514に対応する。なお、操作ボタン表示領域520は図8等に示した操作ボタン表示領域と同様であるため、重複する説明を省略する。
<Sixth Embodiment>
FIG. 22 is a diagram showing a display example of the display surface 51E in the sixth embodiment. In the display example of the display unit 50E shown in FIG. 22, the first display area 511E, the second display area 512E, the third display area 513E, and the fourth display area 514E are the first display area 511 shown in FIG. , The second display area 512, the third display area 513, and the fourth display area 514. Since the operation button display area 520 is the same as the operation button display area shown in FIG. 8 and the like, duplicate description will be omitted.

図22に示すように、制御部71は、第1表示領域511E、第2表示領域512E、第3表示領域513E及び第4表示領域514Eにおいて、第1画像、第2画像、第3画像及び第4画像の上に重ねて、これらの画像の撮像条件をそれぞれ表示する。図22に示す例では、第1画像の撮像条件として、ISO感度として「100」が設定され、シャッタースピードとして「1/2秒」が設定され、ピクチャーコントロールとして「スタンダード」が設定され、撮影モードとして「P」が設定されている状態を示している。また、第2画像の撮像条件として、ISO感度として「200」が設定され、シャッタースピードとして「1/100秒」が設定され、ピクチャーコントロールとして「スタンダード」が設定され、撮影モードとして「P」が設定されている状態を示している。また、第3画像の撮像条件として、ISO感度として「400」が設定され、シャッタースピードとして「1/500秒」が設定され、ピクチャーコントロールとして「スタンダード」が設定され、撮影モードとして「P」が設定されている状態を示している。また、第4画像の撮像条件として、ISO感度として「800」が設定され、シャッタースピードとして「1/1000秒」が設定され、ピクチャーコントロールとして「スタンダード」が設定され、撮影モードとして「P」が設定されている状態を示している。このような構成によれば、使用者は各表示領域において現在設定されている撮像条件を容易に確認することができる。 As shown in FIG. 22, the control unit 71 has a first image, a second image, a third image, and a third image in the first display area 511E, the second display area 512E, the third display area 513E, and the fourth display area 514E. The imaging conditions of these images are displayed by superimposing them on the four images. In the example shown in FIG. 22, “100” is set as the ISO sensitivity, “1/2 second” is set as the shutter speed, “standard” is set as the picture control, and the shooting mode is set as the imaging condition of the first image. Indicates a state in which "P" is set as. Further, as the imaging condition of the second image, "200" is set as the ISO sensitivity, "1/100 second" is set as the shutter speed, "standard" is set as the picture control, and "P" is set as the shooting mode. Indicates the set state. Further, as the imaging condition of the third image, "400" is set as the ISO sensitivity, "1/500 second" is set as the shutter speed, "standard" is set as the picture control, and "P" is set as the shooting mode. Indicates the set status. Further, as the imaging condition of the fourth image, "800" is set as the ISO sensitivity, "1/1000 second" is set as the shutter speed, "standard" is set as the picture control, and "P" is set as the shooting mode. Indicates the set status. With such a configuration, the user can easily confirm the imaging conditions currently set in each display area.

なお、表示部の表示面の下部に、使用者により選択されている表示領域(例えば第1表示領域)において現在設定されている撮像条件を表示する撮像条件表示領域が設ける構成でもよい。また、制御部71は、撮像条件を所定時間だけ表示する構成でもよい。また、撮像条件の表示を行うか否かを選択するスイッチ(操作部55のスイッチ又はタッチパネル上のスイッチ)を設け、制御部71は、そのスイッチの操作に応じて、撮像条件表示領域550の撮像条件の表示又は非表示を制御する構成でもよい。 In addition, an imaging condition display area for displaying the imaging conditions currently set in the display area selected by the user (for example, the first display area) may be provided below the display surface of the display unit. Further, the control unit 71 may be configured to display the imaging conditions for a predetermined time. Further, a switch (switch of the operation unit 55 or a switch on the touch panel) for selecting whether or not to display the imaging condition is provided, and the control unit 71 captures the imaging condition display area 550 in response to the operation of the switch. It may be configured to control the display or non-display of the condition.

<第7実施形態>
図10等に示す操作ボタン表示領域520において、各ボタン521,522,523,524,525は、それぞれ予め決められた順序で配置されていた。すなわち、選択ボタン画像521は一番上に配置され、ISO感度ボタン画像522は上から2番目(すなわち選択ボタン画像521の下)に配置され、シャッタースピードボタン画像523は上から3番目(すなわちISO感度ボタン画像522の下)に配置され、ピクチャーコントロールボタン画像524は上から4番目(すなわちシャッタースピードボタン画像523の下)に配置され、撮像モードボタン画像525は一番下に配置されていた。一方、第7実施形態では、制御部71が表示領域内の被写体に応じて各ボタン521,522,523,524,525の配置を変更して表示する。また、第7実施形態では、制御部71が優先度の高いボタンを他のボタンの表示態様と異なる表示態様で表示する。
<7th Embodiment>
In the operation button display area 520 shown in FIG. 10 and the like, each button 521, 522, 523, 524, 525 was arranged in a predetermined order. That is, the selection button image 521 is placed at the top, the ISO sensitivity button image 522 is placed second from the top (ie below the selection button image 521), and the shutter speed button image 523 is placed third from the top (ie ISO). The picture control button image 524 was placed at the fourth position from the top (that is, below the shutter speed button image 523), and the image control button image 525 was placed at the bottom. On the other hand, in the seventh embodiment, the control unit 71 changes the arrangement of the buttons 521, 522, 523, 524, 525 according to the subject in the display area and displays them. Further, in the seventh embodiment, the control unit 71 displays the high-priority button in a display mode different from that of the other buttons.

図23は、第7実施形態における表示面51Fの表示例を示す図である。図23に示す表示部50Fの表示例では、選択ボタン画像521は一番上に配置され、シャッタースピードボタン画像523は上から2番目(すなわち選択ボタン画像521の下)に配置され、ピクチャーコントロールボタン画像524は上から3番目(すなわちシャッタースピードボタン画像523の下)に配置され、ISO感度ボタン画像522は上から4番目(すなわちピクチャーコントロールボタン画像524の下)に配置され、撮像モードボタン画像525は一番下に配置されている。また、図23に示すように、シャッタースピードボタン画像523は、他のボタン(選択ボタン画像521、ISO感度ボタン画像522、ピクチャーコントロールボタン画像524、撮像モードボタン画像525)よりも大きな領域のボタンとなっている。 FIG. 23 is a diagram showing a display example of the display surface 51F in the seventh embodiment. In the display example of the display unit 50F shown in FIG. 23, the selection button image 521 is arranged at the top, the shutter speed button image 523 is arranged at the second from the top (that is, below the selection button image 521), and the picture control button. The image 524 is placed third from the top (ie below the shutter speed button image 523), the ISO sensitivity button image 522 is placed fourth from the top (ie below the picture control button image 524), and the imaging mode button image 525. Is located at the bottom. Further, as shown in FIG. 23, the shutter speed button image 523 includes a button having a larger area than the other buttons (selection button image 521, ISO sensitivity button image 522, picture control button image 524, and imaging mode button image 525). It has become.

また、タッチパネル52において、タッチ領域521aが選択ボタン画像521上に重なるように形成されている。また、タッチ領域523aがシャッタースピードボタン画像523上に重なるように形成されている。また、タッチ領域524aがピクチャーコントロールボタン画像524上に重なるように形成されている。また、タッチ領域522aがISO感度ボタン画像522上に重なるように形成されている。また、タッチ領域525aが撮像モードボタン画像525上に重なるように形成されている。なお、タッチ領域523aは、シャッタースピードボタン画像523の領域の大きさに合わせて、他のボタンの領域よりも大きな領域となっている。 Further, in the touch panel 52, the touch area 521a is formed so as to overlap the selection button image 521. Further, the touch region 523a is formed so as to overlap the shutter speed button image 523. Further, the touch area 524a is formed so as to overlap the picture control button image 524. Further, the touch region 522a is formed so as to overlap the ISO sensitivity button image 522. Further, the touch region 525a is formed so as to overlap the image pickup mode button image 525. The touch area 523a is larger than the area of the other buttons according to the size of the area of the shutter speed button image 523.

次に、画像処理部30及びシステム制御部70による各ボタン521,522,523,524,525の配置の変更処理について説明する。使用者が撮像条件を変更するときに、システム制御部70は、画像処理部30に対して移動被写体の検出を指示する。画像処理部30は、ライブビュー画像から時系列的に得られる複数の画像データを比較して、移動被写体と非移動被写体とを検出する。そして、画像処理部30は、検出結果を画像データとともにシステム制御部70に出力する。 Next, the process of changing the arrangement of the buttons 521, 522, 523, 524, 525 by the image processing unit 30 and the system control unit 70 will be described. When the user changes the imaging conditions, the system control unit 70 instructs the image processing unit 30 to detect the moving subject. The image processing unit 30 compares a plurality of image data obtained from the live view image in time series to detect a moving subject and a non-moving subject. Then, the image processing unit 30 outputs the detection result to the system control unit 70 together with the image data.

制御部71は、画像処理部30の検出結果に基づいて、選択部72により選択された表示領域内に移動被写体が含まれているか否かを判定する。制御部71は、選択部72により選択された表示領域内に移動被写体が含まれていると判定した場合は、図23に示すように、シャッタースピードを設定するためのボタンであるシャッタースピードボタン画像523を上から2番目の位置に表示させる。また、制御部71は、シャッタースピードボタン画像523を他のボタンよりも大きく表示させる。 Based on the detection result of the image processing unit 30, the control unit 71 determines whether or not the moving subject is included in the display area selected by the selection unit 72. When the control unit 71 determines that the moving subject is included in the display area selected by the selection unit 72, the shutter speed button image, which is a button for setting the shutter speed, is as shown in FIG. Display 523 at the second position from the top. Further, the control unit 71 displays the shutter speed button image 523 larger than the other buttons.

シャッタースピードの変更により、移動被写体の写り方が変化する。例えば、移動被写体が滝である場合、シャッタースピードを高く(速く)することにより、滝の水の流れが瞬間的に止まったような画像となる。一方、シャッタースピードを低く(遅く)することにより、滝の水の流れが糸に見えるような画像となる。このように、移動被写体については、シャッタースピードが他の撮像条件よりも被写体の写り方に大きく影響する。従って、制御部71は、領域内に移動被写体が含まれている場合、シャッタースピードの優先度が他の撮像条件よりも高いと判断する。そして、制御部71は、シャッタースピードボタン画像523の位置を上に移動させるとともに、シャッタースピードボタン画像523を大きな領域のボタンとして表示させる。これにより、優先度の高いボタンが使用者にとって操作しやすい位置に配置され、使用者の操作性が向上する。また、優先度の高いボタン(つまり撮像条件)が他のボタン(つまり撮像条件)よりも目立つようになり、使用者に優先度の高いボタンの操作を促すことができる。 By changing the shutter speed, the appearance of moving subjects changes. For example, when the moving subject is a waterfall, increasing (fastening) the shutter speed produces an image in which the flow of water in the waterfall stops momentarily. On the other hand, by lowering (slowering) the shutter speed, the image shows the flow of water in the waterfall as if it were a thread. As described above, for a moving subject, the shutter speed has a greater influence on how the subject is captured than other imaging conditions. Therefore, when the moving subject is included in the area, the control unit 71 determines that the priority of the shutter speed is higher than other imaging conditions. Then, the control unit 71 moves the position of the shutter speed button image 523 upward and displays the shutter speed button image 523 as a button in a large area. As a result, the high-priority buttons are arranged at positions that are easy for the user to operate, and the operability of the user is improved. In addition, the high-priority button (that is, the imaging condition) becomes more prominent than the other buttons (that is, the imaging condition), and the user can be prompted to operate the high-priority button.

上述した例では、制御部71は、領域内の被写体が移動被写体であるか否かによってボタンの配置や表示態様(大きさ)を変更するようにしていたが、このような構成に限らない。例えば、システム制御部70は、画像処理部30に対して画像の明度の検出を指示する。画像処理部30は、ライブビュー画像に基づいて領域内の画像の明度を検出する。そして、画像処理部30は、検出結果を画像データとともにシステム制御部70に出力する。 In the above-described example, the control unit 71 is designed to change the arrangement and display mode (size) of the buttons depending on whether or not the subject in the area is a moving subject, but the configuration is not limited to this. For example, the system control unit 70 instructs the image processing unit 30 to detect the brightness of the image. The image processing unit 30 detects the brightness of the image in the region based on the live view image. Then, the image processing unit 30 outputs the detection result to the system control unit 70 together with the image data.

制御部71は、画像処理部30による明度の検出結果に基づいて、選択部72により選択された領域内の画像の明度が所定範囲内の値であるか否かを判定する。制御部71は、領域内の画像の明度が所定範囲内の値でないと判定した場合は、ISO感度を設定するためのボタンであるISO感度ボタン画像522を上から2番目の位置に表示させる。また、制御部71は、ISO感度ボタン画像522を他のボタンよりも大きく表示させる。 The control unit 71 determines whether or not the brightness of the image in the region selected by the selection unit 72 is within a predetermined range based on the detection result of the brightness by the image processing unit 30. When the control unit 71 determines that the brightness of the image in the area is not within the predetermined range, the control unit 71 displays the ISO sensitivity button image 522, which is a button for setting the ISO sensitivity, at the second position from the top. Further, the control unit 71 displays the ISO sensitivity button image 522 larger than the other buttons.

ISO感度の変更により、ライブビュー画像の暗い部分が明るくなり、明るい部分が暗くなる。領域内の明度が所定範囲内の値でない場合、すなわち、領域内の画像が明るすぎる場合や暗すぎる場合は、ISO感度を変更することにより最適露出に近づけることができる。従って、制御部71は、領域内の画像が所定範囲内の値でない場合、ISO感度の優先度が他の撮像条件よりも高いと判断する。そして、制御部71は、ISO感度ボタン画像522の位置を上に移動させるとともに、ISO感度ボタン画像522を大きな領域のボタンとして表示させる。これにより、優先度の高いボタンが使用者にとって操作しやすい位置に配置され、使用者の操作性が向上する。また、優先度の高いボタン(つまり撮像条件)が他のボタン(つまり撮像条件)よりも目立つようになり、使用者に優先度の高いボタンの操作を促すことができる。 By changing the ISO sensitivity, the dark part of the live view image becomes brighter and the bright part becomes darker. When the brightness in the region is not within the predetermined range, that is, when the image in the region is too bright or too dark, the optimum exposure can be approached by changing the ISO sensitivity. Therefore, the control unit 71 determines that the priority of the ISO sensitivity is higher than other imaging conditions when the image in the region is not within the predetermined range. Then, the control unit 71 moves the position of the ISO sensitivity button image 522 upward and displays the ISO sensitivity button image 522 as a button in a large area. As a result, the high-priority buttons are arranged at positions that are easy for the user to operate, and the operability of the user is improved. In addition, the high-priority button (that is, the imaging condition) becomes more prominent than the other buttons (that is, the imaging condition), and the user can be prompted to operate the high-priority button.

なお、優先度の高いボタンを目立たせるような表示態様として、ボタンを大きくするほかに、ボタンの色を変更したり、ボタンを点滅表示させたりするような表示態様などでもよい。また、優先度の高いボタンが使用者により押される前に、そのボタンの横に撮像条件の値を複数表示させることにより、優先度の高いボタンを目立たせるようにしてもよい。また、ボタンの配置だけを変更する構成でもよく、また、ボタンの表示態様だけを変更する構成でもよい。 As a display mode that makes the high-priority button stand out, in addition to enlarging the button, a display mode such as changing the color of the button or blinking the button may be used. Further, before the high-priority button is pressed by the user, a plurality of imaging condition values may be displayed next to the button to make the high-priority button stand out. Further, only the arrangement of the buttons may be changed, or only the display mode of the buttons may be changed.

また、使用者がボタンを操作する順序に応じて、ボタンの配置を変更し、ボタンの表示態様を変更するようにしてもよい。例えば、使用者は、選択ボタン画像521を押した後に表示領域を選択する。次に、使用者は、撮像モードボタン画像525を押して撮影モードとしてマニュアルモードを選択する。その後に、使用者は、表示領域ごとに撮像条件を変更する。このような場合、制御部71は、選択ボタン画像521を一番上に配置するとともに選択ボタン画像521を大きくする。次に、制御部71は、撮像モードボタン画像525を一番上に配置するとともに撮像モードボタン画像525を大きくする。その後、制御部71は、表示領域ごとの被写体(画像)に応じて、ISO感度ボタン画像522、シャッタースピードボタン画像523、及びピクチャーコントロールボタン画像524のいずれかを一番上に配置し、さらに、その一番上のボタンを大きくする。このように、使用者の操作手順に沿った順序でボタンの配置や表示態様を変更することにより、使用者による操作の利便性が向上する。 Further, the arrangement of the buttons may be changed and the display mode of the buttons may be changed according to the order in which the user operates the buttons. For example, the user selects a display area after pressing the selection button image 521. Next, the user presses the image pickup mode button image 525 to select the manual mode as the shooting mode. After that, the user changes the imaging conditions for each display area. In such a case, the control unit 71 arranges the selection button image 521 at the top and enlarges the selection button image 521. Next, the control unit 71 arranges the image pickup mode button image 525 at the top and enlarges the image pickup mode button image 525. After that, the control unit 71 arranges any one of the ISO sensitivity button image 522, the shutter speed button image 523, and the picture control button image 524 at the top according to the subject (image) for each display area. Make the top button bigger. In this way, by changing the arrangement and display mode of the buttons in the order according to the operation procedure of the user, the convenience of the operation by the user is improved.

<第8実施形態>
一般に、シャッター幕が全開になると同時にストロボを発光させることを先幕シンクロという。一方、シャッター幕が閉じ始める直前にストロボを発光させることを後幕シンクロという。第8実施形態では、設定部73は、第1撮像領域及び第2撮像領域に対して遅いシャッタースピード(例えば1/2秒)を設定する。また、システム制御部70は、第1撮像領域において電荷蓄積を終了させる直前にストロボ90を発光させる。つまり、第1撮像領域では後幕シンクロで撮像を行う。また、システム制御部70は、第2撮像領域において電荷蓄積を開始すると同時にストロボ90を発光させる。つまり、第2撮像領域では先幕シンクロで撮像を行う。
<8th Embodiment>
Generally, flashing the strobe at the same time as the shutter curtain is fully opened is called first curtain synchronization. On the other hand, firing the strobe just before the shutter curtain starts to close is called rear curtain synchronization. In the eighth embodiment, the setting unit 73 sets a slow shutter speed (for example, 1/2 second) with respect to the first imaging region and the second imaging region. In addition, the system control unit 70 causes the strobe 90 to emit light immediately before the charge accumulation is completed in the first imaging region. That is, in the first imaging region, imaging is performed by the rear curtain synchronization. Further, the system control unit 70 starts the charge accumulation in the second imaging region and at the same time causes the strobe 90 to emit light. That is, in the second imaging region, imaging is performed with the front curtain synchro.

図24は、第8実施形態におけるストロボ90の発光タイミングと電荷蓄積のタイミングとを示すタイミングチャートである。図24に示すように、設定部73は、ストロボ90が発光を開始するタイミングt2よりも前のタイミングt1から、ストロボ90による発光の光量が消失したタイミングt3まで、第1撮像領域において電荷蓄積を開始させる。また、設定部73は、ストロボ90が発光を開始するタイミングt2から、ストロボ90からの光量が消失したタイミングt3よりも後のタイミングt4まで、第2撮像領域において電荷蓄積を開始させる。そして、制御部71は、第1撮像領域で生成された画像データにより示される第1画像を第1表示領域511に表示し、第2撮像領域で生成された画像データにより示される第2画像を第2表示領域512に表示する。 FIG. 24 is a timing chart showing the light emission timing and the charge accumulation timing of the strobe 90 in the eighth embodiment. As shown in FIG. 24, the setting unit 73 accumulates electric charge in the first imaging region from the timing t1 before the timing t2 when the strobe 90 starts emitting light to the timing t3 when the amount of light emitted by the strobe 90 disappears. Let's get started. Further, the setting unit 73 starts charge accumulation in the second imaging region from the timing t2 when the strobe 90 starts emitting light to the timing t4 after the timing t3 when the amount of light from the strobe 90 disappears. Then, the control unit 71 displays the first image indicated by the image data generated in the first imaging region in the first display region 511, and displays the second image indicated by the image data generated in the second imaging region. It is displayed in the second display area 512.

これにより、使用者は後幕シンクロで撮影された第1画像と先幕シンクロで撮影された第2画像とがどのように違うかについて事前に確認することができる。例えば、先幕シンクロの場合は、被写体である車のライトや車は光跡と残像は車の前に残る。従って、本当は車が前進しているのに車がバックしているような画像となる。一方、後幕シンクロの場合は、車のライトや車は光跡と残像は自然に車の後ろに出現する画像となる。 As a result, the user can confirm in advance how the first image taken by the rear curtain synchro and the second image taken by the front curtain synchro are different. For example, in the case of front curtain synchronization, the light and afterimage of the car light and car that are the subject remain in front of the car. Therefore, the image looks like the car is backing even though the car is actually moving forward. On the other hand, in the case of the rear curtain synchro, the light trail and afterimage of the car light and the car are images that naturally appear behind the car.

<第9実施形態>
第9実施形態では、上記した第1実施形態におけるデジタルカメラ1を、撮像装置1Aと電子機器1Bとに分離した構成としている。
<9th embodiment>
In the ninth embodiment, the digital camera 1 in the first embodiment described above is separated into an image pickup device 1A and an electronic device 1B.

図25は、第9実施形態に係る撮像装置1A及び電子機器1Bの構成を示すブロック図である。図25に示す構成において、撮像装置1Aは、被写体の撮像を行う装置である。この撮像装置1Aは、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、記録部60、及び第1システム制御部70Aを備える。なお、撮像装置1Aのうち、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、及び記録部60の構成は、図7に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 FIG. 25 is a block diagram showing the configurations of the image pickup apparatus 1A and the electronic device 1B according to the ninth embodiment. In the configuration shown in FIG. 25, the image pickup apparatus 1A is an apparatus for imaging a subject. The image pickup device 1A includes a lens unit 10, an image pickup unit 20, an image processing unit 30, a work memory 40, an operation unit 55, a recording unit 60, and a first system control unit 70A. In the image pickup apparatus 1A, the configuration of the lens unit 10, the image pickup unit 20, the image processing unit 30, the work memory 40, the operation unit 55, and the recording unit 60 is the same as the configuration shown in FIG. Therefore, the same reference numerals are given to the same configurations, and duplicate description will be omitted.

また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部(制御部)70Bを備える。なお、電子機器1Bのうちの表示部50の構成は、図7に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 Further, the electronic device 1B is a device that displays an image (still image, moving image, live view image). The electronic device 1B includes a display unit 50 and a second system control unit (control unit) 70B. The configuration of the display unit 50 in the electronic device 1B is the same as the configuration shown in FIG. 7. Therefore, the same reference numerals are given to the same configurations, and duplicate description will be omitted.

第1システム制御部70Aは、第1通信部75Aを有している。また、第2システム制御部70Bは、第2通信部75Bを有している。第1通信部75Aと第2通信部75Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部70Aは、第1通信部75Aを介して画像データ(画像処理部30が画像処理した画像データ、記録部60に記録されている画像データ)を第2通信部75Bに送信する。第2システム制御部70Bは、第2通信部75Bにおいて受信した画像データを表示部50に表示させる。また、第2システム制御部70Bは、予め設定されているメニュー画像を第2表示部53に表示させる。 The first system control unit 70A has a first communication unit 75A. Further, the second system control unit 70B has a second communication unit 75B. The first communication unit 75A and the second communication unit 75B transmit and receive signals by wire or wirelessly to each other. In such a configuration, the first system control unit 70A secondly receives image data (image data image-processed by the image processing unit 30 and image data recorded in the recording unit 60) via the first communication unit 75A. It transmits to the communication unit 75B. The second system control unit 70B causes the display unit 50 to display the image data received by the second communication unit 75B. In addition, the second system control unit 70B causes the second display unit 53 to display a preset menu image.

また、第2システム制御部70Bは、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を変更する制御を行う。また、第2システム制御部70Bは、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、画像表示領域510内の各表示領域を選択する制御を行う。また、第1システム制御部70Aは、使用者による操作部(電子機器1B側に設けられた静止画や動画の撮像開始を指示する操作部)55の操作に応じて撮像の制御を実行する。 Further, the second system control unit 70B controls to change the imaging condition (including the accumulation condition) according to the touch operation of the touch panel 52 by the user or automatically. In addition, the second system control unit 70B controls to select each display area in the image display area 510 in response to a touch operation of the touch panel 52 by the user or automatically. Further, the first system control unit 70A executes imaging control in response to an operation of the operation unit (operation unit provided on the electronic device 1B side for instructing the start of imaging of a still image or moving image) 55 by the user.

図7に示す構成(制御部71、選択部72、設定部73、及び分割部74)は、第1システム制御部70Aと第2システム制御部70Bのいずれに設けられてもよい。図7に示すすべての構成は、第1システム制御部70A又は第2システム制御部70Bに設けられてもよく、また図7に示す構成の一部が第1システム制御部70Aに設けられ、図7に示す構成の一部以外の構成が第2システム制御部70Bに設けられてもよい。 The configuration shown in FIG. 7 (control unit 71, selection unit 72, setting unit 73, and division unit 74) may be provided in either the first system control unit 70A or the second system control unit 70B. All the configurations shown in FIG. 7 may be provided in the first system control unit 70A or the second system control unit 70B, and a part of the configurations shown in FIG. 7 is provided in the first system control unit 70A. A configuration other than a part of the configuration shown in 7 may be provided in the second system control unit 70B.

なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。 The imaging device 1A is composed of, for example, a digital camera, a smartphone, a mobile phone, a personal computer or the like having an imaging function and a communication function, and the electronic device 1B is, for example, a smartphone, a mobile phone or a portable personal having a communication function. It consists of mobile terminals such as computers.

図25に示す第1システム制御部70Aは、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図25に示す第2システム制御部70Bは、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。 The first system control unit 70A shown in FIG. 25 is realized by the body-side CPU executing processing based on the control program. Further, the second system control unit 70B shown in FIG. 25 is realized by the body-side CPU executing processing based on the control program.

以上に説明したように、第9実施形態では、第1実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1Aで撮像されている複数のライブビュー画像を確認した上で撮像を行うことができる。 As described above, in the ninth embodiment, in addition to the effects described in the first embodiment, after confirming a plurality of live view images captured by the image pickup device 1A using a mobile terminal such as a smartphone. Imaging can be performed.

なお、図25に示す構成において、画像処理部30と第1システム制御部70Aとは一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部70Aの機能を担う。 In the configuration shown in FIG. 25, the image processing unit 30 and the first system control unit 70A may be integrally configured. In this case, the system control unit having one body-side CPU takes charge of the function of the image processing unit 30 and the function of the first system control unit 70A by performing processing based on the control program.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various changes or improvements can be made to the above-described embodiment without departing from the spirit of the present invention. In addition, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, or omitted forms are also included in the technical scope of the present invention. Further, it is also possible to appropriately combine and apply the configurations of the above-described embodiments and modifications.

例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。 For example, in each of the above-described embodiments, the array of the color filter 102 is a Bayer array, but an array other than this array may be used. Further, the number of pixels forming the unit group 131 may include at least one pixel. Further, the block may also include at least one pixel. Therefore, it is possible to perform imaging under different imaging conditions for each pixel.

また、上記した各実施形態において、駆動部21は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部30の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部70の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。 Further, in each of the above-described embodiments, a part or all of the drive unit 21 may be mounted on the imaging chip 113, or a part or all of the configurations may be mounted on the signal processing chip 111. Further, a part of the configuration of the image processing unit 30 may be mounted on the image pickup chip 113 or the signal processing chip 111. Further, a part of the configuration of the system control unit 70 may be mounted on the image pickup chip 113 or the signal processing chip 111.

また、上記した各実施形態において、使用者が表示領域を選択した後に撮像条件(蓄積条件を含む)を変更するように構成していたが、使用者が撮像条件を変更した後に、その変更した撮像条件を反映させる表示領域を選択するように構成してもよい。また、上記した第1実施形態及び第2実施形態において、制御部71は、表示パネル51おける4つの表示領域のうち、使用者により選択された表示領域(ライブビュー画像)を表示パネル51から消去するようにしてもよい。このような構成によれば、使用者が撮像を望まない撮像条件のライブビュー画像を消去して、使用者が望むライブビュー画像を容易に見比べることができるようになる。また、制御部71は、使用者により選択された表示領域(ライブビュー画像)を表示パネル51から消去した場合に、消去した表示領域のスペースに合成部32が合成したライブビュー画像を表示してもよい。 Further, in each of the above-described embodiments, the imaging conditions (including the accumulation conditions) are changed after the user selects the display area, but the changes are made after the user changes the imaging conditions. It may be configured to select a display area that reflects the imaging conditions. Further, in the first embodiment and the second embodiment described above, the control unit 71 erases the display area (live view image) selected by the user from the display panel 51 among the four display areas on the display panel 51. You may try to do it. According to such a configuration, the live view image under the imaging condition that the user does not want to be imaged can be erased, and the live view image desired by the user can be easily compared. Further, when the display area (live view image) selected by the user is erased from the display panel 51, the control unit 71 displays the live view image synthesized by the compositing unit 32 in the space of the erased display area. May be good.

また、上記した各実施形態において、1回の全押し操作に応じて、撮像部20は画素領域113Aのすべての領域(全画素)について、使用者に選択された表示領域の撮像条件で撮像を行うように構成していた。しかし、このような構成に限らず、1回の全押し操作に応じて、撮像部20は画素領域113Aのうち、分割された1つの撮像領域(例えば第1撮像領域)について、使用者に選択された表示領域の撮像条件で撮像を行う構成でもよい。また、使用者が2つ以上の表示領域を選択可能としてもよい。この場合、1回の全押し操作に応じて、撮像部20は画素領域113Aのうち、分割された2つ以上の撮像領域(例えば第1撮像領域と第2撮像領域)について、使用者に選択された2つ以上の表示領域の撮像条件で同時に撮像を行う構成でもよい。 Further, in each of the above-described embodiments, in response to one full-press operation, the imaging unit 20 images all the regions (all pixels) of the pixel region 113A under the imaging conditions of the display region selected by the user. It was configured to do. However, the present invention is not limited to such a configuration, and the imaging unit 20 selects one divided imaging region (for example, the first imaging region) of the pixel region 113A by the user in response to one full-press operation. It may be configured to perform imaging under the imaging conditions of the displayed display area. Further, the user may be able to select two or more display areas. In this case, in response to one full-press operation, the imaging unit 20 selects two or more divided imaging regions (for example, a first imaging region and a second imaging region) in the pixel region 113A by the user. It is also possible to perform imaging at the same time under the imaging conditions of the two or more display regions.

また、図5に示したように、画素領域113Aにおける各撮像領域は、それぞれ、異なる複数のブロックで構成されている。従って、画像生成部31は、各撮像領域で撮像したライブビュー画像を重ね合わせて画素領域113Aの全画素についての1つのライブビュー画像を生成することも可能である。そして、制御部71は、そのように画像生成部31が生成したライブビュー画像を表示パネル51(画像表示領域510)に表示するようにしてもよい。また、画像表示領域510における各表示領域511,512,513,514(又は各表示領域516,517,518,519)は同じ面積の表示領域とされていたが、異なる面積の表示領域とされてもよい。 Further, as shown in FIG. 5, each imaging region in the pixel region 113A is composed of a plurality of different blocks. Therefore, the image generation unit 31 can also superimpose the live view images captured in each imaging region to generate one live view image for all the pixels in the pixel region 113A. Then, the control unit 71 may display the live view image thus generated by the image generation unit 31 on the display panel 51 (image display area 510). Further, each display area 511, 521, 513, 514 (or each display area 516, 517, 518, 519) in the image display area 510 is a display area having the same area, but is a display area having a different area. May be good.

また、上記した各実施形態において、操作ボタン表示領域520は、画像表示領域510の近傍に設けられていたが、画像表示領域510の近傍でない位置に設けられてもよい。また、操作ボタン表示領域520は、画像表示領域510と重畳した位置に配置されてもよい。また、使用者がタッチパネル52をタッチ操作することに代えて、操作部55を操作するようにしてもよい。 Further, in each of the above-described embodiments, the operation button display area 520 is provided in the vicinity of the image display area 510, but may be provided in a position other than the vicinity of the image display area 510. Further, the operation button display area 520 may be arranged at a position superimposed on the image display area 510. Further, instead of the user touching the touch panel 52, the operation unit 55 may be operated.

また、上記した各実施形態において、使用者が選択したライブビュー画像の撮像条件と、レリーズスイッチ等の全押し操作に応じて撮像するときの撮像条件とは同じ条件であることを想定している。ライブビュー画像において実際に撮像される画像を確認することができるようにするためである。しかし、ライブビュー画像の撮像条件と実際に撮像される画像の撮像条件とを異ならせてもよい。この場合、使用者がライブビュー画像に基づいて実際に撮像される画像を認識できる程度の撮像条件の変更とされる。 Further, in each of the above-described embodiments, it is assumed that the imaging conditions of the live view image selected by the user and the imaging conditions when imaging in response to the full pressing operation of the release switch or the like are the same conditions. .. This is so that the image actually captured in the live view image can be confirmed. However, the imaging conditions of the live view image and the imaging conditions of the actually captured image may be different. In this case, the imaging conditions are changed to the extent that the user can recognize the image actually captured based on the live view image.

また、上記した各実施形態において、図5に示したように、分割部74は、撮像素子100の撮像領域113Aを、第1撮像領域、第2撮像領域、第3撮像領域及び第4撮像領域に分割していた。しかし、分割部74は、第1撮像領域と第2撮像領域との2つの領域に分割してもよく、第1撮像領域と第2撮像領域と第3撮像領域との3つの領域に分割してもよく、5以上の撮像領域に分割してもよい。この場合、分割部74が分割した撮像領域の数に合わせて、表示領域が表示部の画像表示領域に設けられる。すなわち、分割部74が2つの撮像領域に分割した場合は、2つの表示領域(第1表示領域と第2表示領域)が画像表示領域に設けられ、分割部74が5以上の撮像領域に分割した場合は、5以上の表示領域が画像表示領域に設けられる。 Further, in each of the above-described embodiments, as shown in FIG. 5, the division unit 74 sets the image pickup region 113A of the image pickup device 100 as the first image pickup area, the second image pickup area, the third image pickup area, and the fourth image pickup area. It was divided into. However, the division unit 74 may be divided into two regions, a first imaging region and a second imaging region, and is divided into three regions, a first imaging region, a second imaging region, and a third imaging region. It may be divided into 5 or more imaging regions. In this case, a display area is provided in the image display area of the display unit according to the number of image pickup regions divided by the division unit 74. That is, when the dividing portion 74 is divided into two imaging regions, two display regions (first display region and second display region) are provided in the image display region, and the dividing portion 74 is divided into five or more imaging regions. If so, 5 or more display areas are provided in the image display area.

また、上記した各実施形態では、画像表示領域における第1表示領域、第2表示領域、第3表示領域及び第4表示領域の大きさは固定であったが、第5実施形態では、画像表示領域における第1表示領域、第2表示領域、第3表示領域及び第4表示領域の大きさ(面積)を変更可能に構成してもよい。使用者は、例えば第1表示領域を指でつまむようにした後に指を遠ざける操作(ピンチアウト操作)を行う。このような操作に応じて、制御部71は、第1表示領域を拡大表示するように制御する。また、制御部71は、第1表示領域の拡大表示に応じて、第2表示領域、第3表示領域及び第4表示領域を自動的に縮小表示するように制御する。このような構成によれば、使用者が最も見たい(注目している画像を表示している表示領域)を拡大することができる。 Further, in each of the above-described embodiments, the sizes of the first display area, the second display area, the third display area, and the fourth display area in the image display area are fixed, but in the fifth embodiment, the image display The sizes (areas) of the first display area, the second display area, the third display area, and the fourth display area in the area may be changed. For example, the user performs an operation (pinch-out operation) of moving the finger away after pinching the first display area with the finger. In response to such an operation, the control unit 71 controls so that the first display area is enlarged and displayed. Further, the control unit 71 controls so that the second display area, the third display area, and the fourth display area are automatically reduced and displayed according to the enlarged display of the first display area. With such a configuration, it is possible to enlarge the area that the user wants to see most (the display area displaying the image of interest).

反対に、使用者は、例えば第1表示領域を指でつまむようにした後に指を近づける操作(ピンチイン操作)を行う。このような操作に応じて、制御部71は、第1表示領域を縮小表示するように制御する。また、制御部71は、第1表示領域の縮小表示に応じて、第2表示領域、第3表示領域及び第4表示領域を自動的に拡大表示するように制御する。このような構成によれば、使用者が注目していない画像を表示している表示領域を縮小することができる。 On the contrary, the user performs an operation (pinch-in operation) of bringing the fingers closer after pinching the first display area with the fingers, for example. In response to such an operation, the control unit 71 controls so that the first display area is reduced and displayed. Further, the control unit 71 controls so that the second display area, the third display area, and the fourth display area are automatically enlarged and displayed according to the reduced display of the first display area. According to such a configuration, it is possible to reduce the display area displaying an image that the user is not paying attention to.

なお、制御部71は、使用者の操作に応じて表示領域を拡大又は縮小するように構成していたが、推奨する撮像条件で撮像された画像を表示する表示領域を自動的に拡大し、他の表示領域を拡大した表示領域のサイズに合わせて自動的に縮小するように構成してもよい。 Although the control unit 71 is configured to enlarge or reduce the display area according to the operation of the user, the control unit 71 automatically expands the display area for displaying the image captured under the recommended imaging conditions. The other display area may be configured to be automatically reduced according to the size of the enlarged display area.

なお、表示部50,50A,50B,50C,50D,50E,50Fは、電圧の印加によりバックライトの透過を制御して各画素の表示を制御する液晶ディスプレイで構成されている場合に限定されず、電圧の印加により自発的な発光を制御して各画素の表示を制御する有機エレクトロルミネッセンス型の液晶ディスプレイで構成されていてもよい。 The display units 50, 50A, 50B, 50C, 50D, 50E, and 50F are not limited to the case where the display unit is composed of a liquid crystal display that controls the transmission of the backlight by applying a voltage to control the display of each pixel. It may be composed of an organic electroluminescence type liquid crystal display that controls the spontaneous light emission by applying a voltage to control the display of each pixel.

1,1B…デジタルカメラ1A…撮像装置、20…撮像部、30,30A…画像処理部、31…画像生成部、32…合成部、50,50A,50C,50D,50E,50F…表示部、50B…第1表示部、51,51A,51C,51D,51E,51F…表示面、52…タッチパネル(選択部)、53…第2表示部、70…システム制御部、70A…第1システム制御部、70B…第2システム制御部、71…制御部、72…選択部、72…設定部、73…設定部、74…分割部、100…撮像素子 1,1B ... Digital camera 1A ... Image sensor, 20 ... Imaging unit, 30, 30A ... Image processing unit, 31 ... Image generation unit, 32 ... Synthesis unit, 50, 50A, 50C, 50D, 50E, 50F ... Display unit, 50B ... 1st display unit, 51, 51A, 51C, 51D, 51E, 51F ... Display surface, 52 ... Touch panel (selection unit), 53 ... 2nd display unit, 70 ... System control unit, 70A ... 1st system control unit , 70B ... 2nd system control unit, 71 ... control unit, 72 ... selection unit, 72 ... setting unit, 73 ... setting unit, 74 ... division unit, 100 ... image sensor

Claims (20)

被写体を撮像する領域であって、光電変換された電荷により信号を生成する複数の画素と、前記複数の画素に接続され、前記信号を出力するための信号線と、前記複数の画素に接続され、前記信号を前記信号線に読み出すための制御線と、を含む撮像領域が第1方向と前記第1方向と交差する第2方向とに複数配置された撮像素子と、
前記撮像領域の撮像条件を設定する設定部と、
複数の前記撮像領域のうち、前記第1方向と前記第2方向とにおいてそれぞれ配置され、前記設定部により第1撮像条件が設定された複数の第1撮像領域で撮像された被写体の第1画像と、複数の前記撮像領域のうち、前記第1方向と前記第2方向とにおいてそれぞれ配置され、前記設定部により前記第1撮像条件とは異なる第2撮像条件が設定された複数の第2撮像領域で撮像された被写体の第2画像と、を前記設定部により前記複数の撮像領域に設定される撮像条件を選択させるように表示部に表示させる制御部と、を備える、電子機器。
A region for imaging a subject, which is connected to a plurality of pixels that generate a signal by photoelectrically converted charges, a signal line that is connected to the plurality of pixels and outputs the signal, and is connected to the plurality of pixels. A plurality of image pickup elements arranged in a first direction and a second direction in which an imaging region including the control line for reading the signal into the signal line intersects the first direction.
A setting unit that sets the imaging conditions of the imaging region, and
Among the plurality of the imaging regions, the first image of the subject imaged in the plurality of first imaging regions arranged in the first direction and the second direction, respectively, and the first imaging condition is set by the setting unit. When, among the plurality of imaging regions, wherein the first direction is arranged in a second direction, a plurality of second imaging different second imaging condition is set to the first imaging condition by the setting unit An electronic device including a second image of a subject imaged in a region and a control unit for displaying on a display unit so that the setting unit selects imaging conditions set in the plurality of imaging regions.
前記撮像素子は、第1半導体チップと前記第1半導体チップに接続される第2半導体チップとを有し、
前記第1半導体チップは、前記撮像領域が複数配置され、
前記第2半導体チップは、前記信号線に出力された前記信号をデジタル信号に変換する変換部が前記第1方向と前記第2方向とに複数配置される、請求項1に記載の電子機器。
The image pickup device has a first semiconductor chip and a second semiconductor chip connected to the first semiconductor chip.
The first semiconductor chip has a plurality of the imaging regions arranged therein.
The electronic device according to claim 1, wherein the second semiconductor chip has a plurality of conversion units for converting the signal output to the signal line into a digital signal arranged in the first direction and the second direction.
前記第1半導体チップと前記第2半導体チップとは、前記撮像領域に光を射出する光学系の光軸方向において並んで配置される、請求項2に記載の電子機器。 The electronic device according to claim 2, wherein the first semiconductor chip and the second semiconductor chip are arranged side by side in the optical axis direction of an optical system that emits light into the imaging region. 前記撮像素子は、前記第2半導体チップに接続される第3半導体チップを有し、
前記第3半導体チップは、前記変換部によりデジタル信号に変換された前記信号を記憶する記憶部が複数配置される、請求項2又は請求項3に記載の電子機器。
The image sensor has a third semiconductor chip connected to the second semiconductor chip, and has a third semiconductor chip.
The electronic device according to claim 2 or 3, wherein the third semiconductor chip is provided with a plurality of storage units for storing the signal converted into a digital signal by the conversion unit.
前記制御部は、選択された撮像条件が前記撮像領域に設定されるように前記設定部を制御する、請求項1から請求項4のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 4, wherein the control unit controls the setting unit so that the selected imaging conditions are set in the imaging region. 前記制御部は、前記第1画像と前記第2画像とのうちから選択された画像により前記撮像条件を前記撮像領域に設定させるように前記設定部を制御する、請求項1から請求項5のいずれか一項に記載の電子機器。 The control unit controls the setting unit so that the imaging condition is set in the imaging region by an image selected from the first image and the second image, according to claims 1 to 5. The electronic device according to any one item. 前記第1撮像領域は、前記第1方向において互いに離れて複数配置されている、請求項1から請求項6のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 6, wherein a plurality of the first imaging regions are arranged apart from each other in the first direction. 前記第1撮像領域は、前記第2方向において互いに離れて複数配置されている、請求項1から請求項7のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 7, wherein a plurality of the first imaging regions are arranged apart from each other in the second direction. 前記第2撮像領域は、前記第1方向において配置されている、複数の前記第1撮像領域の間に配置されている、請求項1から請求項8のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 8, wherein the second imaging region is arranged between a plurality of the first imaging regions arranged in the first direction. 前記第2撮像領域は、前記第2方向において配置されている、複数の前記第1撮像領域の間に配置されている、請求項1から請求項9のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 9, wherein the second imaging region is arranged in the second direction and is arranged between the plurality of first imaging regions. 前記第1撮像領域と前記第2撮像領域とは、前記第1方向において交互に配置されている、請求項1から請求項10のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 10, wherein the first imaging region and the second imaging region are alternately arranged in the first direction. 前記第1撮像領域と前記第2撮像領域とは、前記第2方向において交互に配置されている、請求項1から請求項11のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 11, wherein the first imaging region and the second imaging region are alternately arranged in the second direction. 前記制御部は、外部からの操作入力を受け付ける操作部を用いて前記撮像領域に設定する撮像条件を選択させる、請求項1から請求項12のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 12, wherein the control unit uses an operation unit that receives an operation input from the outside to select an imaging condition to be set in the imaging region. 前記制御部は、前記操作部としてタッチパネルを用いて前記撮像領域に設定する撮像条件を選択させる、請求項13に記載の電子機器。 The electronic device according to claim 13, wherein the control unit uses a touch panel as the operation unit to select imaging conditions to be set in the imaging region. 前記制御部は、前記操作部として操作部材を用いて前記撮像領域に設定する撮像条件を選択させる、請求項13又は請求項14に記載の電子機器。 The electronic device according to claim 13 or 14, wherein the control unit uses an operation member as the operation unit to select an imaging condition to be set in the imaging region. 前記画素は、光を電荷に変換する光電変換部を含み、
前記設定部は、前記撮像領域に、前記撮像条件として前記光電変換部の電荷蓄積時間を設定する、請求項1から請求項15のいずれか一項に記載の電子機器。
The pixel includes a photoelectric conversion unit that converts light into electric charge.
The electronic device according to any one of claims 1 to 15, wherein the setting unit sets the charge accumulation time of the photoelectric conversion unit as the imaging condition in the imaging region.
前記制御部は、前記第1画像と前記第2画像とを並べて前記表示部に表示させる、請求項1から請求項16のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 16, wherein the control unit displays the first image and the second image side by side on the display unit. 前記制御部は、前記第1画像と前記第2画像とを切り替えて前記表示部に表示させる、請求項1から請求項16のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 16, wherein the control unit switches between the first image and the second image and displays them on the display unit. 前記制御部は、前記第1画像と前記第2画像とを合成した画像を前記表示部に表示させる、請求項1から請求項16のいずれか一項に記載の電子機器。 The electronic device according to any one of claims 1 to 16, wherein the control unit displays an image obtained by combining the first image and the second image on the display unit. 前記制御部は、前記表示部に表示された前記第1画像と前記第2画像とのうち一方の画像が拡大又は縮小されたことにより、前記第1画像と前記第2画像とのうち、他方の画像を拡大又は縮小する、請求項1から請求項19のいずれか一項に記載の電子機器。 The control unit has the other of the first image and the second image due to the enlargement or reduction of one of the first image and the second image displayed on the display unit. The electronic device according to any one of claims 1 to 19, which enlarges or reduces the image of the above.
JP2019057995A 2019-03-26 2019-03-26 Electronics Active JP6822507B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019057995A JP6822507B2 (en) 2019-03-26 2019-03-26 Electronics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057995A JP6822507B2 (en) 2019-03-26 2019-03-26 Electronics

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018044271A Division JP2018117375A (en) 2018-03-12 2018-03-12 Electronic apparatus, control method for electronic apparatus and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021000961A Division JP7283488B2 (en) 2021-01-06 2021-01-06 Image sensor and electronic equipment

Publications (2)

Publication Number Publication Date
JP2019106731A JP2019106731A (en) 2019-06-27
JP6822507B2 true JP6822507B2 (en) 2021-01-27

Family

ID=67061527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019057995A Active JP6822507B2 (en) 2019-03-26 2019-03-26 Electronics

Country Status (1)

Country Link
JP (1) JP6822507B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006157862A (en) * 2004-11-08 2006-06-15 Matsushita Electric Ind Co Ltd Mos-type imaging device and imaging apparatus
JP2009033338A (en) * 2007-07-25 2009-02-12 Olympus Imaging Corp Imaging device
JP2013058661A (en) * 2011-09-09 2013-03-28 Sony Corp Solid-state imaging device and electronic apparatus
JP5808056B2 (en) * 2012-08-03 2015-11-10 カシオ計算機株式会社 Imaging apparatus, imaging control program, image reproduction apparatus, and image reproduction control program
JP5598515B2 (en) * 2012-08-30 2014-10-01 大日本印刷株式会社 Physical quantity sensor and manufacturing method thereof

Also Published As

Publication number Publication date
JP2019106731A (en) 2019-06-27

Similar Documents

Publication Publication Date Title
US11206353B2 (en) Electronic apparatus, method for controlling electronic apparatus, and control program for setting image-capture conditions of image sensor
JP6780745B2 (en) Electronics
JP6075393B2 (en) Electronic equipment and control program
JP6372488B2 (en) Electronics
WO2015022900A1 (en) Electronic device, electronic device control method, and control program
WO2015046565A1 (en) Electronic apparatus, electronic apparatus control method, and control program
JP6561428B2 (en) Electronic device, control method, and control program
JP6822507B2 (en) Electronics
JP6409883B2 (en) Electronic equipment and control program
JP2018117375A (en) Electronic apparatus, control method for electronic apparatus and control program
JP7283488B2 (en) Image sensor and electronic equipment
JP2016158294A (en) Electronic apparatus, control method for electronic apparatus and control program
JP7176591B2 (en) Electronics
JP6885374B2 (en) Electronics
JP2023054229A (en) Electronic apparatus
JP2018148590A (en) Electronic apparatus and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6822507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250