JP7176591B2 - Electronics - Google Patents

Electronics Download PDF

Info

Publication number
JP7176591B2
JP7176591B2 JP2021075700A JP2021075700A JP7176591B2 JP 7176591 B2 JP7176591 B2 JP 7176591B2 JP 2021075700 A JP2021075700 A JP 2021075700A JP 2021075700 A JP2021075700 A JP 2021075700A JP 7176591 B2 JP7176591 B2 JP 7176591B2
Authority
JP
Japan
Prior art keywords
unit
photoelectric conversion
area
electronic device
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021075700A
Other languages
Japanese (ja)
Other versions
JP2021121122A (en
Inventor
岳志 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2021075700A priority Critical patent/JP7176591B2/en
Publication of JP2021121122A publication Critical patent/JP2021121122A/en
Application granted granted Critical
Publication of JP7176591B2 publication Critical patent/JP7176591B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions

Description

本発明は、電子機器に関する。 The present invention relates to electronic equipment .

裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、この撮像素子を積層型撮像素子という。)を備えた電子機器が提案されている(例えば特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、複数画素をまとめたブロック単位ごとにマイクロバンプを介して接続されるように積層されている。 2. Description of the Related Art There has been proposed an electronic device provided with an image pickup device in which a back-illuminated image pickup chip and a signal processing chip are stacked (hereinafter, this image pickup device will be referred to as a stacked image pickup device) (see Patent Document 1, for example). In the stacked imaging device, a back-illuminated imaging chip and a signal processing chip are stacked such that they are connected via microbumps for each block unit in which a plurality of pixels are grouped together.

特開2006-49361号公報JP-A-2006-49361

しかし、従来の積層型撮像素子を備えた電子機器において、複数のブロック単位ごとに撮像して画像を取得する提案は多くなく、積層型撮像素子を備えた電子機器の使い勝手が十分ではなかった。 However, there are not many proposals for obtaining an image by capturing an image in units of a plurality of blocks in electronic devices equipped with conventional stacked imaging devices, and the usability of electronic devices equipped with stacked imaging devices has not been sufficient.

本発明の態様では、ライブビュー画像の第1領域の蓄積条件と第2領域の蓄積条件とを異ならせることにより、領域ごとの蓄積条件の変更に対応する画像の変化をライブビュー画像において確認することを目的とする。 According to the aspect of the present invention, the accumulation condition for the first area of the live view image is different from the accumulation condition for the second area, so that the change in the image corresponding to the change in the accumulation condition for each area can be confirmed in the live view image. for the purpose.

本発明の態様においては、電子機器を提供する。電子機器は、行方向と列方向とにおいて並んで配置され、光を電荷に変換する複数の光電変換部を備。電子機器は、複数の光電変換部のうちの第1光電変換部で変換された電荷の蓄積回数を、複数の光電変換部のうち、第1光電変換部から行方向の位置に配置される第2光電変換部で変換された電荷の蓄積回数とは異なる蓄積回数とするための操作を受け付ける操作部を備え。電子機器は、制御部により制御された第1光電変換部の電荷に基づく第1信号と、制御部により制御された第2光電変換部の電荷に基づく第2信号とを用いて生成される画像が表示される表示部を備え複数の光電変換部は、光が入射される第1半導体基板に配置される。制御部は、第1半導体基板に接続される第2半導体基板に配置される。 An aspect of the present invention provides an electronic device. An electronic device includes a plurality of photoelectric conversion units that are arranged side by side in row and column directions and convert light into charge. The electronic device stores the number of accumulations of charges converted by a first photoelectric conversion unit among the plurality of photoelectric conversion units at a position in the row direction from the first photoelectric conversion unit among the plurality of photoelectric conversion units. 2 An operation unit for receiving an operation for setting the number of times of accumulation of charges converted by the photoelectric conversion unit to be different from the number of times of accumulation. The electronic device generates a first signal based on the charge of the first photoelectric conversion unit controlled by the control unit and a second signal based on the charge of the second photoelectric conversion unit controlled by the control unit. and a display unit for displaying an image generated using the display unit. The plurality of photoelectric conversion units are arranged on a first semiconductor substrate on which light is incident. The controller is arranged on a second semiconductor substrate connected to the first semiconductor substrate.

本発明の態様によれば、ライブビュー画像の第1領域の蓄積条件と第2領域の蓄積条件とを異ならせることにより、領域ごとの蓄積条件の変更に対応する画像の変化をライブビュー画像において確認することができる。 According to the aspect of the present invention, by differentiating the accumulation condition for the first area of the live-view image from the accumulation condition for the second area, the change in the image corresponding to the change in the accumulation condition for each area can be displayed in the live-view image. can be confirmed.

積層型撮像素子の断面図である。1 is a cross-sectional view of a stacked imaging device; FIG. 撮像チップの画素配列と単位グループを説明する図である。It is a figure explaining the pixel arrangement|sequence of an imaging chip, and a unit group. 撮像チップの単位グループに対応する回路図である。FIG. 4 is a circuit diagram corresponding to a unit group of imaging chips; 撮像素子の機能的構成を示すブロック図である。3 is a block diagram showing the functional configuration of an imaging device; FIG. 第1実施形態に係る電子機器の構成を示すブロック図である。1 is a block diagram showing the configuration of an electronic device according to a first embodiment; FIG. 表示部における表示画面の一例を示す図である。It is a figure which shows an example of the display screen in a display part. 第1実施形態における画像処理部及びシステム制御部の機能ブロック図である。3 is a functional block diagram of an image processing section and a system control section in the first embodiment; FIG. 第1実施形態に係るシステム制御部が実行する撮影動作を説明するためのフローチャートである。4 is a flowchart for explaining a shooting operation performed by a system control unit according to the first embodiment; 画像表示領域に少ない数のブロックが設定される場合の表示画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a display screen when a small number of blocks are set in an image display area; 画像表示領域に少ない数のブロックが設定される場合の表示画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a display screen when a small number of blocks are set in an image display area; 画像表示領域に少ない数のブロックが設定される場合の表示画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a display screen when a small number of blocks are set in an image display area; 画像表示領域に少ない数のブロックが設定される場合の表示画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a display screen when a small number of blocks are set in an image display area; 第1実施形態に係る撮像処理の一例を示すフローチャートである。4 is a flowchart showing an example of imaging processing according to the first embodiment; 画像表示領域に多い数のブロックが設定される場合の表示画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a display screen when a large number of blocks are set in an image display area; 画像表示領域に多い数のブロックが設定される場合の表示画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a display screen when a large number of blocks are set in an image display area; 画像表示領域に多い数のブロックが設定される場合の表示画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a display screen when a large number of blocks are set in an image display area; 第2実施形態における画像処理部及びシステム制御部の機能ブロック図である。8 is a functional block diagram of an image processing unit and a system control unit in the second embodiment; FIG. 第2実施形態に係るシステム制御部が実行する撮影動作を説明するためのフローチャートである。9 is a flowchart for explaining a shooting operation performed by a system control unit according to the second embodiment; 領域及び撮像条件の自動設定処理の一例を示すフローチャートである。7 is a flow chart showing an example of automatic setting processing of an area and imaging conditions; 第2実施形態に係る撮像処理の一例を示すフローチャートである。9 is a flowchart showing an example of imaging processing according to the second embodiment; 選択された領域のみ撮像される場合の表示画面の表示例を示す図である。FIG. 10 is a diagram showing a display example of a display screen when only a selected region is imaged; 第3実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an imaging device and an electronic device according to a third embodiment; 第4実施形態における表示画面の表示例を示す図である。It is a figure which shows the example of a display of the display screen in 4th Embodiment.

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現している。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to this. In addition, in the drawings, in order to describe the embodiments, the scale is changed as appropriate, such as by enlarging or emphasizing a portion.

<第1実施形態>
図1は、積層型撮像素子の断面図である。なお、この積層型撮像素子100は、本願出願人が先に出願した特願2012-139026号に記載されているものである。撮像素子100は、入射光に対応した画素信号を出力する撮像チップ113と、画素信号を処理する信号処理チップ111と、画素信号を記憶するメモリチップ112とを備える。これら撮像チップ113、信号処理チップ111、及びメモリチップ112は積層されており、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
<First embodiment>
FIG. 1 is a cross-sectional view of a stacked imaging device. The stacked imaging device 100 is described in Japanese Patent Application No. 2012-139026 previously filed by the applicant of the present application. The imaging device 100 includes an imaging chip 113 that outputs pixel signals corresponding to incident light, a signal processing chip 111 that processes the pixel signals, and a memory chip 112 that stores the pixel signals. These imaging chip 113, signal processing chip 111, and memory chip 112 are stacked and electrically connected to each other by conductive bumps 109 such as Cu.

なお、図示するように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸及びX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。 Incidentally, as shown in the figure, the incident light is mainly incident in the Z-axis plus direction indicated by the white arrow. In the present embodiment, the surface of the imaging chip 113 on which incident light is incident is referred to as the rear surface. Also, as shown in the coordinate axes, the leftward direction of the paper perpendicular to the Z-axis is the positive X-axis direction, and the frontward direction of the paper perpendicular to the Z-axis and the X-axis is the positive Y-axis direction. In the following several figures, the coordinate axes are displayed with reference to the coordinate axes of FIG. 1 so that the direction of each figure can be understood.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のフォトダイオード(Photodiode;以下、PDという。)104、及び、PD104に対応して設けられたトランジスタ105を有する。 An example of the imaging chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is arranged on the back side of the wiring layer 108 . The PD layer 106 has a plurality of photodiodes (hereinafter referred to as PDs) 104 arranged two-dimensionally and storing charges according to incident light, and transistors 105 provided corresponding to the PDs 104 . .

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、可視光のうち特定の波長領域を通過させるフィルタである。このカラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104、及びトランジスタ105の組が一つの画素を形成する。 A color filter 102 is provided on the incident light side of the PD layer 106 with a passivation film 103 interposed therebetween. The color filter 102 is a filter that passes a specific wavelength region of visible light. This color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each of the PDs 104 . The arrangement of the color filters 102 will be described later. A set of color filter 102, PD 104, and transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。 A microlens 101 is provided on the incident light side of the color filter 102 so as to correspond to each pixel. The microlens 101 collects incident light toward the corresponding PD 104 .

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子及び能動素子が設けられてもよい。配線層108の表面には複数のバンプ109が配される。これら複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされる。そして、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 The wiring layer 108 has wiring 107 for transmitting pixel signals from the PD layer 106 to the signal processing chip 111 . The wiring 107 may be multi-layered and may be provided with passive and active elements. A plurality of bumps 109 are arranged on the surface of the wiring layer 108 . These bumps 109 are aligned with the bumps 109 provided on the opposite surface of the signal processing chip 111 . By pressurizing the imaging chip 113 and the signal processing chip 111, the aligned bumps 109 are bonded and electrically connected.

同様に、信号処理チップ111及びメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされる。そして、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 Similarly, a plurality of bumps 109 are arranged on surfaces of the signal processing chip 111 and the memory chip 112 facing each other. These bumps 109 are aligned with each other. By applying pressure to the signal processing chip 111 and the memory chip 112, the aligned bumps 109 are bonded and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位グループに対して一つ程度設ければよい。従って、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域(図2に示す画素領域113A)以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。 The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and may be microbump bonding by solder melting. Also, about one bump 109 may be provided for one unit group, which will be described later. Therefore, the size of the bumps 109 may be larger than the pitch of the PDs 104 . Also, bumps larger than the bumps 109 corresponding to the pixel regions may be provided in peripheral regions other than the pixel region (pixel region 113A shown in FIG. 2) in which pixels are arranged.

信号処理チップ111は、表面及び裏面にそれぞれ設けられた回路を互いに接続するTSV(Through-Silicon Via;シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられる。また、TSV110は、撮像チップ113の周辺領域や、メモリチップ112に設けられてもよい。 The signal processing chip 111 has a TSV (Through-Silicon Via) 110 that connects circuits provided on the front surface and the back surface. The TSV 110 is provided in the peripheral area. Also, the TSV 110 may be provided in the peripheral area of the imaging chip 113 or in the memory chip 112 .

図2は、撮像チップの画素配列と単位グループを説明する図である。図2では、特に、撮像チップ113を裏面側から観察した様子を示す。撮像チップ113において画素が配列された領域を画素領域113Aという。画素領域113Aには2000万個以上もの画素がマトリックス状に配列されている。図2に示す例では、隣接する4画素×4画素の16画素が一つの単位グループ131を形成する。図2の格子線は、隣接する画素がグループ化されて単位グループ131を形成する概念を示す。単位グループ131を形成する画素の数はこれに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。 FIG. 2 is a diagram for explaining the pixel array and unit groups of the imaging chip. FIG. 2 particularly shows a state in which the imaging chip 113 is observed from the back side. A region in which pixels are arranged in the imaging chip 113 is called a pixel region 113A. More than 20 million pixels are arranged in a matrix in the pixel area 113A. In the example shown in FIG. 2, 16 pixels of adjacent 4×4 pixels form one unit group 131 . The grid lines in FIG. 2 illustrate the concept that adjacent pixels are grouped together to form unit groups 131 . The number of pixels forming the unit group 131 is not limited to this, and may be about 1000, for example, 32 pixels×64 pixels, or may be more or less.

画素領域113Aの部分拡大図に示すように、単位グループ131は、緑色画素Gb,Gr、青色画素B、及び赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光する。赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。 As shown in the partially enlarged view of the pixel region 113A, the unit group 131 contains four so-called Bayer arrays each including four pixels of green pixels Gb and Gr, blue pixels B, and red pixels R, vertically and horizontally. A green pixel is a pixel having a green filter as the color filter 102, and receives light in the green wavelength band among incident light. Similarly, a blue pixel is a pixel having a blue filter as the color filter 102 and receives light in the blue wavelength band. A red pixel is a pixel having a red filter as the color filter 102 and receives light in the red wavelength band.

図3は、撮像チップの単位グループに対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。 FIG. 3 is a circuit diagram corresponding to a unit group of imaging chips. In FIG. 3, a rectangle encircled by dotted lines typically represents a circuit corresponding to one pixel. Note that at least part of each transistor described below corresponds to the transistor 105 in FIG.

上述したように、単位グループ131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続される。各転送トランジスタ302のゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。 As described above, the unit group 131 is formed from 16 pixels. The 16 PDs 104 corresponding to each pixel are connected to transfer transistors 302 respectively. A gate of each transfer transistor 302 is connected to a TX wiring 307 to which a transfer pulse is supplied. In this embodiment, the TX wiring 307 is commonly connected to 16 transfer transistors 302 .

各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されるとともに、転送トランジスタ302のドレインと各リセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFD(電荷検出部)が増幅トランジスタ304のゲートに接続される。各リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続される。各リセットトランジスタ303のゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。 The drain of each transfer transistor 302 is connected to the source of each corresponding reset transistor 303 , and the so-called floating diffusion FD (charge detector) between the drain of the transfer transistor 302 and the source of each reset transistor 303 is connected to the amplification transistor 304 . connected to the gate. A drain of each reset transistor 303 is connected to a Vdd wiring 310 to which a power supply voltage is supplied. A gate of each reset transistor 303 is connected to a reset wiring 306 to which a reset pulse is supplied. In this embodiment, the reset wiring 306 is commonly connected to the 16 reset transistors 303 .

各々の増幅トランジスタ304のドレインは電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。各々の選択トランジスタ305のゲートには、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。 A drain of each amplifying transistor 304 is connected to a Vdd wiring 310 supplied with a power supply voltage. Also, the source of each amplification transistor 304 is connected to the drain of each corresponding selection transistor 305 . A gate of each selection transistor 305 is connected to a decoder wiring 308 to which a selection pulse is supplied. In this embodiment, the decoder wiring 308 is provided independently for each of the 16 selection transistors 305 . A source of each selection transistor 305 is connected to a common output wiring 309 . A load current source 311 supplies current to the output wiring 309 . That is, the output wiring 309 for the selection transistor 305 is formed by a source follower. The load current source 311 may be provided on the imaging chip 113 side or may be provided on the signal processing chip 111 side.

ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加される。これと同時に、TX配線307を通じて転送パルスが転送トランジスタ302に印加される。これにより、PD104及びフローティングディフュージョンFDの電位はリセットされる。 Here, the flow from the start of charge accumulation to the pixel output after the end of charge accumulation will be described. A reset pulse is applied to the reset transistor 303 through the reset wiring 306 . At the same time, a transfer pulse is applied to the transfer transistor 302 through the TX wiring 307 . This resets the potentials of the PD 104 and the floating diffusion FD.

PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、PD104において蓄積された電荷はフローティングディフュージョンFDへ転送される。これにより、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304及び選択トランジスタ305を介して出力配線309に伝わる。このような回路の動作により、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。 When the application of the transfer pulse is released, the PD 104 converts the incident light it receives into charges and accumulates them. After that, when the transfer pulse is applied again while the reset pulse is not applied, the charges accumulated in the PD 104 are transferred to the floating diffusion FD. As a result, the potential of the floating diffusion FD changes from the reset potential to the signal potential after charge accumulation. Then, when a selection pulse is applied to the selection transistor 305 through the decoder wiring 308 , fluctuations in the signal potential of the floating diffusion FD are transmitted to the output wiring 309 via the amplification transistor 304 and the selection transistor 305 . By such circuit operation, a pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 309 .

図3に示すように、本実施形態においては、単位グループ131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素すべてに対して同時に印加される。従って、単位グループ131を形成するすべての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309に出力される。また、リセット配線306、TX配線307、出力配線309は、単位グループ131毎に別個に設けられる。 As shown in FIG. 3, in this embodiment, the reset wiring 306 and the TX wiring 307 are common to the 16 pixels forming the unit group 131 . That is, the reset pulse and the transfer pulse are each applied simultaneously to all 16 pixels. Therefore, all the pixels forming the unit group 131 start charge accumulation at the same timing and finish charge accumulation at the same timing. However, pixel signals corresponding to the accumulated charges are selectively output to the output wiring 309 by sequentially applying selection pulses to the respective selection transistors 305 . Also, the reset wiring 306 , the TX wiring 307 , and the output wiring 309 are provided separately for each unit group 131 .

このように単位グループ131を基準として回路を構成することにより、単位グループ131ごとに電荷蓄積時間を制御することができる。換言すると、単位グループ131間で、異なった電荷蓄積時間による画素信号をそれぞれ出力させることができる。更に言えば、一方の単位グループ131に1回の電荷蓄積を行わせている間に、他方の単位グループ131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位グループ131間で異なるフレームレートで動画用の各フレームを出力することもできる。 By configuring the circuit on the basis of the unit group 131 in this way, the charge accumulation time can be controlled for each unit group 131 . In other words, it is possible to output pixel signals with different charge accumulation times between the unit groups 131 . Furthermore, while one unit group 131 is caused to perform one charge accumulation, the other unit group 131 is caused to repeat charge accumulation many times and to output a pixel signal each time. It is also possible to output each moving image frame at a different frame rate between the unit groups 131 .

図4は、撮像素子の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位グループ131を形成する16個のPD104を順番に選択する。そして、マルチプレクサ411は、16個のPD104のそれぞれの画素信号を当該単位グループ131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104とともに、撮像チップ113に形成される。 FIG. 4 is a block diagram showing the functional configuration of the imaging device. Analog multiplexer 411 sequentially selects 16 PDs 104 forming unit group 131 . Then, the multiplexer 411 outputs the pixel signal of each of the 16 PDs 104 to the output wiring 309 provided corresponding to the unit group 131 . A multiplexer 411 is formed in the imaging chip 113 together with the PD 104 .

マルチプレクサ411を介して出力されたアナログ信号の画素信号は、信号処理チップ111に形成されたアンプ412により増幅される。そして、アンプ412で増幅された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS;Correlated Double Sampling)・アナログ/デジタル(Analog/Digital)変換を行う信号処理回路413により、相関二重サンプリングの信号処理が行われるとともに、A/D変換(アナログ信号からデジタル信号への変換)が行われる。画素信号が信号処理回路413において相関二重サンプリングの信号処理が行われることにより、画素信号のノイズが低減される。A/D変換された画素信号は、デマルチプレクサ414に引き渡され、それぞれの画素に対応する画素メモリ415に格納される。デマルチプレクサ414及び画素メモリ415は、メモリチップ112に形成される。 The analog pixel signal output via the multiplexer 411 is amplified by the amplifier 412 formed in the signal processing chip 111 . Then, the pixel signal amplified by the amplifier 412 is processed by a signal processing circuit 413 formed in the signal processing chip 111 that performs correlated double sampling (CDS)/analog/digital conversion. Signal processing of correlated double sampling is performed, and A/D conversion (conversion from analog signal to digital signal) is performed. Noise in the pixel signal is reduced by subjecting the pixel signal to signal processing of correlated double sampling in the signal processing circuit 413 . A/D-converted pixel signals are transferred to a demultiplexer 414 and stored in pixel memories 415 corresponding to respective pixels. Demultiplexer 414 and pixel memory 415 are formed in memory chip 112 .

演算回路416は、画素メモリ415に格納された画素信号を処理して後段の画像処理部に引き渡す。演算回路416は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図4では1つの単位グループ131の分の接続を示すが、実際にはこれらが単位グループ131ごとに存在して、並列で動作する。ただし、演算回路416は単位グループ131ごとに存在しなくてもよい。例えば、一つの演算回路416がそれぞれの単位グループ131に対応する画素メモリ415の値を順に参照しながらシーケンシャルに処理してもよい。 The arithmetic circuit 416 processes the pixel signal stored in the pixel memory 415 and transfers it to the subsequent image processing unit. The arithmetic circuit 416 may be provided in the signal processing chip 111 or may be provided in the memory chip 112 . Although FIG. 4 shows connections for one unit group 131, in reality, these units exist for each unit group 131 and operate in parallel. However, the arithmetic circuit 416 may not exist for each unit group 131 . For example, one arithmetic circuit 416 may sequentially refer to the values of the pixel memory 415 corresponding to each unit group 131 and process them sequentially.

上記した通り、単位グループ131のそれぞれに対応して出力配線309が設けられている。撮像素子100は、撮像チップ113、信号処理チップ111、及びメモリチップ112を積層している。このため、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。 As described above, the output wiring 309 is provided corresponding to each unit group 131 . The imaging device 100 has an imaging chip 113, a signal processing chip 111, and a memory chip 112 stacked. Therefore, by using the bumps 109 as the output wirings 309 for electrical connection between the chips, the wiring can be routed without increasing the size of each chip in the planar direction.

次に、撮像素子100の画素領域113A(図2参照)に設定されるブロックについて説明する。本実施形態において、撮像素子100の画素領域113Aは、複数のブロックに分割される。複数のブロックは、1ブロックにつき単位グループ131を少なくとも1つ含むように定義される。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素が制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、制御パラメータが異なる画素信号が取得される。制御パラメータとしては、例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン、間引き率、画素信号を加算する加算行数又は加算列数、デジタル化のビット数などがあげられる。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。 Next, blocks set in the pixel area 113A (see FIG. 2) of the image sensor 100 will be described. In this embodiment, the pixel area 113A of the image sensor 100 is divided into a plurality of blocks. A plurality of blocks are defined to include at least one unit group 131 per block. Pixels included in each block are controlled with different control parameters. That is, pixel signals with different control parameters are obtained for a pixel group included in a certain block and a pixel group included in another block. Control parameters include, for example, charge accumulation time or number of accumulations, frame rate, gain, thinning rate, number of addition rows or addition columns for adding pixel signals, number of bits for digitization, and the like. Furthermore, the control parameter may be a parameter in image processing after acquiring image signals from pixels.

ここで、電荷の蓄積時間とは、PD104が電荷の蓄積を開始してから終了するまでの時間のことをいう。また、電荷の蓄積回数とは、単位時間あたりにPD104が電荷を蓄積する回数のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。フレームレートが高くなる程、動画における被写体の動きが滑らかになる。 Here, the charge accumulation time is the time from when the PD 104 starts accumulating charges until it ends. The number of charge accumulations refers to the number of times the PD 104 accumulates charges per unit time. A frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of frame rate is fps (Frames Per Second). The higher the frame rate, the smoother the movement of the subject in the moving image.

また、ゲインとは、アンプ412の利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子100の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子100が光をとらえる能力を表す値となる。ゲインを上げるとISO感度も向上する。例えば、ゲインを倍にすると電気信号(画素信号)も倍になり、入射光の光量が半分でも適切な明るさとなる。しかし、ゲインを上げると、電気信号に含まれるノイズも増幅されるため、ノイズが多くなってしまう。 A gain is a gain factor (amplification factor) of the amplifier 412 . By changing this gain, the ISO sensitivity can be changed. The ISO sensitivity is a standard for photographic film established by ISO, and indicates how weak light the photographic film can record. However, in general, the ISO sensitivity is also used when expressing the sensitivity of the imaging device 100 . In this case, the ISO sensitivity is a value representing the ability of the image sensor 100 to capture light. Increasing the gain also improves the ISO sensitivity. For example, if the gain is doubled, the electric signal (pixel signal) is also doubled, and even if the amount of incident light is halved, appropriate brightness can be obtained. However, increasing the gain also amplifies the noise contained in the electrical signal, resulting in increased noise.

また、間引き率とは、所定領域においてすべての画素数に対する画素信号の読み出しを行わない画素数の割合をいう。例えば、所定領域の間引き率が0である場合は、その所定領域内のすべての画素から画素信号の読み出しが行われることを意味する。また、所定領域の間引き率が0.5である場合は、その所定領域内の半分の画素から画素信号を読み出しが行われることを意味する。具体的には、単位グループ131がベイヤー配列である場合、垂直方向についてベイヤー配列の単位の一つ置き、すなわち、画素単位の2画素ずつ(2行ずつ)交互に画素信号が読み出される画素と読み出されない画素とが設定される。なお、画素信号の読み出しの間引きが行われると画像の解像度が低下する。しかし、撮像素子100には2000万以上の画素が配置されているため、例えば間引き率0.5で間引きを行ったとしても、1000万以上の画素で画像を表示することができる。このため、使用者にとって解像度の低下は気にならないものと考えられる。 Also, the thinning rate refers to the ratio of the number of pixels whose pixel signals are not read out to all the number of pixels in a predetermined area. For example, when the thinning rate of a predetermined area is 0, it means that pixel signals are read out from all pixels in the predetermined area. Further, when the thinning rate of a predetermined area is 0.5, it means that pixel signals are read out from half of the pixels in the predetermined area. Specifically, when the unit group 131 has a Bayer array, every other unit of the Bayer array in the vertical direction, that is, pixels from which pixel signals are alternately read out by two pixels (by two rows) in a pixel unit and read out. Pixels that are not displayed are set. It should be noted that the resolution of the image decreases when the readout of the pixel signals is thinned out. However, since 20 million or more pixels are arranged in the imaging device 100, even if thinning is performed at a thinning rate of 0.5, an image can be displayed with 10 million or more pixels. For this reason, it is considered that the user does not mind the decrease in resolution.

また、加算行数とは、垂直方向に隣接する画素の画素信号を加算する場合に、その加算する垂直方向の画素の数(行数)をいう。また、加算列数とは、水平方向に隣接する画素の画素信号を加算する場合に、その加算する水平方向の画素の数(列数)をいう。このような加算の処理は、例えば演算回路416において行われる。演算回路416が垂直方向又は水平方向に隣接する所定数の画素の画素信号を加算する処理を行うことにより、所定の間引き率で間引いて画素信号を読み出す処理と同じような効果を奏する。なお、上記した加算の処理において、演算回路416が加算した行数または列数で加算値を割ることにより平均値を算出するようにしてもよい。 The number of rows to be added refers to the number of pixels in the vertical direction (the number of rows) to be added when pixel signals of pixels adjacent to each other in the vertical direction are added. The number of columns to be added refers to the number of pixels in the horizontal direction (the number of columns) to be added when pixel signals of horizontally adjacent pixels are added. Such addition processing is performed in the arithmetic circuit 416, for example. The arithmetic circuit 416 adds the pixel signals of a predetermined number of vertically or horizontally adjacent pixels, thereby providing the same effect as reading out pixel signals by thinning at a predetermined thinning rate. In addition, in the above-described addition processing, the average value may be calculated by dividing the added value by the number of rows or columns added by the arithmetic circuit 416 .

また、デジタル化のビット数とは、信号処理回路413がA/D変換においてアナログ信号をデジタル信号に変換したときのビット数をいう。デジタル信号のビット数が多くなる程、輝度や色変化などがより詳細に表現される。 Also, the number of bits for digitization refers to the number of bits when the signal processing circuit 413 converts an analog signal into a digital signal in A/D conversion. As the number of bits of the digital signal increases, luminance, color change, etc. are expressed in more detail.

本実施形態において、蓄積条件とは、撮像素子100における電荷の蓄積に関する条件のことをいう。具体的には、蓄積条件は、上記した制御パラメータのうち、電荷の蓄積時間又は蓄積回数、フレームレート、及びゲインのことをいう。フレームレートは電荷の蓄積時間や蓄積回数に応じて変化し得るので、フレームレートが蓄積条件に含まれる。また、ゲインに応じて適正露出の光量は変化し、適正露出の光量に応じて電荷の蓄積時間又は蓄積回数も変化し得る。このため、ゲインは蓄積条件に含まれる。 In the present embodiment, the accumulation condition refers to a condition regarding charge accumulation in the image sensor 100 . Specifically, the accumulation condition refers to the charge accumulation time or the number of accumulations, the frame rate, and the gain among the control parameters described above. The frame rate is included in the accumulation conditions because the frame rate can change according to the charge accumulation time and the number of accumulations. In addition, the amount of light for proper exposure changes according to the gain, and the charge accumulation time or number of times of accumulation may also change according to the amount of light for proper exposure. Therefore, gain is included in the accumulation condition.

また、撮像条件とは、被写体の撮像に関する条件をいう。具体的には、撮像条件は、上記した蓄積条件を含む制御パラメータのことをいう。撮像条件は、撮像素子100を制御するための制御パラメータ(例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン)のほかに、撮像素子100からの信号の読み出しを制御するための制御パラメータ(例えば、間引き率)、撮像素子100からの信号を処理するための制御パラメータ(例えば、画素信号を加算する加算行数又は加算列数、デジタル化のビット数、後述する画像処理部30が画像処理を実行するための制御パラメータ)も含まれる。 Also, the imaging conditions refer to conditions related to imaging of a subject. Specifically, the imaging conditions refer to control parameters including the accumulation conditions described above. The imaging conditions include control parameters for controlling the image sensor 100 (for example, charge accumulation time or number of times, frame rate, gain) and control parameters for controlling readout of signals from the image sensor 100 ( For example, a thinning rate), control parameters for processing the signal from the image sensor 100 (for example, the number of addition rows or addition columns for adding pixel signals, the number of bits for digitization, the image processing unit 30 described later image processing control parameters for executing) are also included.

図5は、第1実施形態に係る電子機器の構成を示すブロック図である。図5に示すように、電子機器1は、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、及びシステム制御部70を備える。レンズ部10は、複数のレンズ群から構成された撮像光学系である。このレンズ部10は、被写体からの光束を撮像部20へ導く。このレンズ部10は、電子機器1と一体構成であってもよく、また電子機器1に対して着脱可能な交換式レンズであってもよい。また、このレンズ部10は、フォーカスレンズを内蔵していてもよく、またズームレンズを内蔵していてもよい。 FIG. 5 is a block diagram showing the configuration of the electronic device according to the first embodiment. As shown in FIG. 5, the electronic device 1 includes a lens unit 10, an imaging unit 20, an image processing unit 30, a work memory 40, a display unit 50, an operation unit 55, a recording unit 60, and a system control unit . The lens unit 10 is an imaging optical system configured from a plurality of lens groups. The lens unit 10 guides the light flux from the subject to the imaging unit 20 . The lens unit 10 may be integrated with the electronic device 1 or may be an interchangeable lens detachable from the electronic device 1 . Further, the lens unit 10 may incorporate a focus lens or may incorporate a zoom lens.

撮像部20は、撮像素子100及び駆動部21を有している。駆動部21は、システム制御部70からの指示に従って、撮像素子100の駆動を制御する制御回路である。ここで、駆動部21は、リセットパルス及び転送パルスをそれぞれリセットトランジスタ303及び転送トランジスタ302に印加するタイミング(又はタイミングの周期)を制御することにより、制御パラメータである電荷の蓄積時間又は蓄積回数を制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスをそれぞれリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305に印加するタイミング(又はタイミングの周期)を制御することにより、フレームレートを制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスを印加する画素を設定することにより、間引き率を制御する。 The imaging unit 20 has an imaging device 100 and a driving unit 21 . The driving unit 21 is a control circuit that controls the driving of the imaging device 100 according to instructions from the system control unit 70 . Here, the driving unit 21 controls the timing (or timing cycle) of applying the reset pulse and the transfer pulse to the reset transistor 303 and the transfer transistor 302, respectively, thereby setting the charge accumulation time or the number of times of accumulation, which are control parameters. Control. Further, the drive unit 21 controls the frame rate by controlling the timing (or timing cycle) of applying the reset pulse, the transfer pulse, and the selection pulse to the reset transistor 303, the transfer transistor 302, and the selection transistor 305, respectively. do. Further, the drive unit 21 controls the thinning rate by setting the pixels to which the reset pulse, transfer pulse, and selection pulse are applied.

また、駆動部21は、アンプ412のゲイン(利得率、増幅率ともいう。)を制御することにより、撮像素子100のISO感度を制御する。また、駆動部21は、演算回路416に指示を送ることにより、画素信号を加算する加算行数又は加算列数を設定する。また、駆動部21は、信号処理回路413に指示を送ることにより、デジタル化のビット数を設定する。さらに、駆動部21は、撮像素子100の画素領域(撮像領域)113Aにおけるブロックの設定を行う。このように、駆動部21は、撮像素子100に対して複数のブロックごとに異なる撮像条件で撮像させて画素信号を出力させる撮像素子制御部の機能を担う。システム制御部70は、駆動部21に対するブロックの位置、形状、範囲などの指示を行う。 Further, the drive unit 21 controls the ISO sensitivity of the image sensor 100 by controlling the gain (also referred to as gain factor or amplification factor) of the amplifier 412 . Further, the drive unit 21 sets the number of addition rows or the number of addition columns for adding the pixel signals by sending an instruction to the arithmetic circuit 416 . Further, the drive unit 21 sets the number of bits for digitization by sending an instruction to the signal processing circuit 413 . Further, the driving unit 21 sets blocks in the pixel area (imaging area) 113A of the image sensor 100 . In this way, the drive unit 21 functions as an image pickup device control unit that causes the image pickup device 100 to pick up images under different image pickup conditions for each of a plurality of blocks and output pixel signals. The system control unit 70 instructs the drive unit 21 about the position, shape, range, and the like of the block.

撮像素子100は、撮像素子100からの画素信号を画像処理部30へ引き渡す。画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなる生画像データに対して種々の画像処理を施し、画像データを生成する。この画像処理部30はCPUを有し、CPUが種々の画像処理を実行する。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理を行うことによりRGB画像信号を生成する。また、画像処理部30は、RGB画像信号に対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。画像処理部30において生成された画像データは、システム制御部70を介して記録部60に記録される。また、画像処理部30において生成された画像データは、システム制御部70を介して表示部50に出力され、表示部50において表示される。 The imaging device 100 transfers pixel signals from the imaging device 100 to the image processing unit 30 . Using the work memory 40 as a work space, the image processing unit 30 performs various image processing on raw image data composed of pixel signals of pixels to generate image data. The image processing section 30 has a CPU, and the CPU executes various image processing. For example, the image processing unit 30 generates RGB image signals by performing color signal processing on the signals obtained in the Bayer array. The image processing unit 30 also performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image signal. Further, the image processing unit 30 performs processing for compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary. The image data generated by the image processing section 30 is recorded in the recording section 60 via the system control section 70 . The image data generated by the image processing section 30 is output to the display section 50 via the system control section 70 and displayed on the display section 50 .

本実施形態では、画像処理部30は、上記した処理のほかに、複数回連続して撮像された画像に基づく画像データを合成する処理を行う。このような処理により、ノイズの除去が行われる。 In this embodiment, the image processing unit 30 performs, in addition to the above-described processing, a processing of synthesizing image data based on images that have been successively captured a plurality of times. Noise is removed by such processing.

画像処理部30が画像処理を行う際に参照されるパラメータも制御パラメータ(撮像条件)に含まれる。例えば、色信号処理、ホワイトバランス調整、階調調整、圧縮率などのパラメータが制御パラメータに含まれる。電荷の蓄積時間などに応じて撮像素子100から読み出される信号が変化し、その信号の変化に応じて画像処理を行う際に参照されるパラメータも変化する。画像処理部30は、ブロック単位ごとに異なる制御パラメータを設定し、これらの制御パラメータに基づいて色信号処理などの画像処理を実行する。 Control parameters (imaging conditions) also include parameters referred to when the image processing unit 30 performs image processing. For example, control parameters include parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate. A signal read out from the image pickup device 100 changes according to the charge accumulation time or the like, and a parameter referred to when image processing is performed changes according to the change of the signal. The image processing unit 30 sets different control parameters for each block and executes image processing such as color signal processing based on these control parameters.

画像処理部30は、撮像部20から時系列的に得られる複数のフレームのうち所定タイミングごとのフレームを抽出する。または、画像処理部30は、撮像部20から時系列的に得られる複数のフレームのうち所定タイミングごとのフレームを廃棄する。これにより、データ量を減らすことができるため、後段処理の負荷を軽減することができる。また、画像処理部30は、撮像部20から時系列的に得られる複数のフレームに基づいて、各フレーム間に補間する1又は複数のフレームを算出する。そして、画像処理部30は、算出した1又は複数のフレームを各フレーム間に追加する。これにより、動画再生時においてより滑らかな動きの動画を再生することができる。また、駆動部21が間引き率を制御するように構成しているが、このような構成に限られない。例えば、駆動部21はすべての画素から画素信号を読み出すが、画像処理部30又は演算回路416は読み出した画素信号のうち所定の画素信号を廃棄することにより、間引き率を制御するようにしてもよい。 The image processing unit 30 extracts frames at predetermined timings from among the plurality of frames obtained in time series from the imaging unit 20 . Alternatively, the image processing unit 30 discards frames at predetermined timings among the plurality of frames obtained in time series from the imaging unit 20 . As a result, the amount of data can be reduced, and the load of post-processing can be reduced. Also, the image processing unit 30 calculates one or more frames to be interpolated between each frame based on a plurality of frames obtained in time series from the imaging unit 20 . Then, the image processing unit 30 adds one or more calculated frames between each frame. As a result, it is possible to reproduce moving images with smoother movements during moving image reproduction. Further, although the drive unit 21 is configured to control the thinning rate, the configuration is not limited to this. For example, although the driving unit 21 reads out pixel signals from all pixels, the image processing unit 30 or the arithmetic circuit 416 may control the thinning rate by discarding predetermined pixel signals among the read out pixel signals. good.

ワークメモリ40は、画像処理部30による画像処理が行われる際に画像データなどを一時的に記憶する。表示部50は、例えば液晶表示パネルによって構成されている。この表示部50は、図5に示すように、表示部50は、第1表示部51、第1タッチパネル(選択部、第1操作部)52、第2表示部53、及び第2タッチパネル(第2操作部)54を有している。 The work memory 40 temporarily stores image data and the like when image processing is performed by the image processing unit 30 . The display unit 50 is configured by, for example, a liquid crystal display panel. As shown in FIG. 5, the display unit 50 includes a first display unit 51, a first touch panel (selection unit, first operation unit) 52, a second display unit 53, and a second touch panel (second touch panel). 2 operating part) 54 .

第1表示部51は、撮像部20で撮像された画像(静止画、動画、ライブビュー画像)や各種情報を表示する。第1タッチパネル52は、第1表示部51の表示画面上に形成されている。この第1タッチパネル52は、使用者が領域の指定を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。第2表示部53は、使用者が撮像条件(制御パラメータ)を設定するためのメニューを表示する。第2タッチパネル54は、第2表示部53の表示画面上に形成されている。この第2タッチパネル54は、使用者が撮像条件の設定を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。 The first display unit 51 displays images (still images, moving images, live view images) captured by the imaging unit 20 and various information. The first touch panel 52 is formed on the display screen of the first display section 51 . The first touch panel 52 outputs a signal indicating the position touched by the user to the system control unit 70 when the user designates an area. The second display unit 53 displays a menu for the user to set imaging conditions (control parameters). The second touch panel 54 is formed on the display screen of the second display section 53 . The second touch panel 54 outputs a signal indicating the position touched by the user to the system control unit 70 when the user sets imaging conditions.

操作部55は、使用者によって操作されるシャッターボタンや録画開始ボタン、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録するように構成されてもよい。 The operation unit 55 includes a shutter button, a recording start button, various operation switches, and the like, which are operated by the user. The operation unit 55 outputs a signal to the system control unit 70 according to the user's operation. The recording unit 60 has a card slot into which a storage medium such as a memory card can be inserted. The recording unit 60 stores image data generated by the image processing unit 30 and various data in a recording medium loaded in the card slot. Also, the recording unit 60 has an internal memory. The recording unit 60 may be configured to record image data and various data generated by the image processing unit 30 in an internal memory.

システム制御部70は、電子機器1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit)を有する。本実施形態において、システム制御部70は、撮像素子100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部70は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部21に対して指示する。また、システム制御部70は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部70は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部21に対して指示する。また、画像処理部30は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部70は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部30に指示する。 The system control unit 70 controls the overall processing and operation of the electronic device 1 . The system control unit 70 has a CPU (Central Processing Unit). In this embodiment, the system control unit 70 divides the imaging surface (pixel region 113A) of the imaging device 100 (imaging chip 113) into a plurality of blocks, and sets different charge accumulation times (or charge accumulation times) and frame rates between the blocks. , to acquire an image with gain. For this reason, the system control unit 70 instructs the drive unit 21 about the position, shape, range, and storage conditions for each block. In addition, the system control unit 70 acquires an image with a thinning rate different between blocks, the number of addition rows or addition columns for adding pixel signals, and the number of bits for digitization. For this reason, the system control unit 70 instructs the driving unit 21 on imaging conditions for each block (thinning rate, number of rows or columns to be added for adding pixel signals, and number of bits for digitization). Further, the image processing unit 30 executes image processing under different imaging conditions (color signal processing, white balance adjustment, gradation adjustment, control parameters such as compression ratio) between blocks. Therefore, the system control unit 70 instructs the image processing unit 30 on imaging conditions for each block (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate).

また、システム制御部70は、画像処理部30において生成された画像データを記録部60に記録させる。また、システム制御部70は、画像処理部30において生成された画像データを表示部50に出力することにより、表示部50の第1表示部51に画像を表示させる。または、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力することにより、表示部50の第1表示部51に画像を表示させる。第1表示部51に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。ここで、ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して第1表示部51に表示される画像である。ライブビュー画像は、撮像部20により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。 Also, the system control unit 70 causes the recording unit 60 to record the image data generated by the image processing unit 30 . Further, the system control unit 70 outputs the image data generated by the image processing unit 30 to the display unit 50 to display an image on the first display unit 51 of the display unit 50 . Alternatively, the system control unit 70 reads the image data recorded in the recording unit 60 and outputs it to the display unit 50 to display an image on the first display unit 51 of the display unit 50 . Images displayed on the first display unit 51 include still images, moving images, and live view images. Here, the live view image is an image displayed on the first display unit 51 by sequentially outputting the image data generated by the image processing unit 30 to the display unit 50 . The live view image is used by the user to check the image of the subject being imaged by the imaging unit 20 . A live view image is also called a through image or a preview image.

なお、画像処理部30は、CPUが制御プログラムに基づいて処理を実行することにより実現される。また、システム制御部70は、CPUが制御プログラムに基づいて処理を実行することにより実現される。 Note that the image processing unit 30 is implemented by the CPU executing processing based on a control program. Moreover, the system control unit 70 is implemented by the CPU executing processing based on a control program.

図6は、表示部における表示画面の一例を示す図である。図6に示すように、表示部50の表示画面500は、画像表示領域510と操作ボタン表示領域520とが設けられている。画像表示領域510は、撮像部20で撮像された画像、すなわち、静止画、動画、及びライブビュー画像を表示する領域である。また、操作ボタン表示領域520は、使用者が撮像条件などを設定するためのメニューを表示する領域である。本実施形態では、画像表示領域510及び操作ボタン表示領域520は、1つの表示画面500内に設けられている。なお、画像表示領域510は第1表示部51に相当し、操作ボタン表示領域520は第2表示部53に相当する。 FIG. 6 is a diagram showing an example of a display screen on the display unit. As shown in FIG. 6, the display screen 500 of the display unit 50 is provided with an image display area 510 and an operation button display area 520 . The image display area 510 is an area for displaying images captured by the imaging unit 20, that is, still images, moving images, and live view images. Also, the operation button display area 520 is an area for displaying a menu for the user to set imaging conditions and the like. In this embodiment, the image display area 510 and the operation button display area 520 are provided within one display screen 500 . The image display area 510 corresponds to the first display section 51 , and the operation button display area 520 corresponds to the second display section 53 .

画像表示領域510内には、複数のブロックB(i,j)が設定されている。図6に示す例では、ブロックB(i,j)は、画像表示領域510において、水平方向(図6の横方向)に8個のブロック(i=1~8)が設定され、垂直方向(図6の縦方向)に6個のブロック(j=1~6)が設定されている。つまり、画像表示領域510が8×6個(=48個)のブロックに分割されている。また、第1タッチパネル52が画像表示領域510上に設けられている。第1タッチパネル52において、複数のタッチ領域P(i,j)が複数のブロックB(i,j)のそれぞれに重なるように形成されている。各タッチ領域P(i,j)は、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。 A plurality of blocks B(i, j) are set in the image display area 510 . In the example shown in FIG. 6, in the image display area 510, eight blocks (i=1 to 8) are set in the image display area 510 (horizontal direction in FIG. 6), and eight blocks (i=1 to 8) are set in the vertical direction ( Six blocks (j=1 to 6) are set in the vertical direction of FIG. That is, the image display area 510 is divided into 8×6 (=48) blocks. Also, the first touch panel 52 is provided on the image display area 510 . In the first touch panel 52, a plurality of touch areas P(i, j) are formed so as to overlap each of the plurality of blocks B(i, j). When each touch area P(i, j) detects that it has been pressed (touched) by the user, it sends a detection signal indicating the pressed position (which touch area) to the system control unit 70. Output.

操作ボタン表示領域520は、画像表示領域510の近傍に設けられている。操作ボタン表示領域520内には、使用者が領域、撮像条件、及び撮影モードを設定するためのメニュー(メニュー画像)が表示される。使用者が領域を設定するためのメニューは、設定のボタン521である。使用者が撮像条件を設定するためのメニューは、ISO感度のボタン522(これはゲインに関するメニューともいう。)、シャッタースピードのボタン523(これは電荷の蓄積時間に関するメニューともいう。)、及びフレームレートのボタン524(これはフレームレートに関するメニューともいう。)である。使用者が撮影モードを設定するためのメニューは、撮影モードのボタン525である。以下、設定のボタン521、ISO感度のボタン522、シャッタースピードのボタン523、フレームレートのボタン524、及び撮影モードのボタン525のことを、それぞれ、単に、「設定521」、「ISO感度522」、「シャッター523」、「フレームレート524」、及び「撮影モード525」と記す。 The operation button display area 520 is provided near the image display area 510 . A menu (menu image) is displayed in the operation button display area 520 for the user to set the area, imaging conditions, and imaging mode. A setting button 521 is a menu for the user to set the area. The menu for the user to set imaging conditions includes an ISO sensitivity button 522 (this is also referred to as a gain-related menu), a shutter speed button 523 (this is also referred to as a charge accumulation time menu), and a frame A rate button 524 (this is also referred to as a frame rate menu). A shooting mode button 525 is a menu for the user to set the shooting mode. Hereinafter, the setting button 521, the ISO sensitivity button 522, the shutter speed button 523, the frame rate button 524, and the shooting mode button 525 are simply referred to as "setting 521," "ISO sensitivity 522," respectively. They are described as "shutter 523", "frame rate 524", and "shooting mode 525".

設定521は、使用者が画像表示領域510内の領域をブロック単位で設定(選択)する場合に押すボタンである。ISO感度522は、使用者がISO感度(すなわちゲイン)を設定する場合に押すボタンである。シャッター523は、使用者がシャッタースピード(すなわち、露光時間)を設定する場合に押すボタンである。なお、シャッタースピードは電荷の蓄積時間に対応する。フレームレート524は、使用者が動画やライブビュー画像のフレームレートを設定する場合に押すボタンである。撮影モード525は、使用者が手動(マニュアル)で撮像条件を設定するか、自動で撮像条件を設定するかを選択する場合に押すボタンである。 A setting 521 is a button that the user presses when setting (selecting) an area within the image display area 510 in units of blocks. The ISO sensitivity 522 is a button that the user presses when setting the ISO sensitivity (that is, gain). The shutter 523 is a button that the user presses when setting the shutter speed (that is, exposure time). Note that the shutter speed corresponds to the charge accumulation time. A frame rate 524 is a button that the user presses when setting the frame rate of moving images and live view images. A shooting mode 525 is a button that the user presses when selecting whether to manually set the imaging conditions or to automatically set the imaging conditions.

また、第2タッチパネル54が操作ボタン表示領域520上に設けられている。第2タッチパネル54において、タッチ領域521aが設定521上に重なるように形成されている。また、タッチ領域522aがISO感度522上に重なるように形成されている。また、タッチ領域523aがシャッター523上に重なるように形成されている。また、タッチ領域524aがフレームレート524上に重なるように形成されている。また、タッチ領域525aが撮影モード525上に重なるように形成されている。各タッチ領域521a~525aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部70に出力する。なお、本実施形態において、第1タッチパネル52及び第2タッチパネル54は、別々のタッチパネルで構成されてもよく、1つのタッチパネルで構成されてもよい。1つのタッチパネルで構成されている場合は、そのタッチパネルのタッチ領域P(i,j)が第1タッチパネル52に相当し、タッチ領域521a~525aが第2タッチパネル54に相当する。 Also, the second touch panel 54 is provided on the operation button display area 520 . On the second touch panel 54, a touch area 521a is formed so as to overlap a setting 521. As shown in FIG. Also, the touch area 522 a is formed so as to overlap the ISO sensitivity 522 . Also, a touch area 523 a is formed so as to overlap the shutter 523 . Also, a touch area 524 a is formed so as to overlap the frame rate 524 . Also, a touch area 525 a is formed so as to overlap the shooting mode 525 . When each of the touch areas 521a to 525a detects that it has been pressed (touched) by the user, it outputs a detection signal indicating the pressed position (which touch area) to the system control unit . In the present embodiment, the first touch panel 52 and the second touch panel 54 may be composed of separate touch panels, or may be composed of one touch panel. When the touch panel is composed of one touch panel, the touch area P(i, j) of the touch panel corresponds to the first touch panel 52, and the touch areas 521a to 525a correspond to the second touch panel .

図7は、第1実施形態における画像処理部及びシステム制御部の機能ブロック図である。図7に示すように、画像処理部30は合成処理部31を含んでいる。この合成処理部31は、高速に複数回撮像された画像を合成する処理を行う。このような処理により、画像に含まれるノイズが低減される。すなわち、この処理はノイズリダクションの機能を果たす。 FIG. 7 is a functional block diagram of an image processing unit and a system control unit according to the first embodiment; As shown in FIG. 7 , the image processing section 30 includes a composition processing section 31 . The synthesizing unit 31 performs a process of synthesizing images captured multiple times at high speed. Such processing reduces noise contained in the image. That is, this processing serves the function of noise reduction.

また、システム制御部70は、表示制御部(制御部)71、変更部72、選択部73、及び撮像制御部(画像合成部)74を含んでいる。表示制御部71は、画像データを表示部50に出力することにより、第1表示部51に画像(静止画、動画、ライブビュー画像)を表示させる制御を行う。また、表示制御部71は、予め設定されているメニュー画像を第2表示部53に表示させる制御を行う。変更部72は、使用者による第2タッチパネル54のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を変更する制御を行う。また、選択部73は、使用者による第1タッチパネル52のタッチ操作に応じて、画像表示領域510内の領域をブロック単位で選択する制御を行う。また、撮像制御部(画像合成部)74は、使用者によるシャッターボタン(操作部55)の操作に応じて撮像の制御を実行する。 The system control unit 70 also includes a display control unit (control unit) 71 , a change unit 72 , a selection unit 73 , and an imaging control unit (image synthesizing unit) 74 . The display control unit 71 outputs image data to the display unit 50 to perform control to display an image (still image, moving image, live view image) on the first display unit 51 . Further, the display control unit 71 performs control to display a preset menu image on the second display unit 53 . The changing unit 72 performs control to change the imaging conditions (including the accumulation conditions) according to the user's touch operation on the second touch panel 54 or automatically. Further, the selection unit 73 performs control to select an area within the image display area 510 in units of blocks according to a touch operation of the first touch panel 52 by the user. In addition, the imaging control section (image synthesizing section) 74 controls imaging according to the operation of the shutter button (operation section 55) by the user.

実施形態(第1実施形態、後述する第2及び第3実施形態)において、「第1領域」とは、表示画面500の画像表示領域510において使用者の操作に応じて又は自動的に選択部73により選択された領域に対応する撮像素子100の画素領域113A内の領域のことをいう。また、「第2領域」とは、表示画面500の画像表示領域510において使用者の操作に応じて又は自動的に選択部73により選択された領域に対応する撮像素子100の画素領域113A内の領域のことをいう。第1領域と第2領域は、2分割された領域の一方と他方であってもよく、また3分割以上された領域のうちのいずれか一方と他方であってもよい。 In the embodiments (first embodiment, second and third embodiments to be described later), the “first region” refers to an image display region 510 of the display screen 500 in accordance with a user's operation or automatically. A region in the pixel region 113A of the image sensor 100 corresponding to the region selected by 73. In addition, the “second region” refers to a region within the pixel region 113A of the image sensor 100 corresponding to the region selected automatically by the selection unit 73 according to the user's operation or automatically in the image display region 510 of the display screen 500. refers to the area. The first region and the second region may be one and the other of two divided regions, or one and the other of three or more divided regions.

次に、第1実施形態に係る撮影動作について説明する。図8は、第1実施形態に係るシステム制御部が実行する撮影動作を説明するためのフローチャートである。また、図9~図12は、画像表示領域に少ない数のブロックが設定される場合の表示画面の表示例を示す図である。 Next, a shooting operation according to the first embodiment will be described. FIG. 8 is a flowchart for explaining a photographing operation executed by a system control unit according to the first embodiment; 9 to 12 are diagrams showing display examples of the display screen when a small number of blocks are set in the image display area.

図8に示す処理において、電子機器1に電源が投入された後、使用者が撮影を開始するために操作部55などの操作を行うと、システム制御部70が撮影動作を開始する(ステップS1)。なお、使用者は、予め静止画を撮影するか動画を撮影するかを選択する操作を行う。 In the process shown in FIG. 8, when the user operates the operation unit 55 or the like to start photographing after the electronic device 1 is powered on, the system control unit 70 starts the photographing operation (step S1). ). Note that the user performs an operation in advance to select whether to shoot a still image or to shoot a moving image.

撮影が開始されると、表示制御部71は、撮像部20で撮像されたライブビュー画像を第1表示部51(画像表示領域510)に表示する(ステップS2)。図9に示す例では、画像表示領域510に滝のライブビュー画像が表示されている。使用者は、画像表示領域510内の領域を選択する場合、設定521(すなわちタッチ領域521a)を指でタッチする。これにより、画像表示領域510内の領域が選択可能な状態、すなわち、第1タッチパネル52がタッチ操作を検出可能な状態となる。その後、使用者は、画像表示領域510に設定されているブロックB(i,j)を指でタッチすること(又は指でなぞる)ことにより、画像表示領域510内の領域をブロック単位で選択する。第1タッチパネル52は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部70に出力する。 When shooting is started, the display control unit 71 displays the live view image captured by the imaging unit 20 on the first display unit 51 (image display area 510) (step S2). In the example shown in FIG. 9, a live view image of a waterfall is displayed in the image display area 510 . When the user selects an area within the image display area 510, the user touches the setting 521 (that is, the touch area 521a) with a finger. As a result, the area within the image display area 510 becomes selectable, that is, the first touch panel 52 becomes capable of detecting the touch operation. After that, the user touches (or traces) the block B(i, j) set in the image display area 510 with a finger to select the area in the image display area 510 in units of blocks. . The first touch panel 52 outputs a detection signal corresponding to the touch area P(i, j) touched by the user to the system control section 70 .

選択部73は、第1タッチパネル52からの検出信号に基づいて、使用者によって選択された領域を認識する。図10に示す例では、使用者によって領域511が選択されている。この領域511は、滝の後ろの背景の領域(図10中の白線が引かれている領域)である。具体的には、領域511は、ブロックB(3,1)~B(8,1),B(4,2)~B(8,2),B(5,3)~B(8,3),B(6,4)~B(8,4)からなる領域である。 The selection unit 73 recognizes the area selected by the user based on the detection signal from the first touch panel 52 . In the example shown in FIG. 10, an area 511 is selected by the user. This region 511 is the background region behind the waterfall (the white-lined region in FIG. 10). Specifically, the area 511 includes blocks B(3,1) to B(8,1), B(4,2) to B(8,2), B(5,3) to B(8,3 ), B(6,4) to B(8,4).

選択部73は、使用者により領域が選択されたか否かを判定する(ステップS3)。使用者により領域が選択されたと判定した場合は、選択部73は、使用者により選択された領域511を設定する(ステップS4)。具体的には、選択部73は、駆動部21に対して使用者により選択されたブロックの位置などを指示する指示信号を出力する。 The selection unit 73 determines whether or not the user has selected an area (step S3). If it is determined that the user has selected an area, the selector 73 sets the area 511 selected by the user (step S4). Specifically, the selection unit 73 outputs an instruction signal for instructing the position of the block selected by the user to the drive unit 21 .

変更部72は、使用者により撮影モードとしてオートモード(自動モード)が選択されたか否かを判定する(ステップS5)。ここで、使用者は、撮影モードを設定する場合は、撮影モード525(すなわちタッチ領域525a)をタッチする。そして、使用者は、撮影モードのうちマニュアルモード(手動モード)かオートモード(自動モード)かを選択する。変更部72は、撮影モードとしてオートモードが選択されていないと判定した場合、すなわち、撮影モードとしてマニュアルモードが選択されたと判定した場合は、使用者の第2タッチパネル54の操作に応じて撮像条件(蓄積条件を含む)を設定する(ステップS6)。 The changing unit 72 determines whether or not the user has selected the auto mode as the shooting mode (step S5). Here, the user touches the shooting mode 525 (that is, the touch area 525a) when setting the shooting mode. Then, the user selects a manual mode (manual mode) or an auto mode (automatic mode) from among the photographing modes. If the changing unit 72 determines that the auto mode is not selected as the shooting mode, that is, if it determines that the manual mode is selected as the shooting mode, the changing unit 72 changes the shooting conditions according to the user's operation of the second touch panel 54. (including accumulation conditions) are set (step S6).

例えば、使用者は、撮像条件としてISO感度を設定する場合は、ISO感度522(すなわちタッチ領域522a)をタッチする。第2タッチパネル54は、使用者によりタッチされたタッチ領域522aに対応する検出信号をシステム制御部70に出力する。表示制御部71は、図11に示すように、ISO感度522の横にISO感度の値を複数表示させる。図11に示す例では、ISO感度として、「100」「200」「400」「800」「1600」が表示される。変更部71は、第2タッチパネル54において、ISO感度のそれぞれの値の領域と重なるように新たにタッチ領域を設定する。使用者は、ISO感度の値のいずれかをタッチする。第2タッチパネル54は、使用者によりタッチされたタッチ領域に対応する検出信号をシステム制御部70に出力する。変更部72は、使用者にタッチされたISO感度の値を設定する。具体的には、変更部72は、使用者により選択されたISO感度に応じたゲインを指示する指示信号を駆動部21に出力する。 For example, the user touches the ISO sensitivity 522 (that is, the touch area 522a) when setting the ISO sensitivity as the imaging condition. The second touch panel 54 outputs a detection signal corresponding to the touch area 522a touched by the user to the system control section 70 . The display control unit 71 displays a plurality of ISO sensitivity values next to the ISO sensitivity 522 as shown in FIG. In the example shown in FIG. 11, "100", "200", "400", "800", and "1600" are displayed as the ISO sensitivity. The changing unit 71 newly sets a touch area on the second touch panel 54 so as to overlap with each value area of the ISO sensitivity. The user touches one of the ISO sensitivity values. The second touch panel 54 outputs a detection signal corresponding to the touch area touched by the user to the system control section 70 . The changing unit 72 sets the ISO sensitivity value touched by the user. Specifically, the changing unit 72 outputs to the driving unit 21 an instruction signal that instructs the gain according to the ISO sensitivity selected by the user.

使用者は、シャッタースピード(電荷蓄積時間)やフレームレートを設定する場合も、ISO感度の設定と同じような操作を行う。すなわち、使用者は、撮像条件としてシャッタースピード又はフレームレートを設定する場合は、シャッター523(すなわちタッチ領域523a)又はフレームレート524(すなわちタッチ領域524a)をタッチする。第2タッチパネル54は、使用者によりタッチされたタッチ領域523a又は524aに対応する検出信号をシステム制御部70に出力する。表示制御部71は、シャッター523又はフレームレート524の横にシャッタースピード又はフレームレートの値を複数表示させる。使用者は、シャッタースピード又はフレームレートの値のいずれかをタッチする。変更部72は、使用者によりタッチされたシャッタースピード又はフレームレートの値を設定する。具体的には、変更部72は、使用者により選択されたシャッタースピード又はフレームレートを指示する指示信号を駆動部21に出力する。 When the user sets the shutter speed (charge accumulation time) and frame rate, the same operation as for setting the ISO sensitivity is performed. That is, the user touches the shutter 523 (that is, the touch area 523a) or the frame rate 524 (that is, the touch area 524a) when setting the shutter speed or frame rate as the imaging condition. The second touch panel 54 outputs a detection signal corresponding to the touch area 523 a or 524 a touched by the user to the system control section 70 . The display control unit 71 displays a plurality of shutter speed or frame rate values next to the shutter 523 or frame rate 524 . The user touches either the shutter speed or frame rate value. The changing unit 72 sets the value of the shutter speed or frame rate touched by the user. Specifically, the changing unit 72 outputs to the driving unit 21 an instruction signal that instructs the shutter speed or frame rate selected by the user.

駆動部21は、使用者により選択された領域511に対応する画素領域113Aの領域をブロック単位で指示する指示信号を受け取る。また、駆動部21は、使用者により選択された撮像条件を指示する指示信号を受け取る。これに応じて、駆動部21は、領域511に対応する画素領域113Aの領域において、指示された撮像条件(シャッタースピード、ISO感度、フレームレート)で撮像するように撮像部20を駆動する。なお、一般的には、静止画を撮像する場合はシャッタースピードが設定され、動画を撮像する場合はフレームレートが設定される。 The drive unit 21 receives an instruction signal that instructs, in units of blocks, the area of the pixel area 113A corresponding to the area 511 selected by the user. The drive unit 21 also receives an instruction signal that instructs the imaging conditions selected by the user. In response, the drive unit 21 drives the imaging unit 20 so as to capture an image in the area of the pixel area 113A corresponding to the area 511 under the instructed imaging conditions (shutter speed, ISO sensitivity, frame rate). Note that generally, the shutter speed is set when capturing a still image, and the frame rate is set when capturing a moving image.

このように駆動部21が領域511に対応する画素領域113Aの領域の撮像条件が変更されると、画像表示領域510内の領域511に表示される画像(領域511におけるライブビュー画像)が変化する。例えば、ISO感度を高くすると、被写体が少ない光量でも明るく撮像される。また、ライブビュー画像の暗い部分が明るくなる。また、シャッタースピードを高くすると、動いている被写体のブレが少なくなる。また、フレームレートを高くすると、動画における被写体の動きが滑らかになる。 When the driving unit 21 changes the imaging conditions of the area of the pixel area 113A corresponding to the area 511 in this way, the image displayed in the area 511 in the image display area 510 (live view image in the area 511) changes. . For example, if the ISO sensitivity is increased, the subject can be imaged brightly even with a small amount of light. Also, the dark portions of the live view image become brighter. Higher shutter speeds also reduce the blurring of moving subjects. Also, when the frame rate is increased, the movement of the subject in the moving image becomes smoother.

このように、使用者は、領域を選択し、選択した領域における撮像条件を設定することにより、ライブビュー画像において、撮像条件に変更に応じて変化する選択した領域の画像を確認することができる。この場合、使用者が選択した撮像条件が適正露出に合った条件でないこともある。しかし、使用者は、撮像条件の変更によって露出オーバーや露出アンダーになることを認識することもできる。また、使用者は、どのような撮像条件を変更するとどのように画像が変化するかを認識することができる。従って、使用者は、撮影を行う前に撮像条件を変更することによって画像を作成した上で撮影を行うことができる。 In this way, by selecting an area and setting the imaging conditions for the selected area, the user can confirm the image of the selected area that changes according to the change in the imaging conditions in the live view image. . In this case, the imaging conditions selected by the user may not be suitable for proper exposure. However, the user can also recognize that overexposure or underexposure will occur due to changes in imaging conditions. Also, the user can recognize how the image changes when the imaging conditions are changed. Therefore, the user can create an image by changing the imaging conditions before photographing, and then photograph the image.

以上のようなステップS1~S6の処理は、使用者による操作部55のシャッター(動画を撮影する場合は録画開始ボタン)の半押し操作(ステップS8)が行われるまで繰り返し実行される。図12に示す例では、画像表示領域510のうち領域511以外の領域512が選択されている。そして、使用者によるISO感度522、シャッター523、フレームレート524の値の選択に応じて、画像表示領域510内の領域512に表示されるライブビュー画像が変化する。 The processing of steps S1 to S6 as described above is repeatedly executed until the user half-presses the shutter (recording start button when shooting a moving image) of the operation unit 55 (step S8). In the example shown in FIG. 12, an area 512 other than the area 511 is selected in the image display area 510 . The live view image displayed in the area 512 within the image display area 510 changes according to the user's selection of the values of the ISO sensitivity 522, the shutter 523, and the frame rate 524. FIG.

図12に示す領域512は、滝の領域(図12中の白線が引かれている領域)である。具体的には、領域512は、ブロックB(1,1)~B(2,1),B(1,2)~B(3,2),B(1,3)~B(4,3),B(1,4)~B(5,4),B(1,5)~B(8,5),B(1,6)~B(8,6)からなる領域である。 A region 512 shown in FIG. 12 is the waterfall region (the region where the white line is drawn in FIG. 12). Specifically, area 512 includes blocks B(1,1) to B(2,1), B(1,2) to B(3,2), B(1,3) to B(4,3 ), B(1,4) to B(5,4), B(1,5) to B(8,5), and B(1,6) to B(8,6).

変更部72は、撮影モードとしてオートモードが選択されたと判定した場合は(ステップS5のYES)、使用者により選択された領域511の撮像条件を自動的に設定する(ステップS7)。このとき、変更部72は、ライブビュー画像における領域511内の画像のコントラストと色変化のうちの少なくとも一方に基づいて撮像条件を変更する。例えば、変更部72は、領域511内の画像の明部と暗部のコントラストが最大となるように撮像条件(ISO感度、シャッタースピード、フレームレート)を変更する。また、変更部72は、領域511の画像の色変化が最も鮮やかとなるように撮像条件(ISO感度、シャッタースピード、フレームレート)を変更する。また、変更部72は、領域511内の画像のコントラストが最大となり、領域511内の画像の色変化が最も鮮やかになるように撮像条件を変更する。 When determining that the auto mode is selected as the imaging mode (YES in step S5), the changing unit 72 automatically sets imaging conditions for the region 511 selected by the user (step S7). At this time, the changing unit 72 changes the imaging conditions based on at least one of contrast and color change of the image within the area 511 in the live view image. For example, the changing unit 72 changes the imaging conditions (ISO sensitivity, shutter speed, frame rate) so that the contrast between the bright and dark portions of the image within the region 511 is maximized. Further, the changing unit 72 changes the imaging conditions (ISO sensitivity, shutter speed, frame rate) so that the color change of the image in the area 511 becomes the most vivid. Further, the changing unit 72 changes the imaging conditions so that the contrast of the image within the area 511 is maximized and the color change of the image within the area 511 is most vivid.

撮影モードとしてオートモードが選択された場合の処理(ステップS1~S5,S7)は、使用者による操作部55のシャッターの半押し操作(ステップS8)が行われるまで繰り返し実行される。例えば、領域512においても、変更部72は、領域512内の画像のコントラストと色変化のうちの少なくとも一方に基づいて撮像条件を自動的に設定する(ステップS7)。変更部72が変更したISO感度、シャッタースピード、又はフレームレートの値に応じて、画像表示領域510内の領域511,512に表示されるライブビュー画像が変化する。 The processing (steps S1 to S5, S7) when the auto mode is selected as the photographing mode is repeatedly executed until the user half-presses the shutter of the operation unit 55 (step S8). For example, in the area 512 as well, the changing unit 72 automatically sets the imaging conditions based on at least one of contrast and color change of the image in the area 512 (step S7). The live view images displayed in areas 511 and 512 in the image display area 510 change according to the values of the ISO sensitivity, shutter speed, or frame rate changed by the change unit 72 .

なお、図9~図12において図示していないが、使用者が設定可能な領域ごとの撮像条件として、ISO感度、シャッタースピード、及びフレームレートに限られない。例えば、上述した間引き率、画素信号を加算する加算行数又は加算列数、デジタル化のビット数なども領域ごとの撮像条件として設定可能に構成してもよい。また、色信号処理、ホワイトバランス調整、階調調整、圧縮率などのパラメータも領域ごとの撮像条件として設定可能に構成してもよい。 Although not shown in FIGS. 9 to 12, imaging conditions for each region that can be set by the user are not limited to ISO sensitivity, shutter speed, and frame rate. For example, the thinning rate described above, the number of addition rows or addition columns for adding pixel signals, the number of bits for digitization, and the like may be set as imaging conditions for each region. Also, parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate may be configured to be settable as imaging conditions for each area.

システム制御部70は、シャッター又は録画開始ボタンの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS8)。半押し操作は、撮影準備を開始させる指示として用いられる。なお、図8において図示していないが、システム制御部70は、自動的に焦点調節を行うオートフォーカス(AF)の制御などを実行する。 The system control unit 70 determines whether or not the shutter or the recording start button has been half-pressed (SW1 operation) (step S8). A half-press operation is used as an instruction to start shooting preparation. Although not shown in FIG. 8, the system control unit 70 executes autofocus (AF) control for automatic focus adjustment.

次に、システム制御部70は、シャッター又は録画開始ボタンの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS9)。全押し操作が行われたと判定した場合は、撮像制御部74は、撮像素子100に撮像を実行させる撮像処理を行う(ステップS10)。図13は、第1実施形態に係る撮像処理の一例を示すフローチャートである。撮像制御部74は、まず、使用者により又は自動的にISO感度が所定値以上に設定されているか否かを判定する(ステップS11)。撮像制御部74は、ISO感度が所定値以上に設定されていないと判定した場合は、撮像部20に対して通常の撮像を実行させる(ステップS12)。すなわち、通常通り1回の撮像で静止画を取得する。このとき、上記のように選択された領域ごとの撮像条件により撮像が行われる。 Next, the system control unit 70 determines whether or not the shutter or recording start button has been fully pressed (SW2 operation) (step S9). When determining that the full-press operation has been performed, the imaging control unit 74 performs imaging processing for causing the imaging device 100 to perform imaging (step S10). FIG. 13 is a flowchart illustrating an example of imaging processing according to the first embodiment. The imaging control unit 74 first determines whether or not the ISO sensitivity is set to a predetermined value or higher by the user or automatically (step S11). When the imaging control unit 74 determines that the ISO sensitivity is not set to the predetermined value or higher, it causes the imaging unit 20 to perform normal imaging (step S12). That is, a still image is acquired by one imaging as usual. At this time, imaging is performed under the imaging conditions for each region selected as described above.

一方、撮像制御部74は、ISO感度が所定値以上に設定されていると判定した場合は、撮像部20に対して複数回の連続撮像を実行させる(ステップS13)。例えば、撮像制御部74は、駆動部21に指示信号を出力することにより、撮像部20に対して高速に5回撮像を実行させる。この場合も、上記のように選択された領域ごとの撮像条件により撮像が行われる。例えば、既に設定されているシャッタースピードの時間中に複数回の撮像を実行する。 On the other hand, when the imaging control unit 74 determines that the ISO sensitivity is set to the predetermined value or more, it causes the imaging unit 20 to perform continuous imaging a plurality of times (step S13). For example, the imaging control unit 74 outputs an instruction signal to the driving unit 21 to cause the imaging unit 20 to perform imaging five times at high speed. Also in this case, imaging is performed under the imaging conditions for each region selected as described above. For example, multiple times of imaging are performed during the time of the already set shutter speed.

また、撮像制御部74は、画像処理部30に対して複数回の連続撮像された複数枚の画像を合成するように指示する(ステップS14)。画像処理部30において、合成処理部31は、撮像制御部74からの指示に基づいて、複数枚の画像を合成して静止画を生成する。ISO感度を高くするとノイズが生じやすくなるが、上記したように、高速に撮像された複数枚の画像を合成することにより、ノイズが低減される。 The imaging control unit 74 also instructs the image processing unit 30 to synthesize a plurality of images that have been continuously imaged a plurality of times (step S14). In the image processing unit 30 , the synthesis processing unit 31 synthesizes a plurality of images to generate a still image based on an instruction from the imaging control unit 74 . When the ISO sensitivity is increased, noise tends to occur. However, as described above, noise is reduced by synthesizing a plurality of images captured at high speed.

なお、ステップS10の撮像処理において、動画を撮像する場合は、撮像制御部74は、図13のステップS11に示す処理を行わずに、通常の撮像を実行する(ステップS12)。すなわち、動画の撮像の場合は、ステップS13に示す複数回の連続撮像や複数枚の画像の合成は行わない。 In addition, in the imaging process of step S10, when capturing a moving image, the imaging control unit 74 performs normal imaging without performing the process shown in step S11 of FIG. 13 (step S12). That is, in the case of capturing a moving image, continuous capturing of a plurality of times and composition of a plurality of images shown in step S13 are not performed.

図9~図12に示した表示画面500の表示例では、画像表示領域510に設定された各ブロックは大きな領域のブロックであった。しかし、図9~図12に示したブロックより小さい領域のブロックが画像表示領域510に設定されてもよい。図14~図16は、画像表示領域に多い数のブロックが設定される場合の表示画面の表示例を示す図である。図14~図16に示す例では、ブロックは単位グループと同じ領域又は数個の単位グループを含む領域とされている。 In the display examples of the display screen 500 shown in FIGS. 9 to 12, each block set in the image display area 510 is a large area block. However, blocks smaller than the blocks shown in FIGS. 9 to 12 may be set in the image display area 510. FIG. 14 to 16 are diagrams showing display examples of the display screen when a large number of blocks are set in the image display area. In the examples shown in FIGS. 14 to 16, the block is the same area as the unit group or an area containing several unit groups.

使用者は、領域を選択する場合、設定521をタッチした後、図14に示すように、選択する領域の境界に沿って指をなぞっていく。このような選択方法により、よりきめ細かく領域を選択することができる。撮像条件を変更する操作は、図10~図12で説明した場合と同様である。すなわち、図14に示すように、使用者は、領域513を選択する。この領域513は、滝の後ろの背景の領域(図14中の白線が引かれている領域)である。そして、使用者は、ISO感度522をタッチすると、図15に示すように、ISO感度522の横にISO感度の値が複数現れる。使用者は、ISO感度の値のいずれかをタッチしてISO感度を設定する。また、使用者は、シャッター523やフレームレート524をタッチすることにより、シャッタースピードやフレームレートを設定する。 When selecting an area, the user touches the setting 521 and then traces the finger along the boundary of the area to be selected as shown in FIG. With such a selection method, the area can be selected more finely. The operation for changing the imaging conditions is the same as that described with reference to FIGS. 10 to 12. FIG. That is, as shown in FIG. 14, the user selects area 513 . This area 513 is the background area behind the waterfall (the area with white lines in FIG. 14). When the user touches the ISO sensitivity 522, multiple ISO sensitivity values appear next to the ISO sensitivity 522 as shown in FIG. The user sets the ISO sensitivity by touching one of the ISO sensitivity values. The user also sets the shutter speed and frame rate by touching the shutter 523 and frame rate 524 .

また、使用者は、設定521をタッチした後、図16に示すように、選択する領域の境界に沿って指をなぞっていくことにより、領域514を選択する。そして、上記したのと同様に、使用者は、ISO感度522、シャッター523、及びフレームレート524をタッチ操作して、領域514におけるISO感度、シャッタースピード、及びフレームレートを設定する。また、図9~図12で説明した場合と同様に、撮影モード525をタッチして撮影モードを変更することにより、領域ごとの撮像条件の変更を自動で行うように設定することも可能である。 Further, after touching the setting 521, the user selects the area 514 by tracing the finger along the boundary of the area to be selected as shown in FIG. Then, in the same manner as described above, the user touches the ISO sensitivity 522 , shutter speed 523 and frame rate 524 to set the ISO sensitivity, shutter speed and frame rate in the area 514 . 9 to 12, by touching the shooting mode 525 to change the shooting mode, it is possible to set the shooting condition to be automatically changed for each area. .

以上に説明したように、第1実施形態では、撮像素子100を有し、第1領域と第2領域とを撮像可能な撮像部20と、撮像部20により撮像された第1領域と第2領域とに対応するライブビュー画像を表示部50に表示させる制御部71と、ライブビュー画像の第1領域の蓄積条件と、第2領域の蓄積条件とを異ならせる変更部72と、を含む。このような構成によれば、領域ごとの蓄積条件の変更に対応する画像の変化をライブビュー画像において確認することができる。従って、使用者は、静止画又は動画の撮像を開始する前に、領域ごとの撮像条件を変更して画像を作成することができる。このような処理は画像の撮像前編集が行われるものといえる。 As described above, in the first embodiment, the imaging unit 20 has the imaging element 100 and is capable of imaging the first area and the second area, and the first area and the second area imaged by the imaging unit 20. a control unit 71 that causes the display unit 50 to display a live view image corresponding to the area; According to such a configuration, it is possible to check the change of the image corresponding to the change of the accumulation condition for each area in the live view image. Therefore, the user can create an image by changing the imaging conditions for each area before starting to capture a still image or moving image. It can be said that such processing is performed before the image is captured.

また、変更部72は、第1領域の蓄積時間と、第2領域の蓄積時間とを異ならせるように構成されている。従って、使用者は、領域ごとに蓄積時間(シャッタースピード)を異ならせて画像を編集し、編集した画像を確認した上で撮像を行うことができる。また、変更部72は、第1領域のフレームレートと、第2領域のフレームレートとを異ならせるように構成されている。従って、使用者は、領域ごとにフレームレートを異ならせて画像を編集し、編集した画像を確認した上で撮像を行うことができる。また、変更部72は、第1領域のゲインと、第2領域のゲインとを異ならせるように構成されている。従って、使用者は、領域ごとにゲイン(ISO感度)を異ならせて編集し、編集した画像を確認した上で撮像を行うことができる。 Further, the changing unit 72 is configured to change the accumulation time of the first area and the accumulation time of the second area. Therefore, the user can edit the image by changing the accumulation time (shutter speed) for each area, and perform imaging after confirming the edited image. Also, the changing unit 72 is configured to change the frame rate of the first area and the frame rate of the second area. Therefore, the user can edit the image by changing the frame rate for each area, and perform imaging after confirming the edited image. Further, the changing unit 72 is configured to change the gain of the first area and the gain of the second area. Therefore, the user can change the gain (ISO sensitivity) for each area, edit the image, and check the edited image before shooting.

また、変更部72は、ライブビュー画像のコントラストと色変化との少なくとも一方に基づいて第1領域の蓄積条件と、第2領域の蓄積条件とを異ならせるように構成されている。従って、コントラストと色変化との少なくとも一方に基づいて、領域ごとに最適な蓄積条件を自動的に設定することができる。 Further, the changing unit 72 is configured to change the accumulation condition for the first area and the accumulation condition for the second area based on at least one of contrast and color change of the live view image. Therefore, optimum accumulation conditions can be automatically set for each area based on at least one of contrast and color change.

また、ライブビュー画像の第1領域と第2領域とを選択可能な選択部73を備えている。従って、使用者が任意の領域を選択することができる。または、選択部73がライブビュー画像の被写体に応じた領域を自動的に選択し、選択した領域を使用者に提供することができる。また、選択部73によって選択された領域の少なくとも一部を複数回撮像させて、合成する画像合成部74を備えているので、ノイズを低減することができる。この構成は、特に、ゲインを高くした場合に有効に作用する。 It also has a selection unit 73 capable of selecting the first area and the second area of the live view image. Therefore, the user can select any area. Alternatively, the selection unit 73 can automatically select an area corresponding to the subject of the live view image and provide the selected area to the user. In addition, since the image synthesizing unit 74 is provided for capturing images of at least part of the region selected by the selecting unit 73 a plurality of times and synthesizing the images, noise can be reduced. This configuration works effectively especially when the gain is increased.

また、選択部73は、ライブビュー画像の一部を選択する第1タッチパネル52を有するので、使用者はライブビュー画像を視認しながら領域を選択することができる。また、第1タッチパネル52は、表示部50に形成されたタッチパネルを有するので、使用者はタッチパネルのタッチ操作で領域を選択することができる。このため、簡単な操作で容易に領域を選択することができる。 Moreover, since the selection unit 73 has the first touch panel 52 for selecting a part of the live view image, the user can select the area while viewing the live view image. Also, since the first touch panel 52 has a touch panel formed on the display unit 50, the user can select an area by a touch operation on the touch panel. Therefore, the area can be easily selected by a simple operation.

また、メニュー(操作ボタン表示領域520における設定521、ISO感度522、シャッター523、フレームレート524、撮影モード525)を選択する第2タッチパネル54を備えるので、使用者はタッチパネルのタッチ操作で撮像条件などを選択することができる。このため、簡単な操作で容易に撮像条件などを選択することができる。また、制御部71は、ゲインに関するメニュー(ISO感度522)、蓄積時間に関するメニュー(シャッター523)、及びフレームレートに関するメニュー(フレームレート524)のうち、少なくとも1つを表示するので、ゲイン、蓄積時間、及びフレームレートの少なくとも1つをタッチパネルのタッチ操作で選択することができる。また、制御部71は、メニューをライブビュー画像の近傍に表示するので、撮像条件の変更に対応するライブビュー画像の変化を確認しながら撮像条件を変更することができる。従って、使用者による操作性が向上する。 In addition, since the second touch panel 54 is provided for selecting menus (setting 521, ISO sensitivity 522, shutter 523, frame rate 524, shooting mode 525 in the operation button display area 520), the user can select imaging conditions, etc. by touching the touch panel. can be selected. Therefore, it is possible to easily select imaging conditions and the like with a simple operation. Further, since the control unit 71 displays at least one of the menu regarding the gain (ISO sensitivity 522), the menu regarding the accumulation time (shutter 523), and the menu regarding the frame rate (frame rate 524), the gain and the accumulation time are displayed. , and frame rate can be selected by a touch operation on the touch panel. In addition, since the control unit 71 displays the menu near the live view image, it is possible to change the imaging condition while confirming the change in the live view image corresponding to the change in the imaging condition. Therefore, operability by the user is improved.

なお、図5に示す第1実施形態に係る電子機器1は、例えば撮像機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成される。また、図5に示す第1実施形態に係る電子機器1において、表示部50は電子機器の外部に設けられる構成であってもよい。この場合、システム制御部70及び表示部50のそれぞれには、有線又は無線で信号(画像データや制御信号など)を送受信する通信部が設けられる。また、画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。 Note that the electronic device 1 according to the first embodiment shown in FIG. 5 is composed of a device such as a digital camera, a smart phone, a mobile phone, a personal computer, etc., having an imaging function. Further, in the electronic device 1 according to the first embodiment shown in FIG. 5, the display unit 50 may be configured to be provided outside the electronic device. In this case, each of the system control unit 70 and the display unit 50 is provided with a communication unit that transmits and receives signals (image data, control signals, etc.) in a wired or wireless manner. Further, the image processing section 30 and the system control section 70 may be integrated. In this case, the system control unit having one CPU performs the functions of the image processing unit 30 and the system control unit 70 by executing processing based on the control program.

<第2実施形態>
上記した第1実施形態では、画像表示領域510内における領域の選択はマニュアルで行うように構成していたが、第2実施形態では、領域の選択も自動(オート)で行うことができる。また、この第2実施形態では、移動する被写体の動きに応じて領域及び撮像条件(蓄積条件を含む)を設定する。また、この第2実施形態では、使用者によって選択された領域又は自動的に選択された領域のみ撮像する機能も備える。
<Second embodiment>
In the above-described first embodiment, the selection of the area in the image display area 510 is configured to be manually performed, but in the second embodiment, the selection of the area can also be performed automatically. Further, in the second embodiment, the area and imaging conditions (including accumulation conditions) are set according to the movement of the moving subject. In addition, the second embodiment also has a function of imaging only a region selected by the user or automatically selected.

図17は、第2実施形態における画像処理部及びシステム制御部の機能ブロック図である。図17に示すように、画像処理部30Aは合成処理部31及び検出部32を含んでいる。この合成処理部31は、図7で説明した構成と同様であるため説明を省略する。検出部32は、移動する被写体(例えば、図9などに示す滝)を検出する処理を行う。また、システム制御部70の構成についても、図7で説明した構成と同様であるため説明を省略する。なお、画像処理部30及びシステム制御部70以外の構成(レンズ部10、撮像部20、ワークメモリ40、表示部50、記録部60)は、図5に示した構成と同様である。 FIG. 17 is a functional block diagram of an image processing section and a system control section in the second embodiment. As shown in FIG. 17, the image processing section 30A includes a composition processing section 31 and a detection section 32. As shown in FIG. The synthesizing unit 31 has the same configuration as that described with reference to FIG. 7, so description thereof will be omitted. The detection unit 32 performs processing for detecting a moving subject (for example, a waterfall shown in FIG. 9). Also, the configuration of the system control unit 70 is the same as the configuration described with reference to FIG. 7, so description thereof will be omitted. Configurations other than the image processing unit 30 and system control unit 70 (lens unit 10, imaging unit 20, work memory 40, display unit 50, recording unit 60) are the same as those shown in FIG.

次に、第2実施形態に係る撮影動作について説明する。図18は、第2実施形態に係るシステム制御部が実行する撮影動作を説明するためのフローチャートである。図18に示す処理において、電子機器1に電源が投入された後、使用者が撮影を開始するために操作部55などの操作を行うと、システム制御部70が撮影動作を開始する(ステップS1)。 Next, a shooting operation according to the second embodiment will be described. FIG. 18 is a flowchart for explaining a photographing operation executed by a system control unit according to the second embodiment; In the process shown in FIG. 18, when the user operates the operation unit 55 or the like to start photographing after the electronic device 1 is powered on, the system control unit 70 starts the photographing operation (step S1). ).

撮影が開始されると、表示制御部71は、撮像部20で撮像されたライブビュー画像を第1表示部51(画像表示領域510)に表示する(ステップS2)。使用者は、撮影モードを設定する。この場合は、撮影モード525(すなわちタッチ領域525a)をタッチする。そして、撮影モードのうちマニュアルモード(手動モード)かオートモード(自動モード)かを選択する。 When shooting is started, the display control unit 71 displays the live view image captured by the imaging unit 20 on the first display unit 51 (image display area 510) (step S2). The user sets the shooting mode. In this case, the shooting mode 525 (that is, the touch area 525a) is touched. Then, a manual mode (manual mode) or an auto mode (automatic mode) is selected from among the shooting modes.

システム制御部70は、撮影モード525としてオートが選択されたか否かを判定する(ステップS21)。撮影モードとしてオートモードが選択されていないと判定した場合、すなわち、撮影モードとしてマニュアルモードが選択されたと判定した場合は、選択部73は、図8に示すステップS3及びS4と同様の処理を行う。続いて、変更部72は、図8に示すステップS6と同様の処理を行う。 The system control unit 70 determines whether or not auto has been selected as the shooting mode 525 (step S21). If it is determined that the auto mode is not selected as the shooting mode, that is, if it is determined that the manual mode is selected as the shooting mode, the selector 73 performs the same processing as steps S3 and S4 shown in FIG. . Subsequently, the changing unit 72 performs the same processing as in step S6 shown in FIG.

一方、撮影モードとしてオートモードが選択されたと判定した場合、選択部73は、画像表示領域510に表示しているライブビュー画像に基づいて、領域及び撮像条件を自動的に設定する(ステップS22)。 On the other hand, when determining that the auto mode is selected as the shooting mode, the selection unit 73 automatically sets the area and the shooting conditions based on the live view image displayed in the image display area 510 (step S22). .

図19は、領域及び撮像条件の自動設定処理(ステップS22)の一例を示すフローチャートである。図19に示すように、システム制御部70は、画像処理部30に対して移動被写体の検出を指示する(ステップS22a)。検出部32は、ライブビュー画像から時系列的に得られる複数の画像データを比較して、移動被写体と非移動被写体(移動していない被写体)とを検出する。そして、検出部32は、検出結果を画像データとともにシステム制御部70に出力する。選択部73は、検出部32の検出結果に基づいて、移動被写体の領域と非移動被写体の領域とを設定する(ステップS22b)。 FIG. 19 is a flow chart showing an example of the automatic setting process (step S22) of the area and imaging conditions. As shown in FIG. 19, the system control unit 70 instructs the image processing unit 30 to detect a moving object (step S22a). The detection unit 32 compares a plurality of pieces of image data obtained in time series from the live view image to detect a moving subject and a non-moving subject (not moving subject). The detection unit 32 then outputs the detection result to the system control unit 70 together with the image data. The selection unit 73 sets the area of the moving subject and the area of the non-moving subject based on the detection result of the detection unit 32 (step S22b).

また、変更部72は、検出部32の検出結果に基づいて、移動被写体の領域と非移動被写体の領域の撮像条件を設定する(ステップS22c)。例えば、移動被写体の領域については、ISO感度を高くするとともに、シャッタースピードを速くする。また、動画を撮像している場合は、移動被写体の領域については、フレームレートを非移動被写体の領域のフレームレートよりも高くする。また、非移動被写体の領域については、ISO感度を移動被写体の領域のISO感度よりも低くするとともに、シャッタースピードを移動被写体の領域のシャッタースピードよりも遅くする。また、動画を撮像している場合は、非移動被写体の領域については、フレームレートを移動被写体の領域のフレームレートよりも低くする。 The changing unit 72 also sets imaging conditions for the moving subject area and the non-moving subject area based on the detection result of the detecting unit 32 (step S22c). For example, for moving subject areas, the ISO sensitivity is increased and the shutter speed is increased. Also, when a moving image is being captured, the frame rate for the area of the moving subject is set higher than the frame rate for the area of the non-moving subject. For the non-moving subject area, the ISO sensitivity is set lower than the ISO sensitivity for the moving subject area, and the shutter speed is set slower than the shutter speed for the moving subject area. Also, when capturing a moving image, the frame rate for the area of the non-moving subject is set lower than the frame rate for the area of the moving subject.

なお、図19に示す領域及び撮像条件の自動設定処理は一例であって、他の方法により領域及び撮像条件を設定するようにしてもよい。例えば、検出部32により移動被写体が検出されなかった場合は、選択部73は、ライブビュー画像における明部と暗部のコントラストや色変化に基づいて領域の境界を特定して領域を設定するようにしてもよい。また、第1実施形態で説明したように、変更部72は、ライブビュー画像における領域511内の画像のコントラストと色変化のうちの少なくとも一方に基づいて撮像条件を変更するようにしてもよい。このような領域及び撮像条件を設定する処理と、図19に示す処理とを組み合わせて適用してもよい。 Note that the automatic setting process of the region and imaging conditions shown in FIG. 19 is an example, and the region and imaging conditions may be set by other methods. For example, if the detection unit 32 does not detect a moving subject, the selection unit 73 specifies the boundary of the area based on the contrast and color change between the bright and dark areas in the live view image and sets the area. may Also, as described in the first embodiment, the changing unit 72 may change the imaging conditions based on at least one of contrast and color change of the image within the area 511 in the live view image. The processing for setting such regions and imaging conditions and the processing shown in FIG. 19 may be combined and applied.

システム制御部70は、第1実施形態と同様に、シャッター又は録画開始ボタンの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS8)。半押し操作が行われた場合は、システム制御部70は、シャッター又は録画開始ボタンの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS9)。全押し操作が行われたと判定した場合は、撮像制御部74は、撮像素子100に撮像を実行させる撮像処理を行う(ステップS23)。 As in the first embodiment, the system control unit 70 determines whether or not the shutter or recording start button has been half-pressed (SW1 operation) (step S8). If the half-press operation has been performed, the system control unit 70 determines whether or not the full-press operation (SW2 operation) of the shutter or recording start button has been performed (step S9). When determining that the full-press operation has been performed, the imaging control unit 74 performs imaging processing for causing the imaging element 100 to perform imaging (step S23).

図20は、第2実施形態に係る撮像処理の一例を示すフローチャートである。撮像制御部74は、使用者により領域撮像モードが設定されているか否かを判定する(ステップS31)。ここで、領域撮像モードは、使用者により選択された領域又は自動的に設定された領域についてのみ撮像を行うモードである。使用者は、撮像処理を実行する前に、操作部55や第2タッチパネル54(例えば、撮影モード525のタッチ操作)などを操作することにより領域撮像モードを設定する。 FIG. 20 is a flowchart illustrating an example of imaging processing according to the second embodiment. The imaging control unit 74 determines whether or not the area imaging mode is set by the user (step S31). Here, the area imaging mode is a mode in which only an area selected by the user or an area automatically set is imaged. The user sets the area imaging mode by operating the operation unit 55 or the second touch panel 54 (for example, touch operation of the imaging mode 525) before executing the imaging process.

撮像制御部74は、領域撮像モードが設定されていないと判定した場合は、画像表示領域510のすべての領域について撮像を実行させる(ステップS32)。この場合は、例えば、図13のステップS11~S14と同様の処理が行われる。一方、撮像制御部74は、領域撮像モードが設定されていると判定した場合は、画像表示領域510において選択された領域についてのみ撮像を実行させる(ステップS33)。このとき、選択された領域に設定された撮像条件で撮像が行われる。 When the imaging control unit 74 determines that the area imaging mode is not set, imaging is performed for all areas of the image display area 510 (step S32). In this case, for example, processing similar to steps S11 to S14 in FIG. 13 is performed. On the other hand, when the imaging control unit 74 determines that the area imaging mode is set, imaging is performed only for the area selected in the image display area 510 (step S33). At this time, imaging is performed under the imaging conditions set for the selected region.

図21は、選択された領域のみ撮像される場合の表示画面の表示例を示す図である。図21に示すように、滝の領域513が選択された場合は、その領域513のみ撮像が行われ、その他の領域については撮像が行われない。 FIG. 21 is a diagram showing a display example of the display screen when only the selected area is imaged. As shown in FIG. 21, when a waterfall region 513 is selected, only that region 513 is imaged, and other regions are not imaged.

以上に説明したように、第2実施形態では、移動被写体を検出する検出部32を備え、変更部72は、検出部32の検出結果に応じて、第1領域の蓄積条件と、第2領域の蓄積条件とを異ならせるように構成されている。従って、移動被写体の動きに適した撮像条件を設定することができる。また、選択部73は、検出部32の検出結果に応じて、第1領域と第2領域とを設定するように構成されている。従って、移動被写体の領域を確実に抽出することができる。また、第2実施形態においても、第1実施形態で説明した効果と同様の効果を奏する。 As described above, in the second embodiment, the detection unit 32 that detects a moving subject is provided, and the change unit 72 changes the accumulation conditions for the first area and the second area according to the detection result of the detection unit 32. is configured to be different from the accumulation condition of Therefore, it is possible to set imaging conditions suitable for the movement of the moving subject. The selection unit 73 is also configured to set the first area and the second area according to the detection result of the detection unit 32 . Therefore, it is possible to reliably extract the area of the moving subject. Also, in the second embodiment, the same effects as those described in the first embodiment are obtained.

また、この第2実施形態では、使用者によって選択された領域又は自動的に選択された領域のみ撮像する機能を備える。従って、使用者が撮像したい領域についてだけ撮像を行うことができる。このような構成によれば、使用者は例えば利用価値の高い様々な素材画像を取得することができる。 In addition, the second embodiment has a function of imaging only the area selected by the user or the area automatically selected. Therefore, it is possible to image only the area that the user wants to image. According to such a configuration, the user can acquire, for example, various material images with high utility value.

なお、第2実施形態においても、使用者が設定可能な領域ごとの撮像条件として、ISO感度、シャッタースピード、及びフレームレートに限られない。例えば、上述した間引き率、画素信号を加算する加算行数又は加算列数、デジタル化のビット数なども領域ごとの撮像条件として設定可能に構成してもよい。また、色信号処理、ホワイトバランス調整、階調調整、圧縮率などのパラメータも領域ごとの撮像条件として設定可能に構成してもよい。 Also in the second embodiment, the imaging conditions for each region that can be set by the user are not limited to ISO sensitivity, shutter speed, and frame rate. For example, the thinning rate described above, the number of addition rows or addition columns for adding pixel signals, the number of bits for digitization, and the like may be set as imaging conditions for each region. Also, parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate may be configured to be settable as imaging conditions for each area.

また、第2実施形態において、画像処理部30Aは、CPUが制御プログラムに基づいて処理を実行することにより実現される。 Further, in the second embodiment, the image processing section 30A is implemented by the CPU executing processing based on a control program.

<第3実施形態>
第3実施形態では、上記した第1実施形態における電子機器1を、撮像装置1Aと電子機器1Bとに分離した構成としている。
<Third Embodiment>
In the third embodiment, the electronic device 1 in the first embodiment described above is separated into an imaging device 1A and an electronic device 1B.

図22は、第3実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。図22に示す構成において、撮像装置1Aは、被写体の撮像を行う装置である。この撮像装置1Aは、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、記録部60、及び第1システム制御部70Aを備える。なお、撮像装置1Aのうち、10、撮像部20、画像処理部30、ワークメモリ40、操作部55、及び記録部60の構成は、図5に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 FIG. 22 is a block diagram showing configurations of an imaging device and an electronic device according to the third embodiment. In the configuration shown in FIG. 22, the imaging device 1A is a device for imaging a subject. This imaging apparatus 1A includes a lens section 10, an imaging section 20, an image processing section 30, a work memory 40, an operation section 55, a recording section 60, and a first system control section 70A. In addition, the configuration of 10, the imaging unit 20, the image processing unit 30, the work memory 40, the operation unit 55, and the recording unit 60 in the imaging apparatus 1A is the same as the configuration shown in FIG. Therefore, the same configurations are denoted by the same reference numerals, and overlapping descriptions are omitted.

また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部(制御部)70Bを備える。なお、電子機器1Bのうちの表示部50の構成は、図5に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 Further, the electronic device 1B is a device that displays images (still images, moving images, live view images). The electronic device 1B includes a display section 50 and a second system control section (control section) 70B. Note that the configuration of the display unit 50 in the electronic device 1B is the same as the configuration shown in FIG. Therefore, the same configurations are denoted by the same reference numerals, and overlapping descriptions are omitted.

第1システム制御部70Aは、第1通信部75Aを有している。また、第2システム制御部70Bは、第2通信部75Bを有している。第1通信部75Aと第2通信部75Bとは、互いに有線又は無線で信号を送受信する。また、第1システム制御部70Aは、図7に示す構成のうち、例えば撮像制御部74に相当する構成のみ有している。また、第2システム制御部70Bは、図7に示す構成のうち、例えば表示制御部71、変更部72、及び選択部73に相当する構成を有している。 The first system control section 70A has a first communication section 75A. The second system control section 70B also has a second communication section 75B. The first communication section 75A and the second communication section 75B transmit and receive signals to and from each other by wire or wirelessly. Further, the first system control section 70A has only a configuration corresponding to, for example, the imaging control section 74 among the configurations shown in FIG. The second system control unit 70B has a configuration corresponding to, for example, the display control unit 71, the change unit 72, and the selection unit 73 in the configuration shown in FIG.

このような構成において、第1システム制御部70Aは、第1通信部75Aを介して画像データ(画像処理部30が画像処理した画像データ、記録部60に記録されている画像データ)を第2通信部75Bに送信する。第2システム制御部70Bは、第2通信部75Bにおいて受信した画像データを表示部50に表示させる。また、第2システム制御部70Bは、予め設定されているメニュー画像を第2表示部53に表示させる。 In such a configuration, the first system control unit 70A transmits image data (image data processed by the image processing unit 30, image data recorded in the recording unit 60) to the second system via the first communication unit 75A. It is transmitted to the communication section 75B. The second system control unit 70B causes the display unit 50 to display the image data received by the second communication unit 75B. The second system control unit 70B also causes the second display unit 53 to display a preset menu image.

また、第2システム制御部70Bは、使用者による第2タッチパネル54のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を変更する制御を行う。また、第2システム制御部70Bは、使用者による第1タッチパネル52のタッチ操作に応じて、又は自動的に、画像表示領域510内の領域をブロック単位で選択する制御を行う。また、第1システム制御部70Aは、使用者によるシャッターボタン(電子機器1B側に設けられた静止画や動画の撮像開始を指示する操作部)の操作に応じて撮像の制御を実行する。 In addition, the second system control unit 70B performs control to change the imaging conditions (including accumulation conditions) according to the user's touch operation on the second touch panel 54 or automatically. In addition, the second system control unit 70B performs control to select an area within the image display area 510 in units of blocks in accordance with a user's touch operation on the first touch panel 52 or automatically. In addition, the first system control unit 70A executes imaging control according to the user's operation of the shutter button (an operation unit provided on the electronic device 1B side for instructing the start of imaging of a still image or a moving image).

図7に示す構成(表示制御部71、変更部72、選択部73、及び撮像制御部74)は、第1システム制御部70Aと第2システム制御部70Bのいずれに設けられてもよい。図7に示すすべての構成は、第1システム制御部70A又は第2システム制御部70Bに設けられてもよく、また図7に示す構成の一部が第1システム制御部70Aに設けられ、図7に示す構成の一部以外の構成が第2システム制御部70Bに設けられてもよい。 The configuration shown in FIG. 7 (the display control unit 71, the change unit 72, the selection unit 73, and the imaging control unit 74) may be provided in either the first system control unit 70A or the second system control unit 70B. All the configuration shown in FIG. 7 may be provided in the first system control unit 70A or the second system control unit 70B, and part of the configuration shown in FIG. 7 may be provided in the first system control unit 70A, 7 may be provided in the second system control unit 70B.

なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。 The imaging device 1A is composed of, for example, a digital camera, a smart phone, a mobile phone, a personal computer, etc., each having an imaging function and a communication function, and the electronic device 1B is, for example, a smart phone, a mobile phone, a portable personal computer, etc. It consists of portable terminals such as computers.

図22に示す画像処理部30は、CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図22に示す第1システム制御部70Aは、CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図22に示す第2システム制御部70Bは、CPUが制御プログラムに基づいて処理を実行することにより実現される。 The image processing unit 30 shown in FIG. 22 is implemented by the CPU executing processing based on a control program. Also, the first system control unit 70A shown in FIG. 22 is implemented by the CPU executing processing based on the control program. Also, the second system control unit 70B shown in FIG. 22 is implemented by the CPU executing processing based on the control program.

以上に説明したように、第3実施形態では、撮像素子100を有し、第1領域と第2領域とを撮像する撮像部20が撮像したライブビュー画像を表示可能な表示部50と、撮像部20により撮像された第1領域と第2領域とに対応するライブビュー画像が表示部50に表示されている際に、ライブビュー画像の撮像条件を設定するメニューを表示部50に表示させる制御部75Bと、を含む。このような構成によれば、第1実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1Aで撮像されているライブビュー画像を編集し、編集したライブビュー画像を確認した上で撮像を行うことができる。 As described above, in the third embodiment, the display unit 50 has the image sensor 100 and can display a live view image captured by the image capturing unit 20 that captures images of the first region and the second region; Control to display on the display unit 50 a menu for setting imaging conditions of the live view image when the live view image corresponding to the first region and the second region captured by the unit 20 is displayed on the display unit 50. and a portion 75B. According to such a configuration, in addition to the effects described in the first embodiment, the live view image captured by the imaging device 1A is edited using a mobile terminal such as a smartphone, and the edited live view image is confirmed. Imaging can be performed on the

なお、図22に示す構成において、画像処理部30と第1システム制御部70Aとは一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部70Aの機能を担う。 In the configuration shown in FIG. 22, the image processing section 30 and the first system control section 70A may be integrated. In this case, a system control unit having one CPU performs processing based on a control program to perform the function of the image processing unit 30 and the function of the first system control unit 70A.

<第4実施形態>
図6、図9~図12、図14~図16、及び図21示す操作ボタン表示領域520において、各ボタン521~525は、それぞれ予め決められた順序で配置されていた。すなわち、設定521は一番上に配置され、ISO感度522は上から2番目(すなわち設定521の下)に配置され、シャッター523は上から3番目(すなわちISO感度522の下)に配置され、フレームレート524は上から4番目(すなわちシャッター523の下)に配置され、撮影モード525は一番下に配置されていた。一方、第4実施形態では、表示制御部71が領域内の被写体に応じて各ボタン521~525の配置を変更して表示する。また、第4実施形態では、表示制御部71が優先度の高いボタンを他のボタンの表示態様と異なる表示態様で表示する。
<Fourth Embodiment>
In the operation button display area 520 shown in FIGS. 6, 9 to 12, 14 to 16, and 21, buttons 521 to 525 are arranged in a predetermined order. That is, setting 521 is placed at the top, ISO sensitivity 522 is placed second from the top (i.e., below setting 521), shutter 523 is placed third from the top (i.e., below ISO speed 522), The frame rate 524 was placed fourth from the top (that is, below the shutter 523), and the shooting mode 525 was placed at the bottom. On the other hand, in the fourth embodiment, the display control unit 71 changes the arrangement of the buttons 521 to 525 according to the subject in the area and displays them. Further, in the fourth embodiment, the display control unit 71 displays a button with a high priority in a display mode different from the display mode of other buttons.

図23は、第4実施形態における表示画面の表示例を示す図である。図23に示す例では、設定521は一番上に配置され、シャッター523は上から2番目(すなわち設定521の下)に配置され、フレームレート524は上から3番目(すなわちシャッター523の下)に配置され、ISO感度522は上から4番目(すなわちフレームレート524の下)に配置され、撮影モード525は一番下に配置されている。また、図23に示すように、シャッター523は、他のボタン(設定521、ISO感度522、フレームレート524、撮影モード525)よりも大きな領域のボタンとなっている。 FIG. 23 is a diagram showing a display example of the display screen in the fourth embodiment. In the example shown in FIG. 23, setting 521 is placed at the top, shutter 523 is placed second from the top (i.e., below setting 521), and frame rate 524 is placed third from the top (i.e., below shutter 523). , the ISO sensitivity 522 is the fourth from the top (that is, below the frame rate 524), and the shooting mode 525 is located at the bottom. Also, as shown in FIG. 23, the shutter 523 has a larger area than the other buttons (setting 521, ISO sensitivity 522, frame rate 524, shooting mode 525).

また、第2タッチパネル54において、タッチ領域521aが設定521上に重なるように形成されている。また、タッチ領域523aがシャッター523上に重なるように形成されている。また、タッチ領域524aがフレームレート524上に重なるように形成されている。また、タッチ領域522aがISO感度522上に重なるように形成されている。また、タッチ領域525aが撮影モード525上に重なるように形成されている。なお、タッチ領域523aは、シャッター523の領域の大きさに合わせて、他のボタンの領域よりも大きな領域となっている。 Also, in the second touch panel 54, a touch area 521a is formed so as to overlap the setting 521. As shown in FIG. Also, a touch area 523 a is formed so as to overlap the shutter 523 . Also, a touch area 524 a is formed so as to overlap the frame rate 524 . Also, the touch area 522 a is formed so as to overlap the ISO sensitivity 522 . Also, a touch area 525 a is formed so as to overlap the shooting mode 525 . It should be noted that the touch area 523a is larger than the other button areas in accordance with the size of the shutter 523 area.

次に、画像処理部30及びシステム制御部70による各ボタン512~525の配置の変更処理について説明する。図8及び図18のステップS6を実行するときに、システム制御部70は、画像処理部30に対して移動被写体の検出を指示する。検出部32は、ライブビュー画像から時系列的に得られる複数の画像データを比較して、移動被写体と非移動被写体とを検出する。そして、検出部32は、検出結果を画像データとともにシステム制御部70に出力する。 Next, a process of changing the arrangement of the buttons 512 to 525 by the image processing section 30 and the system control section 70 will be described. When executing step S6 in FIGS. 8 and 18, the system control unit 70 instructs the image processing unit 30 to detect a moving subject. The detection unit 32 detects a moving subject and a non-moving subject by comparing a plurality of pieces of image data obtained in time series from the live view image. The detection unit 32 then outputs the detection result to the system control unit 70 together with the image data.

表示制御部71は、検出部32の検出結果に基づいて、選択部73により選択された領域内に移動被写体が含まれているか否かを判定する。表示制御部71は、選択部73により選択された領域内に移動被写体が含まれていると判定した場合は、図23に示すように、シャッタースピードを設定するためのボタンであるシャッター523を上から2番目の位置に表示させる。また、表示制御部71は、シャッター523を他のボタンよりも大きく表示させる。 The display control unit 71 determines whether or not the region selected by the selection unit 73 includes a moving subject based on the detection result of the detection unit 32 . When the display control unit 71 determines that the moving subject is included in the area selected by the selection unit 73, as shown in FIG. to the second position from . In addition, the display control unit 71 displays the shutter 523 larger than the other buttons.

シャッタースピードの変更により、移動被写体の写り方が変化する。例えば、移動被写体が滝である場合、シャッタースピードを高く(速く)することにより、滝の水の流れが瞬間的に止まったような画像となる。一方、シャッタースピードを低く(遅く)することにより、滝の水の流れが糸に見えるような画像となる。このように、移動被写体については、シャッタースピードが他の撮像条件よりも被写体の写り方に大きく影響する。従って、表示制御部71は、領域内に移動被写体が含まれている場合、シャッタースピードの優先度が他の撮像条件よりも高いと判断する。そして、表示制御部71は、シャッター523の位置を上に移動させるとともに、シャッター523を大きな領域のボタンとして表示させる。これにより、優先度の高いボタンが使用者にとって操作しやすい位置に配置され、使用者の操作性が向上する。また、優先度の高いボタン(つまり撮像条件)が他のボタン(つまり撮像条件)よりも目立つようになり、使用者に優先度の高いボタンの操作を促すことができる。 Changing the shutter speed changes how the moving subject is captured. For example, when the moving subject is a waterfall, by increasing (fastening) the shutter speed, an image appears as if the flow of water in the waterfall has stopped momentarily. On the other hand, if the shutter speed is set low (slow), an image in which the flowing water of the waterfall looks like threads is created. As described above, for a moving subject, the shutter speed has a greater effect on how the subject is captured than other imaging conditions. Therefore, the display control unit 71 determines that the priority of the shutter speed is higher than the other imaging conditions when the moving subject is included in the area. Then, the display control unit 71 moves the position of the shutter 523 upward and displays the shutter 523 as a button with a large area. As a result, the buttons with high priority are arranged at positions that are easy for the user to operate, and the operability for the user is improved. Also, a button with a high priority (that is, an imaging condition) becomes more conspicuous than other buttons (that is, an imaging condition), and the user can be prompted to operate the button with a high priority.

なお、動画の場合は、フレームレートが移動被写体の動きの滑らかさに大きく影響する。従って、表示制御部71は、移動被写体の動画を撮像する場合は、フレームレートの優先度が他の撮像条件よりも高いと判断する。そして、表示制御部71は、フレームレート524の位置を上に移動させるとともに、フレームレート524を大きな領域のボタンとして表示させる。 In the case of moving images, the frame rate greatly affects the smoothness of motion of a moving subject. Therefore, the display control unit 71 determines that the priority of the frame rate is higher than other imaging conditions when capturing a moving image of a moving subject. Then, the display control unit 71 moves the position of the frame rate 524 upward and displays the frame rate 524 as a button in a large area.

上述した例では、表示制御部71は、領域内の被写体が移動被写体であるか否かによってボタンの配置や表示態様(大きさ)を変更するようにしていたが、このような構成に限らない。例えば、図8及び図18のステップS6を実行するときに、システム制御部70は、画像処理部30に対して画像の明度の検出を指示する。画像処理部30は、ライブビュー画像に基づいて領域内の画像の明度を検出する。そして、画像処理部30は、検出結果を画像データとともにシステム制御部70に出力する。 In the example described above, the display control unit 71 changes the layout and display mode (size) of the buttons depending on whether the subject in the area is a moving subject, but the configuration is not limited to this. . For example, when executing step S6 in FIGS. 8 and 18, the system control unit 70 instructs the image processing unit 30 to detect the brightness of the image. The image processing unit 30 detects the brightness of the image within the area based on the live view image. The image processing unit 30 then outputs the detection result to the system control unit 70 together with the image data.

表示制御部71は、画像処理部30による明度の検出結果に基づいて、選択部73により選択された領域内の画像の明度が所定範囲内の値であるか否かを判定する。表示制御部71は、領域内の画像の明度が所定範囲内の値でないと判定した場合は、ISO感度を設定するためのボタンであるISO感度522を上から2番目の位置に表示させる。また、表示制御部71は、ISO感度522を他のボタンよりも大きく表示させる。 The display control unit 71 determines whether the brightness of the image in the region selected by the selection unit 73 is within a predetermined range based on the brightness detection result by the image processing unit 30 . When the display control unit 71 determines that the brightness of the image in the area is not within the predetermined range, it displays the ISO sensitivity 522, which is a button for setting the ISO sensitivity, at the second position from the top. Also, the display control unit 71 displays the ISO sensitivity 522 larger than the other buttons.

ISO感度の変更により、ライブビュー画像の暗い部分が明るくなり、明るい部分が暗くなる。領域内の明度が所定範囲内の値でない場合、すなわち、領域内の画像が明るすぎる場合や暗すぎる場合は、ISO感度を変更することにより最適露出に近づけることができる。従って、表示制御部71は、領域内の画像が所定範囲内の値でない場合、ISO感度の優先度が他の撮像条件よりも高いと判断する。そして、表示制御部71は、ISO感度522の位置を上に移動させるとともに、ISO感度522を大きな領域のボタンとして表示させる。これにより、優先度の高いボタンが使用者にとって操作しやすい位置に配置され、使用者の操作性が向上する。また、優先度の高いボタン(つまり撮像条件)が他のボタン(つまり撮像条件)よりも目立つようになり、使用者に優先度の高いボタンの操作を促すことができる。 By changing the ISO sensitivity, the dark portions of the live view image become brighter and the bright portions become darker. If the lightness in the area is not within the predetermined range, that is, if the image in the area is too bright or too dark, the ISO sensitivity can be changed to bring the exposure closer to the optimal exposure. Therefore, when the image in the area does not have a value within the predetermined range, the display control unit 71 determines that the priority of the ISO sensitivity is higher than the other imaging conditions. Then, the display control unit 71 moves the position of the ISO sensitivity 522 upward and displays the ISO sensitivity 522 as a button in a large area. As a result, the buttons with high priority are arranged at positions that are easy for the user to operate, and the operability for the user is improved. Also, a button with a high priority (that is, an imaging condition) becomes more conspicuous than other buttons (that is, an imaging condition), and the user can be prompted to operate the button with a high priority.

なお、優先度の高いボタンを目立たせるような表示態様として、ボタンを大きくするほかに、ボタンの色を変更したり、ボタンを点滅表示させたりするような表示態様などでもよい。また、優先度の高いボタンが使用者により押される前に、そのボタンの横に撮像条件の値を複数表示させることにより、優先度の高いボタンを目立たせるようにしてもよい。また、ボタンの配置だけを変更する構成でもよく、また、ボタンの表示態様だけを変更する構成でもよい。 In addition to enlarging the buttons, a display mode such as changing the color of the buttons or blinking the buttons may be used as a display mode to make the buttons with high priority stand out. Also, before a button with a high priority is pressed by the user, a plurality of imaging condition values may be displayed next to the button so that the button with the high priority is conspicuous. Alternatively, the configuration may be such that only the layout of the buttons is changed, or the configuration that only the display mode of the buttons is changed.

また、使用者がボタンを操作する順序に応じて、ボタンの配置を変更し、ボタンの表示態様を変更するようにしてもよい。例えば、使用者は、設定521を押した後に領域を選択する。次に、使用者は、撮影モード525を押して撮影モードとしてマニュアルモードを選択する。その後に、使用者は、領域ごとに撮像条件を変更する。このような場合、表示制御部71は、設定521を一番上に配置するとともに設定521を大きくする。次に、表示制御部71は、撮影モード525を一番上に配置するとともに撮影モード525を大きくする。その後、表示制御部71は、領域ごとの被写体(画像)に応じて、ISO感度522、シャッター523、及びフレームレート524のいずれかを一番上に配置し、さらに、その一番上のボタンを大きくする。このように、使用者の操作手順に沿った順序でボタンの配置や表示態様を変更することにより、使用者による操作の利便性が向上する。 Further, the layout of the buttons may be changed and the display mode of the buttons may be changed according to the order in which the user operates the buttons. For example, the user selects a region after pressing Settings 521 . Next, the user presses shooting mode 525 to select manual mode as the shooting mode. After that, the user changes the imaging conditions for each area. In such a case, the display control unit 71 arranges the setting 521 at the top and increases the setting 521 . Next, the display control unit 71 arranges the photographing mode 525 at the top and enlarges the photographing mode 525 . After that, the display control unit 71 arranges any one of the ISO sensitivity 522, the shutter 523, and the frame rate 524 at the top according to the subject (image) for each area, and furthermore, presses the top button. Enlarge. In this way, by changing the layout of the buttons and the display mode in accordance with the user's operation procedure, the convenience of the user's operation is improved.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various modifications and improvements can be made to the above embodiments without departing from the scope of the present invention. Also, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omissions are also included in the technical scope of the present invention. Moreover, it is also possible to appropriately combine the configurations of the above-described embodiments and modifications and apply them.

例えば、上記した第1実施形態及び第2実施形態において、電子機器1は、撮像部20と、制御部71及び変更部72を含むシステム制御部70とを備えていれば、レンズ部10や記録部60などを備えていなくてもよい。すなわち、これらの構成は電子機器1と別構成とされていてもよい。また、上記した第3実施形態において、撮像装置1Aについても、レンズ部10や記録部60などは別構成とされていてもよい。 For example, in the above-described first and second embodiments, if the electronic device 1 includes the imaging unit 20 and the system control unit 70 including the control unit 71 and the change unit 72, the lens unit 10 and the recording The unit 60 and the like may not be provided. That is, these configurations may be configured separately from the electronic device 1 . Further, in the above-described third embodiment, the lens unit 10, the recording unit 60, and the like may be configured separately in the imaging device 1A as well.

また、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。 Further, in each of the above-described embodiments, the arrangement of the color filters 102 is the Bayer arrangement, but an arrangement other than this arrangement may be used. Also, the number of pixels forming the unit group 131 should include at least one pixel. Also, it is sufficient that each block includes at least one pixel. Therefore, it is possible to perform imaging under different imaging conditions for each pixel.

また、上記した各実施形態において、駆動部21は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部30の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部70の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。 Further, in each of the above-described embodiments, the drive unit 21 may be partially or wholly mounted on the imaging chip 113 , or may be partially or wholly mounted on the signal processing chip 111 . Also, part of the configuration of the image processing unit 30 may be mounted on the imaging chip 113 or the signal processing chip 111 . Also, part of the configuration of the system control unit 70 may be mounted on the imaging chip 113 or the signal processing chip 111 .

また、上記した各実施形態において、撮像条件として、ISO感度、シャッタースピード、フレームレートのすべてが変更可能に構成されているが、これらの少なくとも1つを変更可能であればよい。また、撮像条件が自動的に設定される場合、最適露出となるようなベストモードの撮像条件を使用者に提示するようにしてもよく、また撮像条件が段階的に変更されたライブビュー画像を使用者に提示するようにしてもよい。 In each of the above-described embodiments, the ISO sensitivity, shutter speed, and frame rate are all changeable as imaging conditions, but at least one of them may be changeable. Further, when the imaging conditions are automatically set, the best mode imaging conditions that provide the optimum exposure may be presented to the user. You may make it present to a user.

また、上記した各実施形態において、操作ボタン表示領域520は、画像表示領域510の近傍に設けられていたが、画像表示領域510の近傍でない位置に設けられてもよい。また、操作ボタン表示領域520は、画像表示領域510と重畳した位置に配置されてもよい。また、使用者が第2タッチパネル54をタッチ操作することに代えて、操作部55を操作するようにしてもよい。 Further, although the operation button display area 520 is provided near the image display area 510 in each of the above-described embodiments, it may be provided at a position other than the image display area 510 . Also, the operation button display area 520 may be arranged at a position overlapping the image display area 510 . Alternatively, the user may operate the operation unit 55 instead of performing the touch operation on the second touch panel 54 .

また、上記した各実施形態において、使用者が第1タッチパネル52を操作して領域を選択し、第2タッチパネル54を操作して撮像条件などを設定するように構成されていた。しかし、このような構成に限られず、使用者は操作部55を操作して領域を選択し、撮像条件などを設定するように構成されてもよい。 Further, in each of the above-described embodiments, the user operates the first touch panel 52 to select an area, and operates the second touch panel 54 to set imaging conditions and the like. However, the configuration is not limited to such a configuration, and the configuration may be such that the user operates the operation unit 55 to select an area and set imaging conditions and the like.

また、上記した第1実施形態では、使用者は、領域についてはマニュアルで設定し、撮像条件はマニュアルで設定するか自動的に設定するかを撮影モードを設定することにより選択する。また、上記した第2実施形態では、使用者は、領域及び撮像条件についてマニュアルで設定するか自動的に設定するかを撮影モードを設定することにより選択する。しかし、使用者が領域及び撮像条件のすべてをマニュアルだけで設定するようにしてもよい。また、領域については自動的に設定し、撮像条件についてはマニュアルで設定するか自動的に設定するかを撮影モードを設定することにより選択するようにしてもよい。 Further, in the above-described first embodiment, the user manually sets the area and selects whether the imaging condition should be set manually or automatically by setting the imaging mode. Further, in the second embodiment described above, the user selects whether to set the area and imaging conditions manually or automatically by setting the imaging mode. However, the user may set all the areas and imaging conditions only manually. Alternatively, the area may be set automatically, and whether the imaging condition should be set manually or automatically may be selected by setting the imaging mode.

また、上記した各実施形態では、ブロックの領域の大きさが予め設定されている場合について説明したが、使用者がブロックの領域の大きさを設定するように構成してもよい。また、上記した第1実施形態では、画像表示領域510内に設定されるブロックの数が少ない場合(図9~図12)と、画像表示領域510内に設定されるブロックの数が多い場合(図14~図16)とを例示した。しかし、システム制御部70(選択部73)が大きな領域のブロックと小さな領域のブロックとを自動的に設定するようにしてもよい。例えば、システム制御部70(選択部73)が領域の境界を自動的に認識する。次に、システム制御部70(選択部73)は、領域の境界が大きな領域のブロックを横断する場合は、大きな領域のブロック内に小さな領域のブロックを設定する。そして、システム制御部70は、小さな領域のブロック単位で、領域の境界に沿って領域を設定する。 Further, in each of the above-described embodiments, the case where the size of the block area is set in advance has been described, but the user may set the size of the block area. Further, in the above-described first embodiment, when the number of blocks set in the image display area 510 is small (FIGS. 9 to 12), and when the number of blocks set in the image display area 510 is large ( 14 to 16) are exemplified. However, the system control unit 70 (selection unit 73) may automatically set large area blocks and small area blocks. For example, the system control unit 70 (selection unit 73) automatically recognizes the boundary of the area. Next, the system control unit 70 (selection unit 73) sets the small area block within the large area block when the boundary of the area crosses the large area block. Then, the system control unit 70 sets the area along the boundary of the area in block units of the small area.

また、上記した各実施形態において、第1表示部51に表示しているライブビュー画像の撮像条件と、シャッター操作に応じて撮像するときの撮像条件とは同じ条件であることを想定している。ライブビュー画像において実際に撮像される画像を確認することができるようにするためである。しかし、ライブビュー画像の撮像条件と実際に撮像される画像の撮像条件とを異ならせてもよい。この場合、使用者がライブビュー画像に基づいて実際に撮像される画像を認識できる程度の撮像条件の変更とされる。 Further, in each of the above-described embodiments, it is assumed that the imaging condition for the live view image displayed on the first display unit 51 and the imaging condition for imaging in response to the shutter operation are the same conditions. . This is so that the image that is actually captured can be confirmed in the live view image. However, the imaging conditions for the live view image and the imaging conditions for the actually captured image may be different. In this case, the imaging conditions are changed to such an extent that the user can recognize the image that is actually captured based on the live view image.

1,1B…電子機器、1A…撮像装置、20…撮像部、30,30A…画像処理部、31…合成処理部、32…検出部、50…表示部、51…第1表示部、52…第1タッチパネル(選択部、第1操作部)、53…第2表示部、54…第2タッチパネル(第2操作部)、70…システム制御部、70A…第1システム制御部、70B…第2システム制御部(制御部)、71…表示制御部(制御部)、72…変更部、73…選択部、74…撮像制御部(画像合成部)、100…撮像素子 DESCRIPTION OF SYMBOLS 1, 1B... Electronic equipment 1A... Imaging device 20... Imaging part 30, 30A... Image processing part 31... Combining process part 32... Detection part 50... Display part 51... First display part 52... First touch panel (selection unit, first operation unit) 53 Second display unit 54 Second touch panel (second operation unit) 70 System control unit 70A First system control unit 70B Second System control unit (control unit) 71 Display control unit (control unit) 72 Change unit 73 Selection unit 74 Imaging control unit (image synthesizing unit) 100 Imaging device

Claims (15)

行方向と列方向とにおいて並んで配置され、光を電荷に変換する複数の光電変換部を有する撮像素子と、
前記複数の光電変換部のうちの第1光電変換部で変換された電荷の蓄積回数を、前記複数の光電変換部のうち、前記第1光電変換部から前記行方向の位置に配置される第2光電変換部で変換された電荷の蓄積回数とは異なる蓄積回数とするための操作を受け付ける操作部と、
前記操作部で受け付けた前記操作に基づいて、前記第1光電変換部で変換された電荷の蓄積回数と、前記第2光電変換部で変換された電荷の蓄積回数とを制御する制御部と、
制御部により電荷の蓄積回数が制御された前記第1光電変換部の電荷に基づく第1信号と、前記制御部により電荷の蓄積回数が制御された前記第2光電変換部の電荷に基づく第2信号とを用いて生成される画像が表示される表示部と、を備える電子機器。
an imaging device having a plurality of photoelectric conversion units arranged side by side in the row direction and the column direction and converting light into electric charge;
The number of times the charges converted by the first photoelectric conversion unit among the plurality of photoelectric conversion units are accumulated is set to the first photoelectric conversion unit arranged at the position in the row direction from the first photoelectric conversion unit among the plurality of photoelectric conversion units. 2 an operation unit that receives an operation for setting the number of times of accumulation of charges converted by the photoelectric conversion unit to be different from the number of times of accumulation;
a control unit that controls the number of times the charge converted by the first photoelectric conversion unit is accumulated and the number of times the charge converted by the second photoelectric conversion unit is accumulated, based on the operation received by the operation unit;
A first signal based on the charge of the first photoelectric conversion unit whose charge accumulation count is controlled by the control unit, and a second signal based on the charge of the second photoelectric conversion unit whose charge accumulation count is controlled by the control unit. and a display on which an image generated using the signal is displayed.
請求項1に記載の電子機器において、
前記操作部は、前記表示部の表示画面に形成される電子機器。
In the electronic device according to claim 1,
The operation unit is an electronic device formed on a display screen of the display unit.
請求項2に記載の電子機器において、
前記操作部は、前記表示画面へのタッチ操作を検出するタッチパネルを有する電子機器。
In the electronic device according to claim 2,
The operation unit is an electronic device having a touch panel that detects a touch operation on the display screen.
請求項1から請求項3のいずれか一項に記載の電子機器において、
前記表示部は、前記操作に用いられる画像が表示される電子機器。
In the electronic device according to any one of claims 1 to 3,
The display unit is an electronic device on which an image used for the operation is displayed.
請求項1から請求項4のいずれか一項に記載の電子機器において、
前記撮像素子は、
前記第1信号を格納する第1格納部と、
前記第2信号を格納する第2格納部とを有し、
前記表示部は、前記第1格納部に格納された前記第1信号と、前記第2格納部に格納された前記第2信号とを用いて生成される画像が表示される電子機器。
In the electronic device according to any one of claims 1 to 4,
The imaging element is
a first storage unit that stores the first signal;
a second storage unit that stores the second signal;
The display section is an electronic device on which an image generated using the first signal stored in the first storage section and the second signal stored in the second storage section is displayed.
請求項5に記載の電子機器において、
前記撮像素子は、複数の半導体基板を有し、
前記第1光電変換部および前記第2光電変換部は、前記第1格納部および前記第2格納部とは異なる半導体基板に配置される電子機器。
In the electronic device according to claim 5,
The imaging element has a plurality of semiconductor substrates,
The electronic device, wherein the first photoelectric conversion unit and the second photoelectric conversion unit are arranged on a semiconductor substrate different from that of the first storage unit and the second storage unit.
請求項5に記載の電子機器において、
前記撮像素子は、前記第1格納部に格納された前記第1信号と前記第2格納部に格納された前記第2信号とのうち、少なくとも一方の信号に対して演算処理を行う演算回路を有する電子機器。
In the electronic device according to claim 5,
The imaging device includes an arithmetic circuit that performs arithmetic processing on at least one of the first signal stored in the first storage unit and the second signal stored in the second storage unit. electronic equipment.
請求項7に記載の電子機器において、
前記撮像素子は、複数の半導体基板を有し、
前記第1光電変換部および前記第2光電変換部は、前記第1格納部および前記第2格納部とは異なる半導体基板に配置され、
前記演算回路は、前記第1格納部および前記第2格納部とは異なる半導体基板に配置される電子機器。
In the electronic device according to claim 7,
The imaging element has a plurality of semiconductor substrates,
the first photoelectric conversion unit and the second photoelectric conversion unit are arranged on a semiconductor substrate different from that of the first storage unit and the second storage unit;
The electronic device, wherein the arithmetic circuit is arranged on a semiconductor substrate different from that of the first storage section and the second storage section.
請求項7に記載の電子機器において、
前記撮像素子は、複数の半導体基板を有し、
前記第1光電変換部および前記第2光電変換部は、前記第1格納部および前記第2格納部とは異なる半導体基板に配置され、
前記演算回路は、前記第1格納部および前記第2格納部と同一の半導体基板に配置される電子機器。
In the electronic device according to claim 7,
The imaging element has a plurality of semiconductor substrates,
the first photoelectric conversion unit and the second photoelectric conversion unit are arranged on a semiconductor substrate different from that of the first storage unit and the second storage unit;
The electronic device, wherein the arithmetic circuit is arranged on the same semiconductor substrate as the first storage section and the second storage section.
請求項1から請求項9のいずれか一項に記載の電子機器において、
前記撮像素子は、
前記第1光電変換部で変換された電荷を転送する第1転送部と、
前記第2光電変換部で変換された電荷を転送する第2転送部と、
前記第1転送部に接続され、前記第1転送部を制御するための第1制御信号が出力される第1制御線と、
前記第2転送部に接続され、前記第2転送部を制御するための第2制御信号が出力される第2制御線と、を有する電子機器。
In the electronic device according to any one of claims 1 to 9,
The imaging element is
a first transfer unit that transfers the charge converted by the first photoelectric conversion unit;
a second transfer unit that transfers the charge converted by the second photoelectric conversion unit;
a first control line connected to the first transfer unit and outputting a first control signal for controlling the first transfer unit;
and a second control line connected to the second transfer section and outputting a second control signal for controlling the second transfer section.
請求項10に記載の電子機器において、
前記制御部は、前記第1光電変換部で変換された電荷の蓄積時間が前記第2光電変換部で変換された電荷の蓄積時間とは異なる蓄積時間となるように、前記第1制御信号を前記第1制御線に出力させるタイミングと前記第2制御信号を前記第2制御線に出力させるタイミングとを制御する電子機器。
In the electronic device according to claim 10,
The control unit outputs the first control signal such that an accumulation time of charges converted by the first photoelectric conversion unit is different from an accumulation time of charges converted by the second photoelectric conversion unit. An electronic device that controls timing to output the first control line and timing to output the second control signal to the second control line.
請求項10又は請求項11に記載の電子機器において、
前記撮像素子は、
前記第1転送部により前記第1光電変換部で蓄積された電荷が転送される第1フローティングディフュージョンの電位をリセットする第1リセット部と、
前記第2転送部により前記第2光電変換部で蓄積された電荷が転送される第2フローティングディフュージョンの電位をリセットする第2リセット部と、
前記第1リセット部に接続され、前記第1リセット部を制御するための第3制御信号が出力される第3制御線と、
前記第2リセット部に接続され、前記第2リセット部を制御するための第4制御信号が出力される第4制御線と、を有する電子機器。
In the electronic device according to claim 10 or claim 11,
The imaging element is
a first reset unit that resets the potential of a first floating diffusion to which the charge accumulated in the first photoelectric conversion unit is transferred by the first transfer unit;
a second reset unit that resets the potential of a second floating diffusion to which the charge accumulated in the second photoelectric conversion unit is transferred by the second transfer unit;
a third control line connected to the first reset section and outputting a third control signal for controlling the first reset section;
and a fourth control line connected to the second reset section and outputting a fourth control signal for controlling the second reset section.
請求項12に記載の電子機器において、
前記制御部は、前記第1光電変換部で変換された電荷の蓄積時間が前記第2光電変換部で変換された電荷の蓄積時間とは異なる蓄積時間となるように、前記第3制御信号を前記第3制御線に出力させるタイミングと前記第4制御信号を前記第4制御線に出力させるタイミングとを制御する電子機器。
In the electronic device according to claim 12,
The control section outputs the third control signal such that the accumulation time of the charges converted by the first photoelectric conversion section is different from the accumulation time of the charges converted by the second photoelectric conversion section. An electronic device that controls timing to output the third control line and timing to output the fourth control signal to the fourth control line.
請求項1から請求項9に記載の電子機器において、
前記撮像素子は、
前記第1光電変換部で蓄積された電荷が転送される第1フローティングディフュージョンの電位をリセットする第1リセット部と、
前記第2光電変換部で蓄積された電荷が転送される第2フローティングディフュージョンの電位をリセットする第2リセット部と、
前記第1リセット部に接続され、前記第1リセット部を制御するための第1制御信号が出力される第1制御線と、
前記第2リセット部に接続され、前記第2リセット部を制御するための第2制御信号が出力される第2制御線と、を有する電子機器。
In the electronic device according to claims 1 to 9,
The imaging element is
a first reset unit that resets the potential of a first floating diffusion to which the charge accumulated in the first photoelectric conversion unit is transferred;
a second reset unit that resets the potential of a second floating diffusion to which charges accumulated in the second photoelectric conversion unit are transferred;
a first control line connected to the first reset unit and outputting a first control signal for controlling the first reset unit;
and a second control line connected to the second reset section and outputting a second control signal for controlling the second reset section.
請求項14に記載の電子機器において、
前記制御部は、前記第1光電変換部で変換された電荷の蓄積時間が前記第2光電変換部で変換された電荷の蓄積時間とは異なる蓄積時間となるように、前記第1制御信号を前記第1制御線に出力させるタイミングと前記第2制御信号を前記第2制御線に出力させるタイミングとを制御する電子機器。
In the electronic device according to claim 14,
The control unit outputs the first control signal such that an accumulation time of charges converted by the first photoelectric conversion unit is different from an accumulation time of charges converted by the second photoelectric conversion unit. An electronic device that controls timing to output the first control line and timing to output the second control signal to the second control line.
JP2021075700A 2018-09-27 2021-04-28 Electronics Active JP7176591B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021075700A JP7176591B2 (en) 2018-09-27 2021-04-28 Electronics

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018182302A JP6879278B2 (en) 2018-09-27 2018-09-27 Electronic equipment and control programs
JP2021075700A JP7176591B2 (en) 2018-09-27 2021-04-28 Electronics

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018182302A Division JP6879278B2 (en) 2018-09-27 2018-09-27 Electronic equipment and control programs

Publications (2)

Publication Number Publication Date
JP2021121122A JP2021121122A (en) 2021-08-19
JP7176591B2 true JP7176591B2 (en) 2022-11-22

Family

ID=65006979

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018182302A Active JP6879278B2 (en) 2018-09-27 2018-09-27 Electronic equipment and control programs
JP2021075700A Active JP7176591B2 (en) 2018-09-27 2021-04-28 Electronics

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018182302A Active JP6879278B2 (en) 2018-09-27 2018-09-27 Electronic equipment and control programs

Country Status (1)

Country Link
JP (2) JP6879278B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006049361A (en) 2004-07-30 2006-02-16 Sony Corp Semiconductor module and mos solid-state imaging device
JP2007228019A (en) 2006-02-21 2007-09-06 Olympus Corp Imaging apparatus
US20120188415A1 (en) 2011-01-25 2012-07-26 Aptina Imaging Corporation Digitally graded neutral density filter
JP2012175234A (en) 2011-02-18 2012-09-10 Sony Corp Imaging apparatus, imaging element and imaging control method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259211A (en) * 2002-03-04 2003-09-12 Nissan Motor Co Ltd Image processor and image processing method
TWI429066B (en) * 2005-06-02 2014-03-01 Sony Corp Semiconductor image sensor module and manufacturing method thereof
JP2009182832A (en) * 2008-01-31 2009-08-13 Fujifilm Corp Photographing device and through image displaying method
JP5262247B2 (en) * 2008-03-31 2013-08-14 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP5655291B2 (en) * 2009-11-05 2015-01-21 株式会社ニコン Electronic camera
JP2013088579A (en) * 2011-10-17 2013-05-13 Olympus Imaging Corp Imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006049361A (en) 2004-07-30 2006-02-16 Sony Corp Semiconductor module and mos solid-state imaging device
JP2007228019A (en) 2006-02-21 2007-09-06 Olympus Corp Imaging apparatus
US20120188415A1 (en) 2011-01-25 2012-07-26 Aptina Imaging Corporation Digitally graded neutral density filter
JP2012175234A (en) 2011-02-18 2012-09-10 Sony Corp Imaging apparatus, imaging element and imaging control method, and program

Also Published As

Publication number Publication date
JP6879278B2 (en) 2021-06-02
JP2019004521A (en) 2019-01-10
JP2021121122A (en) 2021-08-19

Similar Documents

Publication Publication Date Title
JP7192843B2 (en) Image sensor and electronic equipment
US11206353B2 (en) Electronic apparatus, method for controlling electronic apparatus, and control program for setting image-capture conditions of image sensor
JP6075393B2 (en) Electronic equipment and control program
JP6780745B2 (en) Electronics
CN109256404B (en) Image pickup device and electronic apparatus
CN110365909B (en) Electronic device
JP2016072896A (en) Recording apparatus, program, reproduction method, and recording medium
JP6409883B2 (en) Electronic equipment and control program
JP7176591B2 (en) Electronics
JP7283488B2 (en) Image sensor and electronic equipment
JP2018117375A (en) Electronic apparatus, control method for electronic apparatus and control program
JP6822507B2 (en) Electronics
JP2016158294A (en) Electronic apparatus, control method for electronic apparatus and control program
JP2023054229A (en) Electronic apparatus
JP2018148590A (en) Electronic apparatus and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R150 Certificate of patent or registration of utility model

Ref document number: 7176591

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150