JP7318631B2 - Image sensor and electronic equipment - Google Patents

Image sensor and electronic equipment Download PDF

Info

Publication number
JP7318631B2
JP7318631B2 JP2020213369A JP2020213369A JP7318631B2 JP 7318631 B2 JP7318631 B2 JP 7318631B2 JP 2020213369 A JP2020213369 A JP 2020213369A JP 2020213369 A JP2020213369 A JP 2020213369A JP 7318631 B2 JP7318631 B2 JP 7318631B2
Authority
JP
Japan
Prior art keywords
area
unit
image
pixel
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020213369A
Other languages
Japanese (ja)
Other versions
JP2021064952A (en
JP2021064952A5 (en
Inventor
雅人 武石
聡志 土谷
英史 太田
幸一 郷原
伊織 野田
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JP2021064952A publication Critical patent/JP2021064952A/en
Publication of JP2021064952A5 publication Critical patent/JP2021064952A5/en
Priority to JP2023116067A priority Critical patent/JP2023133358A/en
Application granted granted Critical
Publication of JP7318631B2 publication Critical patent/JP7318631B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Description

本発明は、撮像素子及び電子機器に関する。 The present invention relates to image sensors and electronic devices.

裏面照射型撮像チップと信号処理チップとが積層された撮像素子(以下、この撮像素子を積層型撮像素子という。)を備えた撮像装置が提案されている(例えば特許文献1参照)。積層型撮像素子は、裏面照射型撮像チップと信号処理チップとが、複数画素をまとめたブロック単位ごとにマイクロバンプを介して接続されるように積層されている。 2. Description of the Related Art An imaging device having an imaging device in which a back-illuminated imaging chip and a signal processing chip are stacked (hereinafter, this imaging device is referred to as a stacked imaging device) has been proposed (see Patent Document 1, for example). In the stacked imaging device, a back-illuminated imaging chip and a signal processing chip are stacked such that they are connected via microbumps for each block unit in which a plurality of pixels are grouped together.

特開2006-49361号公報JP 2006-49361 A

しかし、従来の積層型撮像素子を備えた撮像装置において、複数のブロック単位ごとに撮像して画像を取得する提案は多くなく、積層型撮像素子を備えた撮像装置の使い勝手が十分ではなかった。 However, there are not many proposals for obtaining an image by capturing an image in units of a plurality of blocks in a conventional imaging device equipped with a stacked imaging device, and the usability of an imaging device equipped with a stacked imaging device has not been sufficient.

本発明の態様では、撮像素子の一部の領域で光源の明滅を検知することで、画像に生じるフリッカー現象を防止することを目的とする。 An object of the present invention is to prevent a flicker phenomenon occurring in an image by detecting flickering of a light source in a partial area of an image sensor.

本発明の態様では、撮像素子を用いて動画の撮像中に画像の一部分が動画で他の部分が静止画である画像(部分動画)を生成することを目的とする。 An object of the present invention is to generate an image (partial moving image) in which a portion of the image is a moving image and the other portion is a still image while capturing a moving image using an imaging device.

本発明の態様では、主要被写体に合わせて領域を設定し、領域に対応した撮像条件で撮像を行うことを目的とする。 An object of an aspect of the present invention is to set a region according to a main subject and perform imaging under imaging conditions corresponding to the region.

本発明の態様では、撮像素子の撮像条件を複数の領域ごとに異ならせることで、ダイナミックレンジの広い画像を取得することを目的とする。 An object of an aspect of the present invention is to obtain an image with a wide dynamic range by varying the imaging conditions of the imaging device for each of a plurality of regions.

本発明の態様では、露出に関する処理において飽和レベルの露出から適正露出に短時間で行うことを目的とする。 An object of the present invention is to perform processing related to exposure from saturation level exposure to proper exposure in a short period of time.

本発明の態様では、撮像素子の駆動に要する消費電力を低減することを目的とする。 An object of an aspect of the present invention is to reduce the power consumption required to drive an imaging device.

本発明の態様では、所定領域のフレームレートを高くした場合でも確実に撮像部から画像処理部へ画像データを転送することを目的とする。 An object of the present invention is to reliably transfer image data from an imaging unit to an image processing unit even when the frame rate of a predetermined area is increased.

本発明の態様では、画角に不意に飛び込んできた被写体を撮影し又は撮影しないようにすることを目的とする。 An object of the present invention is to photograph or avoid photographing a subject that has unexpectedly jumped into the angle of view.

本発明の第1態様に係る撮像素子は、積層された複数の半導体チップを備える。複数の半導体チップは、光を電荷に変換する光電変換部と、光電変換部で変換された電荷を転送するための転送部とを有する複数の画素が行方向に並んで配置される第1半導体チップを有する。複数の半導体チップは、複数の画素のうち、フリッカー検出に用いられる第1信号を出力する第1画素と、複数の画素のうち、被写体の画像生成に用いられる第2信号を出力する第2画素とを異なる撮像条件で駆動する駆動部を有する第2半導体チップを有する第1画素が有する転送部は、第2半導体チップからの第1転送制御信号が出力される第1転送制御配線に接続される。第2画素が有する転送部は、第2半導体チップからの第2転送制御信号が出力される第2転送制御配線に接続される。本発明の第2態様に係る撮像素子は、積層された複数の半導体チップを備える撮像素子である。複数の半導体チップは、光を電荷に変換する光電変換部と、光電変換部で変換された電荷を排出するためのリセット部とを有する複数の画素が行方向に並んで配置される第1半導体チップを有する。複数の半導体チップは、複数の画素のうち、フリッカー検出に用いられる第1信号を出力する第1画素と、複数の画素のうち、被写体の画像生成に用いられる第2信号を出力する第2画素とを異なる撮像条件で駆動する駆動部を有する第2半導体チップを有する。第1画素が有するリセット部は、第2半導体チップからの第1リセット制御信号が出力される第1リセット制御配線に接続される。第2画素が有するリセット部は、第2半導体チップからの第2リセット制御信号が出力される第2リセット制御配線に接続される。本発明の第態様に係る電子機器は、本発明の1態又は第2態様に係る撮像素子を備え An imaging device according to a first aspect of the present invention includes a plurality of stacked semiconductor chips. The plurality of semiconductor chips includes a first semiconductor in which a plurality of pixels having a photoelectric conversion portion for converting light into electric charge and a transfer portion for transferring the electric charge converted by the photoelectric conversion portion are arranged in a row direction . have a tip. The plurality of semiconductor chips include first pixels among the plurality of pixels that output a first signal used for flicker detection, and second pixels among the plurality of pixels that output a second signal used for generating an image of a subject . It has a second semiconductor chip having a drive unit that drives the two pixels under different imaging conditions. A transfer unit included in the first pixel is connected to a first transfer control wiring through which a first transfer control signal is output from the second semiconductor chip. A transfer section included in the second pixel is connected to a second transfer control wiring through which a second transfer control signal is output from the second semiconductor chip. An imaging device according to a second aspect of the present invention is an imaging device including a plurality of stacked semiconductor chips. The plurality of semiconductor chips includes a first semiconductor in which a plurality of pixels having a photoelectric conversion portion for converting light into electric charge and a reset portion for discharging the electric charge converted by the photoelectric conversion portion are arranged in a row direction. have a tip. The plurality of semiconductor chips includes first pixels among the plurality of pixels that output a first signal used for flicker detection, and second pixels among the plurality of pixels that output a second signal used for generating an image of a subject. and a second semiconductor chip having a driving unit for driving under different imaging conditions. A reset unit included in the first pixel is connected to a first reset control wiring through which a first reset control signal is output from the second semiconductor chip. A reset unit included in the second pixel is connected to a second reset control wiring through which a second reset control signal is output from the second semiconductor chip. An electronic device according to a third aspect of the invention includes the imaging device according to the first aspect or the second aspect of the invention .

本発明の態様によれば、撮像素子の一部の領域で光源の明滅を検知することで、画像に生じるフリッカー現象を防止することができる。 According to the aspect of the present invention, it is possible to prevent the flicker phenomenon that occurs in the image by detecting blinking of the light source in a partial area of the image sensor.

本発明の態様によれば、撮像素子を用いて動画の撮像中に画像の一部分が動画で他の部分が静止画である画像(部分動画)を生成することができる。 According to the aspect of the present invention, it is possible to generate an image (partial moving image) in which a portion of the image is a moving image and the other portion is a still image while capturing a moving image using an imaging device.

本発明の態様によれば、主要被写体に合わせて領域を設定し、領域に対応した撮像条件で撮像を行うことができる。 According to the aspect of the present invention, it is possible to set an area according to the main subject and perform imaging under imaging conditions corresponding to the area.

本発明の態様によれば、撮像素子の撮像条件を複数の領域ごとに異ならせることにより、ダイナミックレンジの広い画像を取得することができる。 According to the aspect of the present invention, it is possible to obtain an image with a wide dynamic range by varying the imaging conditions of the imaging element for each of the plurality of regions.

本発明の態様によれば、露出に関する処理において飽和レベルの露出から適正露出に短時間で行うことができる。 According to the aspect of the present invention, exposure processing can be performed from saturation level exposure to proper exposure in a short period of time.

本発明の態様によれば、撮像素子の駆動に要する消費電力を低減することができる。 According to the aspect of the present invention, it is possible to reduce the power consumption required for driving the imaging device.

本発明の態様によれば、所定領域のフレームレートを高くした場合でも確実に撮像部から画像処理部へ画像データを転送することができる。 According to the aspect of the present invention, it is possible to reliably transfer image data from the imaging unit to the image processing unit even when the frame rate of the predetermined area is increased.

本発明の態様によれば、画角に不意に飛び込んできた被写体を撮影し又は撮影しないようにすることができる。 According to the aspect of the present invention, it is possible to photograph or not to photograph a subject that unexpectedly jumps into the angle of view.

第1実施形態の撮像素子の断面図である。1 is a cross-sectional view of an imaging device according to a first embodiment; FIG. 撮像チップの画素配列と単位グループを説明する図である。It is a figure explaining the pixel arrangement|sequence of an imaging chip, and a unit group. 撮像チップの単位グループに対応する回路図である。FIG. 4 is a circuit diagram corresponding to a unit group of imaging chips; 撮像素子の機能的構成を示すブロック図である。3 is a block diagram showing the functional configuration of an imaging device; FIG. 第1実施形態の撮像素子における第1領域と第2領域とを示す図である。It is a figure which shows the 1st area|region and the 2nd area|region in the image pick-up element of 1st Embodiment. 撮像装置の一例であるデジタルカメラの概略構成を示す横断面図である。1 is a cross-sectional view showing a schematic configuration of a digital camera, which is an example of an imaging device; FIG. 第1実施形態に係るデジタルカメラの構成を示すブロック図である。1 is a block diagram showing the configuration of a digital camera according to a first embodiment; FIG. 第1実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。4 is a flowchart for explaining a shooting operation executed by the system control unit of the first embodiment; 光源の明滅周期と第1領域の露光時間及び信号出力とを示すタイミングチャートである。4 is a timing chart showing the blinking period of the light source, the exposure time of the first area, and the signal output; 光源の明滅周期と第2領域の露光時間及び信号出力とを示すタイミングチャートである。4 is a timing chart showing the blinking period of the light source, the exposure time of the second area, and the signal output; 第2実施形態の撮像素子における第1領域と第3領域と第4領域とを示す図である。It is a figure which shows the 1st area|region, the 3rd area|region, and the 4th area|region in the image pick-up element of 2nd Embodiment. 光源の明滅周期と第3領域の露光時間及び信号出力と第4領域の露光時間及び信号出力とを示すタイミングチャートである。4 is a timing chart showing the blinking cycle of the light source, the exposure time and signal output of the third area, and the exposure time and signal output of the fourth area; 第3実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。FIG. 11 is a flowchart for explaining a shooting operation executed by a system control unit according to the third embodiment; FIG. 第5実施形態に係る2つの撮像素子の配置を示す図である。FIG. 12 is a diagram showing the arrangement of two imaging elements according to the fifth embodiment; 第6実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。FIG. 14 is a block diagram showing the configuration of an imaging device and an electronic device according to a sixth embodiment; 部分動画の概要を説明するための図である。FIG. 4 is a diagram for explaining an outline of a partial moving image; FIG. 第7実施形態に係るデジタルカメラの構成を示すブロック図である。FIG. 12 is a block diagram showing the configuration of a digital camera according to a seventh embodiment; FIG. 第7実施形態のデジタルカメラに係る表示部を示す図である。FIG. 21 is a diagram showing a display unit of a digital camera according to a seventh embodiment; FIG. 第7実施形態のシステム制御部が実行する部分動画の撮影動作を説明するためのフローチャートである。FIG. 16 is a flowchart for explaining a partial moving image shooting operation executed by a system control unit according to the seventh embodiment; FIG. 図19に示す設定処理を説明するためのフローチャートである。FIG. 20 is a flowchart for explaining setting processing shown in FIG. 19; FIG. 使用者が動画領域を設定するときの表示パネルの表示例を示す図である。FIG. 10 is a diagram showing a display example of the display panel when the user sets the moving image area; 撮像素子の画素領域における動画領域を示す図である。FIG. 4 is a diagram showing a moving image area in a pixel area of an imaging device; 使用者がフレームレートを設定するときの表示パネルの表示例を示す図である。FIG. 10 is a diagram showing a display example of the display panel when the user sets the frame rate; 使用者が静止画領域を設定するときの表示パネルの表示例を示す図である。FIG. 10 is a diagram showing a display example of the display panel when the user sets a still image area; 撮像素子の画素領域における静止画領域を示す図である。FIG. 4 is a diagram showing a still image area in a pixel area of an imaging device; 移動被写体の領域を動画領域として設定するときの表示パネルの表示例を示す図である。FIG. 10 is a diagram showing a display example of the display panel when setting a moving subject area as a moving image area; 第8実施形態における撮像処理を示すフローチャートである。FIG. 22 is a flowchart showing imaging processing in the eighth embodiment; FIG. 移動被写体の移動に伴う画像の補完を説明するための図である。FIG. 10 is a diagram for explaining complementation of an image accompanying movement of a moving subject; 各ブロックにおける配列パターンを示す図である。It is a figure which shows the arrangement|sequence pattern in each block. 第9実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。FIG. 21 is a block diagram showing the configuration of an imaging device and an electronic device according to a ninth embodiment; 第10実施形態に係るデジタルカメラの構成を示すブロック図である。FIG. 21 is a block diagram showing the configuration of a digital camera according to a tenth embodiment; FIG. 第10実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。FIG. 14 is a flowchart for explaining a photographing operation executed by a system control unit according to the tenth embodiment; FIG. 第10実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。FIG. 14 is a flowchart for explaining a photographing operation executed by a system control unit according to the tenth embodiment; FIG. 第10実施形態の撮像素子の撮像領域における主要被写体領域と部分領域と非主要被写体領域とを示す図である。FIG. 21 is a diagram showing a main subject area, a partial area, and a non-main subject area in an imaging area of an image sensor according to a tenth embodiment; 第10実施形態の表示部の表示面における主要被写体領域と部分領域と非主要被写体領域とを示す図である。FIG. 22 is a diagram showing a main subject area, a partial area, and a non-main subject area on the display surface of the display unit according to the tenth embodiment; 笑顔の画像及び笑顔でない画像の一例を示す図である。It is a figure which shows an example of the image of a smile, and the image which is not a smile. 第11実施形態における領域の設定処理を説明するためのフローチャートである。FIG. 21 is a flowchart for explaining region setting processing in the eleventh embodiment; FIG. 第11実施形態に係るAF領域とAE領域との配列パターンを示す図である。FIG. 21 is a diagram showing an arrangement pattern of AF areas and AE areas according to the eleventh embodiment; 検出部により主要被写体が検出されなかった場合の非主要被写体領域を示す図である。FIG. 10 is a diagram showing a non-main subject area when the main subject is not detected by the detection unit; 検出部により主要被写体が検出された場合の主要被写体領域と部分領域と非主要被写体領域とを示す図である。FIG. 10 is a diagram showing a main subject area, a partial area, and a non-main subject area when the main subject is detected by the detection unit; 第11実施形態に係るAF領域とAE領域との配列パターンの変形例を示す図である。FIG. 22 is a diagram showing a modification of the arrangement pattern of AF areas and AE areas according to the eleventh embodiment; 第12実施形態のシステム制御部が実行する撮影モード設定処理を説明するためのフローチャートである。FIG. 21 is a flowchart for explaining shooting mode setting processing executed by a system control unit according to a twelfth embodiment; FIG. 第12実施形態に係る静止画領域と動画領域との配列パターンを示す図である。FIG. 22 is a diagram showing an arrangement pattern of still image areas and moving image areas according to the twelfth embodiment; 第12実施形態の撮像素子の撮像領域における主要被写体領域と部分領域と非主要被写体領域とを示す図である。FIG. 22 is a diagram showing a main subject area, a partial area, and a non-main subject area in an imaging area of an image sensor according to a twelfth embodiment; 第12実施形態の表示部の第1表示例を示す図である。FIG. 22 is a diagram showing a first display example of the display section of the twelfth embodiment; 第12実施形態の表示部の第2表示例を示す図である。FIG. 22 is a diagram showing a second display example of the display section of the twelfth embodiment; 第13実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。FIG. 22 is a block diagram showing the configuration of an imaging device and an electronic device according to a thirteenth embodiment; 第14実施形態に係るデジタルカメラの構成を示すブロック図である。FIG. 22 is a block diagram showing the configuration of a digital camera according to a fourteenth embodiment; FIG. 第14実施形態のシステム制御部が実行する撮影動作を説明するためのフローチャートである。FIG. 16 is a flow chart for explaining a photographing operation executed by a system control unit according to a fourteenth embodiment; FIG. 輝度レベルに応じた複数の領域からなる画像の表示例を示す図である。FIG. 10 is a diagram showing a display example of an image made up of a plurality of areas according to luminance levels; 図50に示す被写体の明るさと撮像素子の輝度レベルとの関係を示すグラフである。FIG. 51 is a graph showing the relationship between the brightness of the subject shown in FIG. 50 and the luminance level of the imaging element; 図50の点A1と点A2との間における輝度レベルの変化を示す波形図である。FIG. 51 is a waveform diagram showing changes in luminance level between points A1 and A2 in FIG. 50; 図52に示す輝度レベルが特定範囲内に入るように領域分割と撮像条件の設定とが行われた場合の輝度レベルを示す波形図である。FIG. 53 is a waveform diagram showing luminance levels when area division and imaging conditions are set so that the luminance levels shown in FIG. 52 fall within a specific range; レベル(1)の領域とレベル(2)の領域との境界に設定される帯状の境界領域を示す図である。FIG. 10 is a diagram showing a band-shaped boundary area set at the boundary between a level (1) area and a level (2) area; 図50に示すレベル(3)の領域とレベル(4)の領域とを示す部分拡大図である。FIG. 51 is a partially enlarged view showing a level (3) area and a level (4) area shown in FIG. 50; 図55に示す点D1と点D2との間における輝度レベルの変化を示す波形図である。FIG. 56 is a waveform diagram showing changes in luminance level between points D1 and D2 shown in FIG. 55; 図56に示す輝度レベルが特定範囲内に入るように領域分割と撮像条件の設定とが行われた場合の輝度レベルを示す波形図である。FIG. 57 is a waveform diagram showing luminance levels when area division and imaging conditions are set so that the luminance levels shown in FIG. 56 fall within a specific range; 各領域における撮像タイミングを示すタイミングチャートである。4 is a timing chart showing imaging timings in each region; 第14実施形態の画像処理部が実行する画像処理を説明するためのフローチャートである。FIG. 21 is a flow chart for explaining image processing executed by an image processing unit according to a fourteenth embodiment; FIG. 第15実施形態に係る撮像装置及び電子機器の構成を示すブロック図である。FIG. 21 is a block diagram showing the configuration of an imaging device and an electronic device according to a fifteenth embodiment; 第16実施形態に係るデジタルカメラの構成を示すブロック図である。FIG. 22 is a block diagram showing the configuration of a digital camera according to a sixteenth embodiment; FIG. 第16実施形態の撮像素子における第1領域と第2領域と第3領域とを示す図である。FIG. 21 is a diagram showing a first area, a second area, and a third area in an imaging device according to a sixteenth embodiment; 第16実施形態におけるAE処理を説明するための図である。FIG. 22 is a diagram for explaining AE processing in the sixteenth embodiment; FIG. 第17実施形態における第1領域が飽和した状態を示す図である。FIG. 32 is a diagram showing a state in which the first region is saturated in the seventeenth embodiment; 第18実施形態における動画HDRを説明するための図である。FIG. 22 is a diagram for explaining moving image HDR in the eighteenth embodiment; FIG. 第20実施形態に係るスマートフォンの構成を示すブロック図である。FIG. 20 is a block diagram showing the configuration of a smartphone according to a twentieth embodiment; FIG. 第20実施形態の撮像素子における撮像領域を示す図である。FIG. 20 is a diagram showing an imaging region in an imaging element of a twentieth embodiment; スマートフォンの表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part of a smart phone. スマートフォンの表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part of a smart phone. スマートフォンの表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part of a smart phone. 第21実施形態の撮像素子における撮像領域を示す図である。FIG. 21 is a diagram showing an imaging region in an imaging element of a twenty-first embodiment; FIG. 第21実施形態の撮像部、画像処理部及び記録部の構成を示すブロック図である。FIG. 20 is a block diagram showing the configurations of an imaging unit, an image processing unit, and a recording unit according to a twenty-first embodiment; 撮像部から画像処理部への画像データの転送タイミングを示す図である。4 is a diagram showing transfer timing of image data from an imaging unit to an image processing unit; FIG. 左半分の領域から高フレームレートで画像データを読み出し、右半分の領域からは画像データを読み出さない場合における撮像部、画像処理部及び記録部の構成を示すブロック図である。FIG. 4 is a block diagram showing configurations of an imaging unit, an image processing unit, and a recording unit when image data is read from the left half area at a high frame rate and image data is not read from the right half area; 左半分の領域から高フレームレートで画像データを読み出し、右半分の領域からは画像データを読み出さない場合における撮像部から画像処理部への画像データの転送タイミングを示す図である。FIG. 10 is a diagram showing the transfer timing of image data from the imaging unit to the image processing unit when image data is read from the left half area at a high frame rate and image data is not read from the right half area. 第21実施形態の画像処理部における処理を示すフローチャートである。FIG. 14 is a flow chart showing processing in an image processing unit of the twenty-first embodiment; FIG. 第21実施形態の撮像部における処理を示すフローチャートである。FIG. 22 is a flow chart showing processing in an imaging unit of the twenty-first embodiment; FIG. フレームレートと領域との関係を示す図である。FIG. 4 is a diagram showing the relationship between frame rate and area; 第22実施形態に係る撮影システムの構成を示すブロック図である。FIG. 20 is a block diagram showing the configuration of an imaging system according to a twenty-second embodiment; FIG. 第23実施形態の第1撮像領域及び第2撮像領域の撮影条件の切替タイミングを示す図である。FIG. 22 is a diagram showing switching timings of imaging conditions of the first imaging area and the second imaging area in the twenty-third embodiment;

以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。なお、以下の各実施形態では、撮像装置の例としてレンズ交換式のデジタルカメラを例に挙げて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to this. In addition, in the drawings, in order to describe the embodiments, the scale may be changed as appropriate, such as by enlarging or emphasizing a portion. In each of the following embodiments, an interchangeable lens type digital camera will be described as an example of an imaging device.

<第1実施形態>
図1は、第1実施形態の撮像素子100の断面図である。撮像素子100は、本願出願人が先に出願した特願2012-139026号に記載されているものである。撮像素子100は、入射光に対応した画素信号を出力する撮像チップ113と撮像チップ113から出力された画素信号を処理する信号処理チップ111と信号処理チップ111で処理された画素信号を記憶するメモリチップ112とを備える。撮像チップ113、信号処理チップ111及びメモリチップ112は積層されており、撮像チップ113及び信号処理チップ111は、Cu等の導電性を有するバンプ109により互いに電気的に接続される。また、信号処理チップ111及びメモリチップ112は、Cu等の導電性を有するバンプ109により互いに電気的に接続される。
<First embodiment>
FIG. 1 is a cross-sectional view of the imaging device 100 of the first embodiment. The imaging device 100 is described in Japanese Patent Application No. 2012-139026 previously filed by the applicant of the present application. The imaging device 100 includes an imaging chip 113 that outputs pixel signals corresponding to incident light, a signal processing chip 111 that processes the pixel signals output from the imaging chip 113, and a memory that stores the pixel signals processed by the signal processing chip 111. and a chip 112 . The imaging chip 113, the signal processing chip 111, and the memory chip 112 are stacked, and the imaging chip 113 and the signal processing chip 111 are electrically connected to each other by conductive bumps 109 such as Cu. Also, the signal processing chip 111 and the memory chip 112 are electrically connected to each other by conductive bumps 109 such as Cu.

図示した座標軸で示すように、入射光は主にZ軸プラス方向へ向かって入射する。本実施形態においては、撮像チップ113において、入射光が入射する側の面を裏面と称する。また、座標軸で示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸及びX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図1の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。 As indicated by the illustrated coordinate axes, the incident light is mainly incident in the positive Z-axis direction. In this embodiment, the surface of the imaging chip 113 on which incident light is incident is referred to as the rear surface. Also, as indicated by the coordinate axes, the leftward direction on the paper perpendicular to the Z-axis is the positive X-axis direction, and the frontward direction on the paper perpendicular to the Z-axis and the X-axis is the positive Y-axis direction. In the following several figures, the coordinate axes are displayed with reference to the coordinate axes of FIG. 1 so that the direction of each figure can be understood.

撮像チップ113の一例は、裏面照射型のMOSイメージセンサである。PD層106は、配線層108の裏面側に配されている。PD層106は、二次元的に配され、入射光に応じた電荷を蓄積する複数のフォトダイオード(Photodiode;以下、PDという。)104、及び、PD104に対応して設けられたトランジスタ105を有する。 An example of the imaging chip 113 is a back-illuminated MOS image sensor. The PD layer 106 is arranged on the back side of the wiring layer 108 . The PD layer 106 has a plurality of photodiodes (hereinafter referred to as PDs) 104 arranged two-dimensionally and storing charges according to incident light, and transistors 105 provided corresponding to the PDs 104 . .

PD層106における入射光の入射側にはパッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、可視光のうち特定の波長領域を通過させるフィルタである。このカラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有しており、PD104のそれぞれに対応して特定の配列を有している。カラーフィルタ102の配列については後述する。カラーフィルタ102、PD104、及びトランジスタ105の組が一つの画素を形成する。 A color filter 102 is provided on the incident light side of the PD layer 106 with a passivation film 103 interposed therebetween. The color filter 102 is a filter that passes a specific wavelength region of visible light. This color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each of the PDs 104 . The arrangement of the color filters 102 will be described later. A set of color filter 102, PD 104, and transistor 105 forms one pixel.

カラーフィルタ102における入射光の入射側には、それぞれの画素に対応して、マイクロレンズ101が設けられる。マイクロレンズ101は、対応するPD104へ向けて入射光を集光する。 A microlens 101 is provided on the incident light side of the color filter 102 so as to correspond to each pixel. The microlens 101 collects incident light toward the corresponding PD 104 .

配線層108は、PD層106からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は多層であってもよく、また、受動素子及び能動素子が設けられてもよい。配線層108の表面には複数のバンプ109が配される。これら複数のバンプ109が信号処理チップ111の対向する面に設けられた複数のバンプ109と位置合わせされる。そして、撮像チップ113と信号処理チップ111とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 The wiring layer 108 has wiring 107 for transmitting pixel signals from the PD layer 106 to the signal processing chip 111 . The wiring 107 may be multi-layered and may be provided with passive and active elements. A plurality of bumps 109 are arranged on the surface of the wiring layer 108 . These bumps 109 are aligned with the bumps 109 provided on the opposite surface of the signal processing chip 111 . By pressurizing the imaging chip 113 and the signal processing chip 111, the aligned bumps 109 are bonded and electrically connected.

同様に、信号処理チップ111及びメモリチップ112の互いに対向する面には、複数のバンプ109が配される。これらのバンプ109が互いに位置合わせされる。そして、信号処理チップ111とメモリチップ112とが加圧等されることにより、位置合わせされたバンプ109同士が接合されて、電気的に接続される。 Similarly, a plurality of bumps 109 are arranged on surfaces of the signal processing chip 111 and the memory chip 112 facing each other. These bumps 109 are aligned with each other. By applying pressure to the signal processing chip 111 and the memory chip 112, the aligned bumps 109 are bonded and electrically connected.

なお、バンプ109間の接合には、固相拡散によるCuバンプ接合に限らず、はんだ溶融によるマイクロバンプ結合を採用してもよい。また、バンプ109は、例えば後述する一つの単位グループに対して一つ程度設ければよい。従って、バンプ109の大きさは、PD104のピッチよりも大きくてもよい。また、画素が配列された画素領域(図2に示す画素領域113A)以外の周辺領域において、画素領域に対応するバンプ109よりも大きなバンプを併せて設けてもよい。 The bonding between the bumps 109 is not limited to Cu bump bonding by solid phase diffusion, and may be microbump bonding by solder melting. Also, about one bump 109 may be provided for one unit group, which will be described later. Therefore, the size of the bumps 109 may be larger than the pitch of the PDs 104 . Also, bumps larger than the bumps 109 corresponding to the pixel regions may be provided in peripheral regions other than the pixel region (pixel region 113A shown in FIG. 2) in which pixels are arranged.

信号処理チップ111は、表面及び裏面にそれぞれ設けられた回路を互いに接続するTSV(Through-Silicon Via;シリコン貫通電極)110を有する。TSV110は、周辺領域に設けられる。また、TSV110は、撮像チップ113の周辺領域や、メモリチップ112に設けられてもよい。 The signal processing chip 111 has a TSV (Through-Silicon Via) 110 that connects circuits provided on the front surface and the back surface. The TSV 110 is provided in the peripheral area. Also, the TSV 110 may be provided in the peripheral area of the imaging chip 113 or in the memory chip 112 .

図2は、撮像チップ113の画素配列と単位グループを説明する図である。図2では、特に、撮像チップ113を裏面側から観察した様子を示す。撮像チップ113において画素が配列された領域を画素領域(撮像領域)113Aという。画素領域113Aには2000万個以上もの画素がマトリックス状に配列されている。図2に示す例では、隣接する4画素×4画素の16画素が一つの単位グループ131を形成する。図2の格子線は、隣接する画素がグループ化されて単位グループ131を形成する概念を示す。単位グループ131を形成する画素の数はこれに限られず1000個程度、例えば32画素×64画素でもよいし、それ以上でもそれ以下でもよい。 FIG. 2 is a diagram for explaining the pixel array and unit groups of the imaging chip 113. As shown in FIG. FIG. 2 particularly shows a state in which the imaging chip 113 is observed from the back side. A region in which pixels are arranged in the imaging chip 113 is called a pixel region (imaging region) 113A. More than 20 million pixels are arranged in a matrix in the pixel area 113A. In the example shown in FIG. 2, 16 pixels of adjacent 4×4 pixels form one unit group 131 . The grid lines in FIG. 2 illustrate the concept that adjacent pixels are grouped together to form unit groups 131 . The number of pixels forming the unit group 131 is not limited to this, and may be about 1000, for example, 32 pixels×64 pixels, or may be more or less.

画素領域113Aの部分拡大図に示すように、単位グループ131は、緑色画素Gb,Gr、青色画素B、及び赤色画素Rの4画素から成るいわゆるベイヤー配列を、上下左右に4つ内包する。緑色画素は、カラーフィルタ102として緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素は、カラーフィルタ102として青色フィルタを有する画素であって青色波長帯の光を受光する。赤色画素は、カラーフィルタ102として赤色フィルタを有する画素であって赤色波長帯の光を受光する。 As shown in the partially enlarged view of the pixel region 113A, the unit group 131 contains four so-called Bayer arrays each including four pixels of green pixels Gb and Gr, blue pixels B, and red pixels R, vertically and horizontally. A green pixel is a pixel having a green filter as the color filter 102, and receives light in the green wavelength band among incident light. Similarly, a blue pixel is a pixel having a blue filter as the color filter 102 and receives light in the blue wavelength band. A red pixel is a pixel having a red filter as the color filter 102 and receives light in the red wavelength band.

図3は、撮像チップ113の単位グループに対応する回路図である。図3において、代表的に点線で囲む矩形が、1画素に対応する回路を表す。なお、以下に説明する各トランジスタの少なくとも一部は、図1のトランジスタ105に対応する。 FIG. 3 is a circuit diagram corresponding to a unit group of the imaging chip 113. As shown in FIG. In FIG. 3, a rectangle encircled by dotted lines typically represents a circuit corresponding to one pixel. Note that at least part of each transistor described below corresponds to the transistor 105 in FIG.

上述したように、単位グループ131は、16画素から形成される。それぞれの画素に対応する16個のPD104は、それぞれ転送トランジスタ302に接続される。各転送トランジスタ302のゲートには、転送パルスが供給されるTX配線307に接続される。本実施形態において、TX配線307は、16個の転送トランジスタ302に対して共通接続される。 As described above, the unit group 131 is formed from 16 pixels. The 16 PDs 104 corresponding to each pixel are connected to transfer transistors 302 respectively. A gate of each transfer transistor 302 is connected to a TX wiring 307 to which a transfer pulse is supplied. In this embodiment, the TX wiring 307 is commonly connected to 16 transfer transistors 302 .

各転送トランジスタ302のドレインは、対応する各リセットトランジスタ303のソースに接続されるとともに、転送トランジスタ302のドレインと各リセットトランジスタ303のソース間のいわゆるフローティングディフュージョンFD(電荷検出部)が増幅トランジスタ304のゲートに接続される。各リセットトランジスタ303のドレインは電源電圧が供給されるVdd配線310に接続される。各リセットトランジスタ303のゲートはリセットパルスが供給されるリセット配線306に接続される。本実施形態において、リセット配線306は、16個のリセットトランジスタ303に対して共通接続される。 The drain of each transfer transistor 302 is connected to the source of each corresponding reset transistor 303 , and the so-called floating diffusion FD (charge detector) between the drain of the transfer transistor 302 and the source of each reset transistor 303 is connected to the amplification transistor 304 . connected to the gate. A drain of each reset transistor 303 is connected to a Vdd wiring 310 to which a power supply voltage is supplied. A gate of each reset transistor 303 is connected to a reset wiring 306 to which a reset pulse is supplied. In this embodiment, the reset wiring 306 is commonly connected to the 16 reset transistors 303 .

各々の増幅トランジスタ304のドレインは電源電圧が供給されるVdd配線310に接続される。また、各々の増幅トランジスタ304のソースは、対応する各々の選択トランジスタ305のドレインに接続される。各々の選択トランジスタ305のゲートには、選択パルスが供給されるデコーダ配線308に接続される。本実施形態において、デコーダ配線308は、16個の選択トランジスタ305に対してそれぞれ独立に設けられる。そして、各々の選択トランジスタ305のソースは、共通の出力配線309に接続される。負荷電流源311は、出力配線309に電流を供給する。すなわち、選択トランジスタ305に対する出力配線309は、ソースフォロアにより形成される。なお、負荷電流源311は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。 A drain of each amplifying transistor 304 is connected to a Vdd wiring 310 supplied with a power supply voltage. Also, the source of each amplification transistor 304 is connected to the drain of each corresponding selection transistor 305 . A gate of each selection transistor 305 is connected to a decoder wiring 308 to which a selection pulse is supplied. In this embodiment, the decoder wiring 308 is provided independently for each of the 16 select transistors 305 . A source of each selection transistor 305 is connected to a common output wiring 309 . A load current source 311 supplies current to the output wiring 309 . That is, the output wiring 309 for the selection transistor 305 is formed by a source follower. The load current source 311 may be provided on the imaging chip 113 side or may be provided on the signal processing chip 111 side.

ここで、電荷の蓄積開始から蓄積終了後の画素出力までの流れを説明する。リセット配線306を通じてリセットパルスがリセットトランジスタ303に印加される。これと同時に、TX配線307を通じて転送パルスが転送トランジスタ302に印加される。これにより、PD104及びフローティングディフュージョンFDの電位はリセットされる。 Here, the flow from the start of charge accumulation to the pixel output after the end of charge accumulation will be described. A reset pulse is applied to the reset transistor 303 through the reset wiring 306 . At the same time, a transfer pulse is applied to the transfer transistor 302 through the TX wiring 307 . This resets the potentials of the PD 104 and the floating diffusion FD.

PD104は、転送パルスの印加が解除されると、受光する入射光を電荷に変換して蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、PD104において蓄積された電荷はフローティングディフュージョンFDへ転送される。これにより、フローティングディフュージョンFDの電位は、リセット電位から電荷蓄積後の信号電位になる。そして、デコーダ配線308を通じて選択パルスが選択トランジスタ305に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ304及び選択トランジスタ305を介して出力配線309に伝わる。このような回路の動作により、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線309に出力される。 When the application of the transfer pulse is released, the PD 104 converts the incident light it receives into charges and accumulates them. After that, when the transfer pulse is applied again while the reset pulse is not applied, the charges accumulated in the PD 104 are transferred to the floating diffusion FD. As a result, the potential of the floating diffusion FD changes from the reset potential to the signal potential after charge accumulation. Then, when a selection pulse is applied to the selection transistor 305 through the decoder wiring 308 , fluctuations in the signal potential of the floating diffusion FD are transmitted to the output wiring 309 via the amplification transistor 304 and the selection transistor 305 . By such circuit operation, a pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 309 .

図3に示すように、本実施形態においては、単位グループ131を形成する16画素に対して、リセット配線306とTX配線307が共通である。すなわち、リセットパルスと転送パルスはそれぞれ、16画素すべてに対して同時に印加される。従って、単位グループ131を形成するすべての画素は、同一のタイミングで電荷蓄積を開始し、同一のタイミングで電荷蓄積を終了する。ただし、蓄積された電荷に対応する画素信号は、それぞれの選択トランジスタ305に選択パルスが順次印加されることにより、選択的に出力配線309に出力される。また、リセット配線306、TX配線307、出力配線309は、単位グループ131毎に別個に設けられる。 As shown in FIG. 3, in this embodiment, the reset wiring 306 and the TX wiring 307 are common to the 16 pixels forming the unit group 131 . That is, the reset pulse and the transfer pulse are each applied simultaneously to all 16 pixels. Therefore, all the pixels forming the unit group 131 start charge accumulation at the same timing and finish charge accumulation at the same timing. However, pixel signals corresponding to the accumulated charges are selectively output to the output wiring 309 by sequentially applying selection pulses to the respective selection transistors 305 . Also, the reset wiring 306 , the TX wiring 307 , and the output wiring 309 are provided separately for each unit group 131 .

このように単位グループ131を基準として回路を構成することにより、単位グループ131ごとに電荷蓄積時間を制御することができる。換言すると、単位グループ131間で、異なった電荷蓄積時間による画素信号をそれぞれ出力させることができる。更に言えば、一方の単位グループ131に1回の電荷蓄積を行わせている間に、他方の単位グループ131に何回もの電荷蓄積を繰り返させてその都度画素信号を出力させることにより、これらの単位グループ131間で異なるフレームレートで動画用の各フレームを出力することもできる。 By configuring the circuit on the basis of the unit group 131 in this way, the charge accumulation time can be controlled for each unit group 131 . In other words, it is possible to output pixel signals with different charge accumulation times between the unit groups 131 . Furthermore, while one unit group 131 is caused to perform one charge accumulation, the other unit group 131 is caused to repeat charge accumulation many times and to output a pixel signal each time. It is also possible to output each moving image frame at a different frame rate between the unit groups 131 .

図4は、撮像素子100の機能的構成を示すブロック図である。アナログのマルチプレクサ411は、単位グループ131を形成する16個のPD104を順番に選択する。そして、マルチプレクサ411は、16個のPD104のそれぞれの画素信号を当該単位グループ131に対応して設けられた出力配線309へ出力させる。マルチプレクサ411は、PD104とともに、撮像チップ113に形成される。 FIG. 4 is a block diagram showing the functional configuration of the imaging device 100. As shown in FIG. Analog multiplexer 411 sequentially selects 16 PDs 104 forming unit group 131 . Then, the multiplexer 411 outputs the pixel signal of each of the 16 PDs 104 to the output wiring 309 provided corresponding to the unit group 131 . A multiplexer 411 is formed in the imaging chip 113 together with the PD 104 .

マルチプレクサ411を介して出力されたアナログ信号の画素信号は、信号処理チップ111に形成されたアンプ412により増幅される。そして、アンプ412で増幅された画素信号は、信号処理チップ111に形成された、相関二重サンプリング(CDS;Correlated Double Sampling)・アナログ/デジタル(Analog/Digital)変換を行う信号処理回路413により、相関二重サンプリングの信号処理が行われるとともに、A/D変換(アナログ信号からデジタル信号への変換)が行われる。画素信号が信号処理回路413において相関二重サンプリングの信号処理が行われることにより、画素信号のノイズが低減される。A/D変換された画素信号は、デマルチプレクサ414に引き渡され、それぞれの画素に対応する画素メモリ415に格納される。デマルチプレクサ414及び画素メモリ415は、メモリチップ112に形成される。 The analog pixel signal output via the multiplexer 411 is amplified by the amplifier 412 formed in the signal processing chip 111 . Then, the pixel signal amplified by the amplifier 412 is processed by a signal processing circuit 413 formed in the signal processing chip 111 that performs correlated double sampling (CDS) and analog/digital conversion. Signal processing of correlated double sampling is performed, and A/D conversion (conversion from analog signal to digital signal) is performed. Noise in the pixel signal is reduced by subjecting the pixel signal to signal processing of correlated double sampling in the signal processing circuit 413 . A/D-converted pixel signals are transferred to a demultiplexer 414 and stored in pixel memories 415 corresponding to respective pixels. Demultiplexer 414 and pixel memory 415 are formed in memory chip 112 .

演算回路(信号処理部)416は、画素メモリ415に格納された画素信号を処理して後段の画像処理部に引き渡す。本実施形態では、演算回路416は、所定領域(図5に示す第2領域210)を構成する各ブロックに含まれる複数の画素からの画素信号を平均化する処理を実行する。演算回路416は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、図4では1つの単位グループ131の分の接続を示すが、実際にはこれらが単位グループ131ごとに存在して、並列で動作する。ただし、演算回路416は単位グループ131ごとに存在しなくてもよい。例えば、一つの演算回路416がそれぞれの単位グループ131に対応する画素メモリ415の値を順に参照しながらシーケンシャルに処理してもよい。 An arithmetic circuit (signal processing unit) 416 processes the pixel signals stored in the pixel memory 415 and transfers them to the subsequent image processing unit. In this embodiment, the arithmetic circuit 416 executes processing for averaging pixel signals from a plurality of pixels included in each block that constitutes a predetermined area (the second area 210 shown in FIG. 5). The arithmetic circuit 416 may be provided in the signal processing chip 111 or may be provided in the memory chip 112 . Although FIG. 4 shows connections for one unit group 131, in reality, these units exist for each unit group 131 and operate in parallel. However, the arithmetic circuit 416 may not exist for each unit group 131 . For example, one arithmetic circuit 416 may sequentially refer to the values of the pixel memory 415 corresponding to each unit group 131 and process them sequentially.

上記した通り、単位グループ131のそれぞれに対応して出力配線309が設けられている。撮像素子100は、撮像チップ113、信号処理チップ111、及びメモリチップ112を積層している。このため、これら出力配線309にバンプ109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。 As described above, the output wiring 309 is provided corresponding to each unit group 131 . The imaging device 100 has an imaging chip 113, a signal processing chip 111, and a memory chip 112 stacked. Therefore, by using the bumps 109 as the output wirings 309 for electrical connection between the chips, the wiring can be routed without increasing the size of each chip in the planar direction.

次に、撮像素子100の画素領域113A(図2参照)に設定されるブロックについて説明する。本実施形態において、撮像素子100の画素領域113Aは、複数のブロックに分割される。複数のブロックは、1ブロックにつき単位グループ131を少なくとも1つ含むように定義される。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素が制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、制御パラメータが異なる画素信号が取得される。制御パラメータとしては、例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン、間引き率(画素間引き率)、画素信号を加算する加算行数又は加算列数(画素加算数)、デジタル化のビット数などがあげられる。さらに、制御パラメータは、画素からの画像信号取得後の画像処理におけるパラメータであってもよい。 Next, blocks set in the pixel area 113A (see FIG. 2) of the image sensor 100 will be described. In this embodiment, the pixel area 113A of the image sensor 100 is divided into a plurality of blocks. A plurality of blocks are defined to include at least one unit group 131 per block. Pixels included in each block are controlled with different control parameters. That is, pixel signals with different control parameters are obtained for a pixel group included in a certain block and a pixel group included in another block. Control parameters include, for example, charge accumulation time or number of accumulations, frame rate, gain, thinning rate (pixel thinning rate), number of addition rows or columns for adding pixel signals (pixel addition number), digitization bit number, etc. Furthermore, the control parameter may be a parameter in image processing after acquiring image signals from pixels.

ここで、電荷の蓄積時間とは、PD104が電荷の蓄積を開始してから終了するまでの時間のことをいう。この電荷蓄積時間のことを露光時間又はシャッター速度(シャッタースピード)ともいう。また、電荷の蓄積回数とは、単位時間あたりにPD104が電荷を蓄積する回数のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。フレームレートが高くなる程、動画における被写体(すなわち撮像される対象物)の動きが滑らかになる。 Here, the charge accumulation time is the time from when the PD 104 starts accumulating charges until it ends. This charge accumulation time is also called exposure time or shutter speed. The number of charge accumulations refers to the number of times the PD 104 accumulates charges per unit time. A frame rate is a value representing the number of frames processed (displayed or recorded) per unit time in a moving image. The unit of frame rate is fps (Frames Per Second). The higher the frame rate, the smoother the movement of the subject (that is, the object being imaged) in the moving image.

また、ゲインとは、アンプ412の利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子100の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子100が光をとらえる能力を表す値となる。ゲインを上げるとISO感度も向上する。例えば、ゲインを倍にすると電気信号(画素信号)も倍になり、入射光の光量が半分でも適切な明るさとなる。しかし、ゲインを上げると、電気信号に含まれるノイズも増幅されるため、ノイズが多くなってしまう。 A gain is a gain factor (amplification factor) of the amplifier 412 . By changing this gain, the ISO sensitivity can be changed. The ISO sensitivity is a standard for photographic film established by ISO, and indicates how weak light the photographic film can record. However, in general, the ISO sensitivity is also used when expressing the sensitivity of the imaging device 100 . In this case, the ISO sensitivity is a value representing the ability of the image sensor 100 to capture light. Increasing the gain also improves the ISO sensitivity. For example, if the gain is doubled, the electric signal (pixel signal) is also doubled, and even if the amount of incident light is halved, appropriate brightness can be obtained. However, increasing the gain also amplifies the noise contained in the electrical signal, resulting in increased noise.

また、間引き率とは、所定領域においてすべての画素数に対する画素信号の読み出しを行わない画素数の割合をいう。例えば、所定領域の間引き率が0である場合は、その所定領域内のすべての画素から画素信号の読み出しが行われることを意味する。また、所定領域の間引き率が0.5である場合は、その所定領域内の半分の画素から画素信号を読み出しが行われることを意味する。具体的には、単位グループ131がベイヤー配列である場合、垂直方向についてベイヤー配列の単位の一つ置き、すなわち、画素単位の2画素ずつ(2行ずつ)交互に画素信号が読み出される画素と読み出されない画素とが設定される。なお、画素信号の読み出しの間引きが行われると画像の解像度が低下する。しかし、撮像素子100には2000万以上の画素が配置されているため、例えば間引き率0.5で間引きを行ったとしても、1000万以上の画素で画像を表示することができる。このため、使用者(撮影者)にとって解像度の低下は気にならないものと考えられる。 Also, the thinning rate refers to the ratio of the number of pixels whose pixel signals are not read out to all the number of pixels in a predetermined area. For example, when the thinning rate of a predetermined area is 0, it means that pixel signals are read out from all pixels in the predetermined area. Further, when the thinning rate of a predetermined area is 0.5, it means that pixel signals are read out from half of the pixels in the predetermined area. Specifically, when the unit group 131 has a Bayer array, every other unit of the Bayer array in the vertical direction, that is, pixels from which pixel signals are alternately read out in units of two pixels (two rows each) and read out. Pixels that are not displayed are set. It should be noted that the resolution of the image decreases when the readout of the pixel signals is thinned out. However, since 20 million or more pixels are arranged in the imaging device 100, even if thinning is performed at a thinning rate of 0.5, an image can be displayed with 10 million or more pixels. Therefore, it is considered that the user (photographer) does not mind the decrease in resolution.

また、加算行数とは、垂直方向に隣接する画素の画素信号を加算する場合に、その加算する垂直方向の画素の数(行数)をいう。また、加算列数とは、水平方向に隣接する画素の画素信号を加算する場合に、その加算する水平方向の画素の数(列数)をいう。このような加算の処理は、例えば演算回路416において行われる。演算回路416が垂直方向又は水平方向に隣接する所定数の画素の画素信号を加算する処理を行うことにより、所定の間引き率で間引いて画素信号を読み出す処理と同じような効果を奏する。なお、上記した加算の処理において、演算回路416が加算した行数または列数で加算値を割ることにより平均値を算出するようにしてもよい。 The number of rows to be added refers to the number of pixels in the vertical direction (the number of rows) to be added when pixel signals of pixels adjacent to each other in the vertical direction are added. The number of columns to be added refers to the number of pixels in the horizontal direction (the number of columns) to be added when pixel signals of horizontally adjacent pixels are added. Such addition processing is performed in the arithmetic circuit 416, for example. The arithmetic circuit 416 adds the pixel signals of a predetermined number of vertically or horizontally adjacent pixels, thereby providing the same effect as reading out pixel signals by thinning at a predetermined thinning rate. In addition, in the above-described addition processing, the average value may be calculated by dividing the added value by the number of rows or columns added by the arithmetic circuit 416 .

また、デジタル化のビット数とは、信号処理回路413がA/D変換においてアナログ信号をデジタル信号に変換したときのビット数をいう。デジタル信号のビット数が多くなる程、輝度や色変化などがより詳細に表現される。 Also, the number of bits for digitization refers to the number of bits when the signal processing circuit 413 converts an analog signal into a digital signal in A/D conversion. As the number of bits of the digital signal increases, luminance, color change, etc. are expressed in more detail.

本実施形態において、蓄積条件とは、撮像素子100における電荷の蓄積に関する条件のことをいう。具体的には、蓄積条件は、上記した制御パラメータのうち、電荷の蓄積時間又は蓄積回数、フレームレート、及びゲインのことをいう。フレームレートは電荷の蓄積時間や蓄積回数に応じて変化し得るので、フレームレートが蓄積条件に含まれる。また、ゲインに応じて適正露出の光量は変化し、適正露出の光量に応じて電荷の蓄積時間又は蓄積回数も変化し得る。このため、ゲインは蓄積条件に含まれる。 In the present embodiment, the accumulation condition refers to a condition regarding charge accumulation in the image sensor 100 . Specifically, the accumulation condition refers to the charge accumulation time or the number of accumulations, the frame rate, and the gain among the control parameters described above. The frame rate is included in the accumulation conditions because the frame rate can change according to the charge accumulation time and the number of accumulations. In addition, the amount of light for proper exposure changes according to the gain, and the charge accumulation time or number of times of accumulation may also change according to the amount of light for proper exposure. Therefore, gain is included in the accumulation condition.

また、本実施形態において、撮像条件とは、被写体の撮像に関する条件のことをいう。具体的には、撮像条件は、上記した蓄積条件を含む制御パラメータのことをいう。撮像条件は、撮像素子100を制御するための制御パラメータ(例えば、電荷の蓄積時間又は蓄積回数、フレームレート、ゲイン)のほかに、撮像素子100からの信号の読み出しを制御するための制御パラメータ(例えば、間引き率、画素信号を加算する加算行数又は加算列数)、撮像素子100からの信号を処理するための制御パラメータ(例えば、デジタル化のビット数、後述する画像処理部30が画像処理を実行するための制御パラメータ)も含まれる。 In addition, in the present embodiment, the imaging conditions refer to conditions related to imaging of a subject. Specifically, the imaging conditions refer to control parameters including the accumulation conditions described above. The imaging conditions include control parameters for controlling the image sensor 100 (for example, charge accumulation time or number of times, frame rate, gain) and control parameters for controlling readout of signals from the image sensor 100 ( For example, a thinning rate, the number of rows or columns to be added for adding pixel signals), a control parameter for processing the signal from the image sensor 100 (for example, the number of bits for digitization, the image processing unit 30 to be described later) control parameters for executing) are also included.

図5は、第1実施形態の撮像素子100における第1領域200と第2領域210とを示す図である。図5に示すように、撮像素子100(撮像チップ113)の画素領域113Aが第1領域200と第2領域210とに分割されている。第1領域200は、画素領域113Aの中央部分の複数のブロック(図5中の「A」で示すブロック)からなる方形状の領域である。第2領域210は、画素領域113Aの周辺部分の複数のブロック(図5中の「B」で示すブロック)からなる枠状の領域である。すなわち、第2領域210は、第1領域200の周囲を囲うように配置された複数のブロックで構成されている領域である。なお、第1領域200及び第2領域210を構成する各ブロックは、例えば120×60画素で構成されている。 FIG. 5 is a diagram showing the first region 200 and the second region 210 in the imaging device 100 of the first embodiment. As shown in FIG. 5, a pixel region 113A of the image sensor 100 (imaging chip 113) is divided into a first region 200 and a second region 210. As shown in FIG. The first area 200 is a rectangular area made up of a plurality of blocks (blocks indicated by "A" in FIG. 5) in the central portion of the pixel area 113A. The second area 210 is a frame-shaped area made up of a plurality of blocks (blocks indicated by "B" in FIG. 5) around the pixel area 113A. That is, the second area 210 is an area composed of a plurality of blocks arranged so as to surround the first area 200 . Each block forming the first area 200 and the second area 210 is made up of, for example, 120×60 pixels.

なお、図5において、領域ごとのブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックを設定しているが、図5に示すブロックの数よりも多い数のブロックを画素領域113Aに設定するようにしてもよい。 In FIG. 5, a small number of blocks are set in the pixel region 113A in order to make the arrangement of blocks in each region easier to see. 113A may be set.

本実施形態では、第1領域200は、通常の撮影用の領域(撮影用領域)である。第2領域210は、後述するように蛍光灯や水銀灯などの光源(図6の光源L参照)の明滅(フリッカー)を検知するために使用されるフリッカー検知用領域である。商用電源の周波数は、東日本が50Hz、西日本が60Hzとなっている。例えば蛍光灯は、その倍の周波数で発光する。このため、蛍光灯は、東日本では1秒間に100回明滅し、西日本では1秒間に120回明滅する。このような蛍光灯などの光源の明滅が生じることをフリッカー現象(ちらつき現象)という。 In this embodiment, the first area 200 is a normal imaging area (imaging area). The second area 210 is a flicker detection area used to detect blinking (flicker) of a light source such as a fluorescent lamp or a mercury lamp (see light source L in FIG. 6), as will be described later. The commercial power frequency is 50 Hz in eastern Japan and 60 Hz in western Japan. A fluorescent lamp, for example, emits at twice that frequency. Therefore, a fluorescent lamp blinks 100 times per second in eastern Japan and 120 times per second in western Japan. The blinking of a light source such as a fluorescent lamp is called a flicker phenomenon.

デジタルカメラ1が短い露光時間(つまり、速いシャッタースピード)で撮像した場合、撮像開始のタイミング(つまり、シャッターを押したタイミング)が蛍光灯の明滅のどのタイミングであるかによって、明るい画像となったり、暗い画像となったりする。また、蛍光灯の場合、100Hz又は120Hzの明るさの変化に加え、発光する箇所も1秒間に50回又は60回移動する。従って、画像の影のつき方なども移動してしまう。また、撮像素子100の場合、色ごとに画素(緑色画素Gb,Gr、青色画素B、及び赤色画素R)からの信号の読み出しタイミングが異なる。従って、色ごとの光量のずれが色ずれとなって現れることがある。本実施形態では、図5に示したように、撮像素子100において、通常の撮影用の第1領域200とは別に第2領域210を設ける。そして、本実施形態のデジタルカメラ1は、第2領域210から読み出される信号を用いて光源の明滅タイミングを検知する。そして、本実施形態のデジタルカメラ1は、検知した明滅タイミングに応じた最適な露光開始タイミングで撮像を行う。 When the digital camera 1 takes an image with a short exposure time (that is, a fast shutter speed), the image may become bright depending on the timing of the start of imaging (that is, the timing of pressing the shutter) when the fluorescent light blinks. , the image may become dark. Moreover, in the case of a fluorescent lamp, in addition to the change in brightness at 100 Hz or 120 Hz, the position where light is emitted also moves 50 or 60 times per second. Therefore, the way the image is shaded also shifts. In the case of the image sensor 100, the timing of reading out signals from pixels (green pixels Gb and Gr, blue pixels B, and red pixels R) differs for each color. Therefore, the difference in the amount of light for each color may appear as a color shift. In this embodiment, as shown in FIG. 5, the imaging device 100 is provided with a second area 210 in addition to the first area 200 for normal imaging. Then, the digital camera 1 of this embodiment uses the signal read out from the second area 210 to detect the blinking timing of the light source. Then, the digital camera 1 of the present embodiment takes an image at an optimal exposure start timing corresponding to the detected blinking timing.

図6は、撮像装置の一例であるデジタルカメラ1の概略構成を示す横断面図である。なお、図6に示すように、蛍光灯などの光源Lが設置された室内において、本実施形態のデジタルカメラ1が撮影を行うことを想定している。 FIG. 6 is a cross-sectional view showing a schematic configuration of a digital camera 1, which is an example of an imaging device. As shown in FIG. 6, it is assumed that the digital camera 1 of the present embodiment takes pictures in a room where a light source L such as a fluorescent lamp is installed.

本実施形態のデジタルカメラ1は、レンズ部10及びカメラボディ2を備えている。レンズ部10は、交換式レンズである。カメラボディ2には、レンズ部10を装着するためのボディ側マウント部80Aが設けられている。また、レンズ部10には、ボディ側マウント部80Aと対応するレンズ側マウント部80Bが設けられている。使用者がボディ側マウント部80Aとレンズ側マウント部80Bとを接合することにより、レンズ部10がカメラボディ2に装着される。レンズ部10がカメラボディ2に装着されると、ボディ側マウント部80Aに設けられた電気接点81Aと、レンズ側マウント部80Bに設けられた電気接点81Bとが電気的に接続される。 A digital camera 1 of this embodiment includes a lens unit 10 and a camera body 2 . The lens unit 10 is an interchangeable lens. The camera body 2 is provided with a body-side mount section 80A for mounting the lens section 10 thereon. Further, the lens portion 10 is provided with a lens side mount portion 80B corresponding to the body side mount portion 80A. The lens section 10 is attached to the camera body 2 by the user joining the body-side mount section 80A and the lens-side mount section 80B. When the lens unit 10 is attached to the camera body 2, the electric contact 81A provided on the body side mount portion 80A and the electric contact 81B provided on the lens side mount portion 80B are electrically connected.

レンズ部10は、撮影光学系11、絞り14、及びレンズ駆動制御装置15を備えている。撮像光学系11には、レンズ11a、ズーミング用レンズ11b及びフォーカシング用レンズ11cが含まれる。レンズ駆動制御装置15は、レンズ側CPU(Central Processing Unit)、メモリ及び駆動制御回路を有している。レンズ駆動制御装置15は、電気接点81A,81Bを介してカメラボディ2側のシステム制御部70と電気的に接続され、レンズ部10に備えられた撮影光学系11の光学特性に関するレンズ情報の送信とズーミング用レンズ11b、フォーカシング用レンズ11c及び絞り14を駆動するための制御情報の受信とを行う。 The lens unit 10 includes a photographing optical system 11 , a diaphragm 14 and a lens driving control device 15 . The imaging optical system 11 includes a lens 11a, a zooming lens 11b and a focusing lens 11c. The lens drive control device 15 has a lens-side CPU (Central Processing Unit), a memory, and a drive control circuit. The lens drive control device 15 is electrically connected to the system control section 70 on the side of the camera body 2 via electrical contacts 81A and 81B, and transmits lens information regarding the optical characteristics of the photographic optical system 11 provided in the lens section 10. and reception of control information for driving the zooming lens 11b, the focusing lens 11c, and the diaphragm .

レンズ駆動制御装置15のレンズ側CPUは、撮影光学系11の焦点調節を行うために、システム制御部70から送信される制御情報に基づいて駆動制御回路にフォーカシング用レンズ11cの駆動制御を実行させる。レンズ駆動制御装置15のレンズ側CPUは、ズーミング調節を行うために、システム制御部70から送信される制御情報に基づいてズーミング用レンズ11bの駆動制御を駆動制御回路に実行させる。絞り14は、撮影光学系11の光軸に沿って配置されている。絞り14は、光量及びボケ量調整のために光軸中心に開口径が可変な開口を形成する。レンズ駆動制御装置15のレンズ側CPUは、絞り14の開口径調節を行うために、システム制御部70から送信される制御情報に基づいて絞り14の駆動制御を駆動制御回路に実行させる。 The lens-side CPU of the lens drive control device 15 causes the drive control circuit to execute drive control of the focusing lens 11c based on the control information transmitted from the system control unit 70 in order to adjust the focus of the photographing optical system 11. . The lens-side CPU of the lens drive control device 15 causes the drive control circuit to execute drive control of the zooming lens 11b based on control information transmitted from the system control unit 70 in order to perform zooming adjustment. A diaphragm 14 is arranged along the optical axis of the imaging optical system 11 . The diaphragm 14 forms an aperture with a variable aperture diameter at the center of the optical axis for adjusting the amount of light and the amount of blurring. The lens-side CPU of the lens drive control device 15 causes the drive control circuit to control the drive of the diaphragm 14 based on the control information transmitted from the system control unit 70 in order to adjust the aperture diameter of the diaphragm 14 .

カメラボディ2は、撮像部20、画像処理部30、表示部50、記憶部60及びシステム制御部70を備えている。撮像部20は、撮像素子100を有する。撮像素子100には、レンズ部10の撮影光学系11から射出された光束が入射する。撮像素子100は、入射した光束を光電変換して撮像素子の各画素の画素信号(画素信号は画像データに含まれる。)を生成する。各画素の画素信号からなるRAWデータ(RAWデータも画像データに含まれる。)が撮像部20から画像処理部30に送られる。画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。表示部50は、画像処理部30が生成した画像データを表示する。記憶部60は、画像処理部30が生成した画像データを記憶する。 The camera body 2 includes an imaging section 20 , an image processing section 30 , a display section 50 , a storage section 60 and a system control section 70 . The imaging unit 20 has an imaging device 100 . A light flux emitted from the imaging optical system 11 of the lens unit 10 is incident on the imaging device 100 . The imaging device 100 photoelectrically converts an incident light beam to generate a pixel signal (a pixel signal is included in image data) for each pixel of the imaging device. RAW data (RAW data is also included in image data) consisting of pixel signals of pixels is sent from the imaging section 20 to the image processing section 30 . The image processing unit 30 performs various image processing on RAW data composed of pixel signals of pixels to generate image data in a predetermined file format (eg, JPEG format, etc.). The display unit 50 displays image data generated by the image processing unit 30 . The storage unit 60 stores image data generated by the image processing unit 30 .

なお、「画像データ」のことを「画像信号」ということがある。また、画像には、静止画、動画、ライブビュー画像が含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部20により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。 Note that "image data" is sometimes referred to as "image signal". Images include still images, moving images, and live view images. A live view image is an image displayed on the display unit 50 by sequentially outputting image data generated by the image processing unit 30 to the display unit 50 . The live view image is used by the user to check the image of the subject captured by the imaging unit 20 . A live view image is also called a through image or a preview image.

システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。なお、システム制御部70の処理及び動作の詳細、及びカメラボディ2内の構成の詳細については、以下の図7において説明する。 A system control unit 70 controls the overall processing and operation of the digital camera 1 . Details of the processing and operation of the system control unit 70 and details of the internal configuration of the camera body 2 will be described with reference to FIG. 7 below.

図7は、第1実施形態に係るデジタルカメラ1の構成を示すブロック図である。図7に示すように、デジタルカメラ1は、カメラボディ2とレンズ部10とを備える。上述したように、レンズ部10は、カメラボディ2に対して着脱可能な交換式レンズである。従って、デジタルカメラ1は、レンズ部10を備えていなくてもよい。ただし、レンズ部10はデジタルカメラ1と一体構成であってもよい。レンズ部10は、カメラボディ2に接続された状態において、被写体からの光束を撮像部20へ導く。 FIG. 7 is a block diagram showing the configuration of the digital camera 1 according to the first embodiment. As shown in FIG. 7, the digital camera 1 includes a camera body 2 and a lens section 10. As shown in FIG. As described above, the lens unit 10 is an interchangeable lens that can be attached to and detached from the camera body 2 . Therefore, the digital camera 1 does not have to include the lens unit 10 . However, the lens unit 10 may be integrated with the digital camera 1 . The lens unit 10 guides the luminous flux from the subject to the imaging unit 20 while being connected to the camera body 2 .

レンズ部10は、上述したように、レンズ駆動制御装置15を有している(図6参照)。また、レンズ部10は、撮影光学系11としての複数のレンズ群、つまり、レンズ11a、ズーミング用レンズ11b、及びフォーカシング用レンズ11cを有している。レンズ駆動制御装置15は、レンズ部10がカメラボディ2に接続された場合に、メモリに記憶されているレンズ情報をカメラボディ2のシステム制御部70に送信する。また、レンズ駆動制御装置15は、レンズ部10がカメラボディ2に接続された場合に、システム制御部70から送信される制御情報を受信する。レンズ駆動制御装置15は、制御情報に基づいて、ズーミング用レンズ11b、フォーカシング用レンズ11c、及び絞り14の駆動制御を行う。 The lens unit 10 has the lens driving control device 15 as described above (see FIG. 6). Also, the lens unit 10 has a plurality of lens groups as a photographing optical system 11, that is, a lens 11a, a zooming lens 11b, and a focusing lens 11c. The lens drive control device 15 transmits the lens information stored in the memory to the system control section 70 of the camera body 2 when the lens section 10 is connected to the camera body 2 . Further, the lens drive control device 15 receives control information transmitted from the system control section 70 when the lens section 10 is connected to the camera body 2 . The lens drive control device 15 performs drive control of the zooming lens 11b, the focusing lens 11c, and the diaphragm 14 based on the control information.

図7に示すように、カメラボディ2は、撮像部20、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、システム制御部70及びストロボ90を備える。 As shown in FIG. 7, the camera body 2 includes an imaging section 20, an image processing section 30, a work memory 40, a display section 50, an operation section 55, a recording section 60, a system control section 70 and a strobe 90.

撮像部20は、撮像素子100及び駆動部21を有している。駆動部21は、システム制御部70からの指示に従って、撮像素子100の駆動を制御する制御回路である。ここで、駆動部21は、リセットパルス及び転送パルスをそれぞれリセットトランジスタ303及び転送トランジスタ302に印加するタイミング(又はタイミングの周期)を制御することにより、制御パラメータである電荷の蓄積時間又は蓄積回数を制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスをそれぞれリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305に印加するタイミング(又はタイミングの周期)を制御することにより、フレームレートを制御する。また、駆動部21は、リセットパルス、転送パルス、及び選択パルスを印加する画素を設定することにより、間引き率を制御する。 The imaging unit 20 has an imaging device 100 and a driving unit 21 . The driving unit 21 is a control circuit that controls the driving of the imaging device 100 according to instructions from the system control unit 70 . Here, the driving unit 21 controls the timing (or timing cycle) of applying the reset pulse and the transfer pulse to the reset transistor 303 and the transfer transistor 302, respectively, thereby setting the charge accumulation time or the number of times of accumulation, which are control parameters. Control. Further, the drive unit 21 controls the frame rate by controlling the timing (or timing cycle) of applying the reset pulse, the transfer pulse, and the selection pulse to the reset transistor 303, the transfer transistor 302, and the selection transistor 305, respectively. do. Further, the drive unit 21 controls the thinning rate by setting the pixels to which the reset pulse, transfer pulse, and selection pulse are applied.

また、駆動部21は、アンプ412のゲイン(利得率、増幅率ともいう。)を制御することにより、撮像素子100のISO感度を制御する。また、駆動部21は、演算回路416に指示を送ることにより、画素信号を加算する加算行数又は加算列数を設定する。また、駆動部21は、信号処理回路413に指示を送ることにより、デジタル化のビット数を設定する。さらに、駆動部21は、撮像素子100の画素領域(撮像領域)113Aにおいてブロック単位で領域を設定する。このように、駆動部21は、撮像素子100に対して複数のブロックごとに異なる撮像条件で撮像させて画素信号を出力させる撮像素子制御部の機能を担う。システム制御部70は、駆動部21に対するブロックの位置、形状、範囲などの指示を行う。また、駆動部21は、演算回路416に指示を送ることにより、第2領域210のブロックごとに、各ブロックに含まれる複数の画素からの画素信号を平均化する処理を実行させる。演算回路416は、各ブロックに含まれる複数の画素からの画素信号を平均化した平均化信号を画像処理部30に出力する。 Further, the drive unit 21 controls the ISO sensitivity of the image sensor 100 by controlling the gain (also referred to as gain factor or amplification factor) of the amplifier 412 . Further, the drive unit 21 sets the number of addition rows or the number of addition columns for adding the pixel signals by sending an instruction to the arithmetic circuit 416 . Further, the drive unit 21 sets the number of bits for digitization by sending an instruction to the signal processing circuit 413 . Further, the driving section 21 sets the area in the pixel area (imaging area) 113A of the image sensor 100 in units of blocks. In this manner, the drive unit 21 functions as an image pickup device control unit that causes the image pickup device 100 to pick up images under different image pickup conditions for each of a plurality of blocks and output pixel signals. The system control unit 70 instructs the drive unit 21 about the position, shape, range, and the like of the block. In addition, the drive unit 21 sends an instruction to the arithmetic circuit 416 to cause each block of the second region 210 to execute a process of averaging pixel signals from a plurality of pixels included in each block. Arithmetic circuit 416 outputs an averaged signal obtained by averaging pixel signals from a plurality of pixels included in each block to image processing unit 30 .

撮像素子100は、撮像素子100からの画素信号を画像処理部30へ引き渡す。画像処理部30は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30は、以下の画像処理を実行する。例えば、画像処理部30は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像信号を生成する。また、画像処理部30は、RGB画像信号に対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像処理部30は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。 The imaging device 100 transfers pixel signals from the imaging device 100 to the image processing unit 30 . Using the work memory 40 as a workspace, the image processing unit 30 performs various image processing on RAW data composed of pixel signals of pixels, and generates image data in a predetermined file format (for example, JPEG format). . The image processing unit 30 executes the following image processing. For example, the image processing unit 30 generates RGB image signals by performing color signal processing (color tone correction) on the signals obtained in the Bayer array. The image processing unit 30 also performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RGB image signal. Further, the image processing unit 30 performs processing for compressing in a predetermined compression format (JPEG format, MPEG format, etc.) as necessary. The image processing section 30 outputs the generated image data to the recording section 60 . The image processing unit 30 also outputs the generated image data to the display unit 50 .

画像処理部30が画像処理を行う際に参照されるパラメータも制御パラメータ(撮像条件)に含まれる。例えば、色信号処理(色調補正)、ホワイトバランス調整、階調調整、圧縮率などのパラメータが制御パラメータに含まれる。電荷の蓄積時間などに応じて撮像素子100から読み出される信号が変化し、その信号の変化に応じて画像処理を行う際に参照されるパラメータも変化する。画像処理部30は、ブロック単位ごとに異なる制御パラメータを設定し、これらの制御パラメータに基づいて色信号処理などの画像処理を実行する。 Control parameters (imaging conditions) also include parameters referred to when the image processing unit 30 performs image processing. For example, the control parameters include parameters such as color signal processing (color tone correction), white balance adjustment, gradation adjustment, and compression rate. A signal read out from the imaging device 100 changes according to the charge accumulation time and the like, and the parameters referred to when image processing is performed also change according to the change of the signal. The image processing unit 30 sets different control parameters for each block and executes image processing such as color signal processing based on these control parameters.

なお、本実施形態では、画像処理部30は、演算回路416から出力される第2領域210の各ブロックごとの平均化信号に基づいて、その平均化信号の信号レベルを判定する。そして、画像処理部30は、平均化信号の信号レベルの判定結果をシステム制御部70に出力する。 Note that in the present embodiment, the image processing unit 30 determines the signal level of the averaged signal based on the averaged signal for each block of the second region 210 output from the arithmetic circuit 416 . The image processing unit 30 then outputs the determination result of the signal level of the averaged signal to the system control unit 70 .

ワークメモリ40は、画像処理部30による画像処理が行われる際に画像データなどを一時的に記憶する。表示部50は、撮像部20で撮像された画像(静止画、動画、ライブビュー画像)や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどの表示パネル51を有している。表示部50の表示パネル51上にはタッチパネル52が形成されている。タッチパネル52は、使用者がメニューの選択などの操作を行う際に、使用者が触れた位置を示す信号をシステム制御部70に出力する。 The work memory 40 temporarily stores image data and the like when image processing is performed by the image processing unit 30 . The display unit 50 displays images (still images, moving images, live view images) captured by the imaging unit 20 and various information. The display unit 50 has a display panel 51 such as a liquid crystal display panel. A touch panel 52 is formed on the display panel 51 of the display unit 50 . The touch panel 52 outputs a signal indicating the position touched by the user to the system control unit 70 when the user performs an operation such as menu selection.

操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動作の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。 The operation unit 55 includes a release switch (switch pressed when shooting a still image), a moving image switch (switch pressed when shooting an action), and various operation switches operated by the user. The operation unit 55 outputs a signal to the system control unit 70 according to the user's operation. The recording unit 60 has a card slot into which a storage medium such as a memory card can be inserted. The recording unit 60 stores image data generated by the image processing unit 30 and various data in a recording medium loaded in the card slot. Also, the recording unit 60 has an internal memory. The recording unit 60 can also record image data and various data generated by the image processing unit 30 in the internal memory.

システム制御部70は、デジタルカメラ1の全体の処理及び動作を制御する。このシステム制御部70はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部70は、撮像素子100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部70は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部21に対して指示する。 A system control unit 70 controls the overall processing and operation of the digital camera 1 . The system control unit 70 has a body-side CPU (Central Processing Unit). In this embodiment, the system control unit 70 divides the imaging surface (pixel region 113A) of the imaging element 100 (imaging chip 113) into a plurality of blocks, and sets different charge accumulation times (or charge accumulation times) and frame rates between the blocks. , to acquire an image with gain. Therefore, the system control unit 70 instructs the drive unit 21 about the position, shape, range of blocks, and storage conditions for each block.

また、システム制御部70は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部70は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部21に対して指示する。また、画像処理部30は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部70は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部30に指示する。 In addition, the system control unit 70 acquires an image with a thinning rate different between blocks, the number of addition rows or addition columns for adding pixel signals, and the number of bits for digitization. For this reason, the system control unit 70 instructs the driving unit 21 on imaging conditions for each block (thinning rate, number of rows or columns to be added for adding pixel signals, and number of bits for digitization). Further, the image processing unit 30 executes image processing under different imaging conditions (color signal processing, white balance adjustment, gradation adjustment, control parameters such as compression ratio) between blocks. Therefore, the system control unit 70 instructs the image processing unit 30 on imaging conditions for each block (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate).

また、システム制御部70は、画像処理部30において生成された画像データを記録部60に記録させる。また、システム制御部70は、画像処理部30において生成された画像データを表示部50に出力させることにより、表示部50に画像を表示させる。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させることにより、表示部50に画像を表示させる。表示部50に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。 Also, the system control unit 70 causes the recording unit 60 to record the image data generated by the image processing unit 30 . Further, the system control unit 70 causes the display unit 50 to display an image by outputting the image data generated by the image processing unit 30 to the display unit 50 . The system control unit 70 also causes the display unit 50 to display an image by reading the image data recorded in the recording unit 60 and outputting it to the display unit 50 . Images displayed on the display unit 50 include still images, moving images, and live view images.

また、システム制御部70は、制御情報をレンズ駆動制御装置15に出力することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cの駆動制御及び絞り14の駆動制御を実行させる。 Further, the system control unit 70 outputs control information to the lens drive control device 15 to cause the lens drive control device 15 to execute drive control of the focusing lens 11 c and drive control of the diaphragm 14 .

本実施形態では、システム制御部70は、図7に示すように、分割部71、駆動制御部72、制御部73及び明滅検知部74を備えている。分割部71は、撮像素子100の画素領域113Aを、図5に示すようにブロック単位で第1領域200と第2領域210とに分割する処理を行う。 In this embodiment, the system control section 70 includes a division section 71, a drive control section 72, a control section 73, and a blink detection section 74, as shown in FIG. The dividing unit 71 divides the pixel region 113A of the image sensor 100 into a first region 200 and a second region 210 in units of blocks as shown in FIG.

駆動制御部72は、第1領域200の撮像条件を設定するとともに、第2領域210の撮像条件を設定する。また、駆動制御部72は、使用者によるレリーズスイッチや動画スイッチの操作に応じて撮像素子100の駆動制御を実行する。また、駆動制御部72は、ライブビュー画像の撮像時(すなわち、電源投入後の撮影動作の開始後)においても、撮像素子100の駆動制御を実行する。制御部73は、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示パネル51に画像を表示させる制御を行う。明滅検知部74は、第2領域210から読み出す信号に基づいて光源Lの明滅(フリッカー)の周波数及び位相を検知する。 The drive control unit 72 sets imaging conditions for the first area 200 and sets imaging conditions for the second area 210 . Further, the drive control unit 72 executes drive control of the imaging device 100 according to the user's operation of the release switch and the moving image switch. The drive control unit 72 also executes drive control of the imaging element 100 when capturing a live view image (that is, after starting the shooting operation after power-on). The control unit 73 controls the display unit 50 to output the image data generated by the image processing unit 30 and display the image on the display panel 51 of the display unit 50 . The blink detection unit 74 detects the frequency and phase of blinking (flicker) of the light source L based on the signal read from the second area 210 .

なお、システム制御部70において、分割部71、駆動制御部72、制御部73及び明滅検知部74は、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。 In the system control unit 70, the division unit 71, the drive control unit 72, the control unit 73, and the blink detection unit 74 are implemented by the body-side CPU executing processing based on the control program.

次に、第1実施形態に係るデジタルカメラ1の静止画撮影動作について説明する。図8は、第1実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。図8に示す処理において、デジタルカメラ1に電源が投入された後、使用者が撮影を開始するために操作部55などの操作を行うと、分割部71は、撮像素子100の画素領域113Aにおいて、図5に示すような第1領域200と第2領域210とに分割して設定する。また、駆動制御部72は、分割部71が分割した第1領域200及び第2領域210に対して撮像条件を設定する(ステップS1)。 Next, still image shooting operation of the digital camera 1 according to the first embodiment will be described. FIG. 8 is a flowchart for explaining the shooting operation executed by the system control unit 70 of the first embodiment. In the process shown in FIG. 8, when the user operates the operation unit 55 or the like to start shooting after the power of the digital camera 1 is turned on, the division unit 71 performs , divided into a first area 200 and a second area 210 as shown in FIG. Further, the drive control unit 72 sets imaging conditions for the first region 200 and the second region 210 divided by the dividing unit 71 (step S1).

例えば、駆動制御部72は、ライブビュー画像の撮像時における第1領域200のフレームレートとして、例えば60fps(ライブビュー画像の撮像時の標準のフレームレート)を設定する。また、駆動制御部72は、ライブビュー画像の撮像時における第2領域210のフレームレートとして、第1領域200のフレームレートよりも高いフレームレート(例えば光源Lの周波数の4倍以上のフレームレート)を設定する。一例としては、駆動制御部72は、光源Lの明滅周波数(例えば100Hz)の整数倍のフレームレート(例えば、4倍の400fps)で第2領域210を駆動制御する。 For example, the drive control unit 72 sets, for example, 60 fps (the standard frame rate when capturing a live view image) as the frame rate of the first area 200 when capturing a live view image. In addition, the drive control unit 72 sets the frame rate of the second area 210 when capturing the live view image to be higher than the frame rate of the first area 200 (for example, a frame rate that is four times or more the frequency of the light source L). set. As an example, the drive control unit 72 drives and controls the second region 210 at a frame rate (eg, four times 400 fps) that is an integral multiple of the blinking frequency of the light source L (eg, 100 Hz).

また、駆動制御部72は、ライブビュー画像の撮像時における第1領域200のフレームレート以外の撮像条件(露光時間やゲインなど)としては、ライブビュー画像の撮像時における通常の撮像条件(例えば適正露出となるような撮像条件)を設定する。また、駆動制御部72は、ライブビュー画像の撮像時における第2領域210のフレームレート以外の撮像条件(露光時間やゲインなど)としては、光源Lのフリッカーの検知に適した撮像条件を設定する。 In addition, the drive control unit 72 sets normal imaging conditions (for example, appropriate (imaging conditions that provide the correct exposure). In addition, the drive control unit 72 sets imaging conditions suitable for detecting flicker of the light source L as the imaging conditions (exposure time, gain, etc.) other than the frame rate of the second area 210 when capturing the live view image. .

ステップS1では、分割部71は、駆動部21に対して第1領域200及び第2領域210に対応するブロックの位置などを指示する指示信号を出力する。また、駆動制御部72は、駆動部21に対して第1領域200及び第2領域210の撮像条件を指示する指示信号を出力する。 In step S<b>1 , the dividing section 71 outputs an instruction signal to the driving section 21 to instruct the positions of blocks corresponding to the first area 200 and the second area 210 . Further, the drive control section 72 outputs an instruction signal for instructing the imaging conditions of the first area 200 and the second area 210 to the drive section 21 .

次に、システム制御部70が撮影動作を開始する(ステップS2)。すなわち、駆動制御部72は、駆動部21に対して指示信号を出力することにより、ステップS1において指示した撮像条件で撮像素子100の駆動制御を実行させる。これにより、撮像素子100の第1領域200の各画素から読み出された画素信号が画像処理部30に出力される。また、撮像素子100の第2領域210の各画素から読み出された画素信号が演算回路416で平均化される。そして、演算回路416は、平均化した平均化信号を画像処理部30に出力する。画像処理部30は、演算回路416から出力された平均化信号の信号レベルを判定し、その判定結果をシステム制御部70に出力する。 Next, the system control unit 70 starts photographing operation (step S2). That is, the drive control unit 72 outputs an instruction signal to the drive unit 21 to execute drive control of the imaging device 100 under the imaging conditions instructed in step S1. As a result, pixel signals read from each pixel in the first region 200 of the image sensor 100 are output to the image processing section 30 . In addition, pixel signals read from each pixel in the second region 210 of the image sensor 100 are averaged by the arithmetic circuit 416 . The arithmetic circuit 416 then outputs the averaged signal to the image processing section 30 . The image processing section 30 determines the signal level of the averaged signal output from the arithmetic circuit 416 and outputs the determination result to the system control section 70 .

撮影が開始されると、制御部73は、撮像素子100の第1領域200で撮像されたライブビュー画像を表示部50の表示パネル51に表示させる(ステップS3)。図9は、光源Lの明滅周期と第1領域200の露光時間及び信号出力とを示すタイミングチャートである。図9において、一番上に図示した波形は、光源Lの明滅の周期を示している。縦軸は光源Lの光量であり、横軸は時間を表している。図9に示す例では、光源Lの周波数は100Hz(周期は10ms)とされている。 When shooting is started, the control unit 73 causes the display panel 51 of the display unit 50 to display a live view image captured by the first area 200 of the image sensor 100 (step S3). FIG. 9 is a timing chart showing the blinking period of the light source L, the exposure time of the first area 200, and the signal output. In FIG. 9, the waveform shown at the top indicates the blinking cycle of the light source L. In FIG. The vertical axis represents the amount of light from the light source L, and the horizontal axis represents time. In the example shown in FIG. 9, the frequency of the light source L is 100 Hz (cycle is 10 ms).

また、図9では、第1領域200のライブビュー画像の露光時間Aと、その露光時間Aで露光した場合の信号出力Aとの関係も示している。図9に示す例では、第1領域200のフレームレートは60fps(周期は16.667ms)で、露光時間Aは短い時間(速いシャッタースピード)とされている。また、図9では、第1領域200のライブビュー画像の露光時間Bと、その露光時間Bで露光した場合の信号出力Bとの関係も示している。図9に示す例では、第1領域200のフレームレートは60fps(周期16.667ms)で、露光時間Bは長い時間(遅いシャッタースピード)とされている。 FIG. 9 also shows the relationship between the exposure time A of the live view image of the first area 200 and the signal output A when the exposure time A is used for exposure. In the example shown in FIG. 9, the frame rate of the first area 200 is 60 fps (cycle is 16.667 ms), and the exposure time A is short (fast shutter speed). FIG. 9 also shows the relationship between the exposure time B of the live view image of the first area 200 and the signal output B when the exposure time B is used for exposure. In the example shown in FIG. 9, the frame rate of the first area 200 is 60 fps (cycle 16.667 ms), and the exposure time B is set to a long time (slow shutter speed).

図9に示すように、短い露光時間Aの場合は、露光開始のタイミングにおける光源Lの明滅周期の位相(明滅位相、フリッカー位相)に応じて、信号出力A(第1領域200から読み出される画素信号の出力A)のレベルが大きく変化する。従って、ライブビュー画像においてフリッカー現象が生じ、使用者にとってはちらつきが目障りとなる。 As shown in FIG. 9, in the case of a short exposure time A, the signal output A (the pixel read from the first region 200 The level of the signal output A) changes significantly. Therefore, a flicker phenomenon occurs in the live-view image, and the flicker is an eyesore for the user.

図9に示すように、長い露光時間Bの場合は、露光開始のタイミングにおける光源Lの明滅位相の影響を受けにくくなり、信号出力B(第1領域200から読み出される画素信号の出力B)のレベルの変化が低減される。また、通常、露光時間を光源の明滅周期の整数倍にすることにより、フリッカー現象の発生を抑制することができる。図9に示す例では、露光時間Bは光源Lの明滅周期と同じ時間(1倍)とされているため、ライブビュー画像においてフリッカー現象が生じていない。このように、ライブビュー画像においては、長い露光時間を設定することによりフリッカー現象の影響を少なくすることと、露光時間を光源の明滅周期の整数倍にしてフリッカー現象の発生を抑えることとの一方又は両方が行われる。しかし、使用者のレリーズスイッチの操作に基づく静止画の撮像では、撮影環境に応じて露光時間が設定される。従って、静止画の撮像時の露光時間が短い場合や明滅周期の整数倍でない場合は、フリッカー現象が生じ得る。 As shown in FIG. 9, in the case of a long exposure time B, the influence of the blinking phase of the light source L at the exposure start timing is reduced, and the signal output B (output B of the pixel signal read from the first region 200) is reduced. Level changes are reduced. In addition, the occurrence of the flicker phenomenon can be suppressed by setting the exposure time to an integral multiple of the blinking period of the light source. In the example shown in FIG. 9, the exposure time B is set to the same time (one time) as the blinking cycle of the light source L, so no flicker phenomenon occurs in the live view image. Thus, in the live view image, setting a long exposure time reduces the effect of the flicker phenomenon, and setting the exposure time to an integer multiple of the flickering cycle of the light source suppresses the occurrence of the flicker phenomenon. or both. However, in capturing a still image based on the user's operation of the release switch, the exposure time is set according to the shooting environment. Therefore, if the exposure time when capturing a still image is short or if the exposure time is not an integral multiple of the blink cycle, the flicker phenomenon may occur.

図8の説明に戻り、明滅検知部74は、ライブビュー画像の表示中に、画像処理部30からの平均化信号の信号レベルの判定結果に基づいて、光源Lの明滅位相の検知を実行する(ステップS4)。図10は、光源Lの明滅周期と第2領域210の露光時間及び信号出力とを示すタイミングチャートである。図10に示すように、駆動制御部72は、第2領域210のフレームレートとして、第1領域200のフレームレートよりも高いフレームレートを設定している。また、駆動制御部72は、第2領域210の露光時間として短い露光時間を設定している。この場合、図10に示すように、第2領域210の信号出力は短い間隔で出現する。また、第2領域210からの信号出力のレベルは、光源Lの明滅位相に応じて大きく変化する。すなわち、第2領域210の信号出力のレベルが高くなったり低くなったりする変化を周期的に繰り返す。従って、明滅検知部74は、第2領域210の信号出力のレベルの変化に基づいて、光源Lの明滅周波数(明滅周期)と明滅位相とを検知することができる。なお、第2領域210のフレームレートが高いほど、明滅検知部74による光源Lの明滅周波数や明滅位相の検知の精度が高くなる。例えば、第2領域210のフレームレートが1000fps以上であれば、明滅検知部74は光源Lの綺麗な波形の明滅周期を検知することができる。 Returning to the description of FIG. 8, the blinking detection unit 74 detects the blinking phase of the light source L based on the determination result of the signal level of the averaged signal from the image processing unit 30 during display of the live view image. (Step S4). FIG. 10 is a timing chart showing the blinking period of the light source L, the exposure time of the second area 210, and the signal output. As shown in FIG. 10 , the drive control unit 72 sets a higher frame rate than the frame rate of the first area 200 as the frame rate of the second area 210 . Further, the drive control section 72 sets a short exposure time as the exposure time of the second region 210 . In this case, as shown in FIG. 10, the signal output of the second region 210 appears at short intervals. Also, the level of the signal output from the second region 210 changes greatly according to the blinking phase of the light source L. FIG. That is, the signal output level of the second region 210 periodically repeats a change of increasing and decreasing. Therefore, the blink detection unit 74 can detect the blink frequency (blink cycle) and blink phase of the light source L based on the change in the signal output level of the second area 210 . Note that the higher the frame rate of the second region 210, the higher the accuracy of detection of the blinking frequency and blinking phase of the light source L by the blinking detection unit 74. For example, if the frame rate of the second area 210 is 1000 fps or more, the blink detection unit 74 can detect the blink cycle of the light source L's clear waveform.

以上のようなステップS1からS4までの処理は、使用者による操作部55のレリーズスイッチの半押し操作(ステップS5)が行われるまで繰り返し実行される。本実施形態では、駆動制御部72は、明滅検知部74が検知した光源Lの明滅周波数に合わせて変更したフレームレートで第2領域210を駆動制御する(ステップS1及びS2参照)。例えば、電源投入の直後は、駆動制御部72はステップS1で第2領域210のフレームレートを1000fpsと設定する。その後に明滅検知部74がステップS4で光源Lの明滅周波数が100Hzと検知した場合は、駆動制御部72はステップS1で第2領域210のフレームレートを400fpsに設定する。このような構成によれば、電源の投入直後は、光源Lの明滅の波形がどのような波形になるかわからないため、第2領域210のフレームレートを高くし、明滅検知部74が精度の高い光源Lの明滅周波数及び明滅位相の検知を実行する。一方、明滅検知部74により光源Lの明滅周波数及び明滅位相が検知された後は、光源Lの明滅周波数の整数倍のフレームレートであれば、明滅検知部74が精度の高い光源Lの明滅周波数及び明滅位相の検知を実行することができる。従って、第2領域210のフレームレートを低くし、消費電力を低減させる。 The processing from steps S1 to S4 as described above is repeatedly executed until the release switch of the operation unit 55 is half-pressed (step S5) by the user. In this embodiment, the drive control unit 72 drives and controls the second area 210 at a frame rate changed in accordance with the blinking frequency of the light source L detected by the blinking detection unit 74 (see steps S1 and S2). For example, immediately after power-on, the drive control unit 72 sets the frame rate of the second area 210 to 1000 fps in step S1. After that, when the blink detection unit 74 detects that the blink frequency of the light source L is 100 Hz in step S4, the drive control unit 72 sets the frame rate of the second area 210 to 400 fps in step S1. According to such a configuration, immediately after the power is turned on, it is not possible to know what kind of waveform the flickering waveform of the light source L will have. A detection of the blinking frequency and blinking phase of the light source L is performed. On the other hand, after the blinking detection unit 74 detects the blinking frequency and blinking phase of the light source L, if the frame rate is an integral multiple of the blinking frequency of the light source L, the blinking detection unit 74 detects the blinking frequency of the light source L with high accuracy. and blink phase detection can be performed. Therefore, the frame rate of the second area 210 is lowered to reduce power consumption.

システム制御部70は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS5)。半押し操作は、撮影準備を開始させる指示として用いられる。なお、図8において図示していないが、システム制御部70は、自動的に焦点調節を行うオートフォーカス(AF)の制御や、自動的に露出調節を行う自動露出(AE)の制御などを実行する。 The system control unit 70 determines whether or not the release switch has been half-pressed (operation of SW1) (step S5). A half-press operation is used as an instruction to start shooting preparation. Although not shown in FIG. 8, the system control unit 70 performs autofocus (AF) control for automatic focus adjustment, automatic exposure (AE) control for automatic exposure adjustment, and the like. do.

次に、システム制御部70は、レリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS6)。全押し操作が行われたと判定した場合は、駆動制御部72は、ステップS4で明滅検知部74が検知した光源Lの明滅位相に基づいて、静止画の撮像における露光開始の最適なタイミング(ベストタイミングという。図10中、「BT」と記す)について判定する。本実施形態では、露光開始のベストタイミングとして、露光時間が光源Lの光量が高くなる期間に同期するようなタイミングとしている。図10に示す例では、光源Lの光量のピークの手前のタイミングとしている。ただし、露光開始のベストタイミングは、露光時間(シャッタースピード)によって変化する。露光時間が短いほど、光源Lの光量のピークに近いタイミングが露光開始のベストタイミングとなる。露光時間が一定以上長くなれば、露光開始のタイミングによる静止画の画像への影響は小さくなる。駆動制御部72は、判定した露光開始のベストタイミングに基づいて露光開始のタイミングを調整する(ステップS7)。そして、駆動制御部72は、ステップS7で調整したタイミングにおいて、撮像素子100に撮像を実行させる撮像処理を行う(ステップS8)。なお、ステップS10における全押し操作に基づく撮像のことを本撮像という。 Next, the system control unit 70 determines whether or not the release switch has been fully pressed (operation of SW2) (step S6). If it is determined that the full-press operation has been performed, the drive control unit 72 determines the optimum timing (best (referred to as "timing" in FIG. 10). In this embodiment, the best timing for starting exposure is set so that the exposure time is synchronized with the period in which the amount of light from the light source L is high. In the example shown in FIG. 10, the timing is before the peak of the amount of light from the light source L. However, the best timing for starting exposure changes depending on the exposure time (shutter speed). As the exposure time becomes shorter, the timing closer to the peak of the amount of light from the light source L becomes the best timing for starting the exposure. If the exposure time is longer than a certain amount, the influence of the exposure start timing on the still image is reduced. The drive control unit 72 adjusts the exposure start timing based on the determined best exposure start timing (step S7). Then, at the timing adjusted in step S7, the drive control unit 72 performs an imaging process that causes the imaging device 100 to perform imaging (step S8). Note that imaging based on the full-press operation in step S10 is referred to as main imaging.

本実施形態では、撮像部20は、オートフォーカスや自動露出の制御に基づいて、焦点位置における適正な露出となる撮像条件で本撮像を行う。このとき、撮像部20は、撮像素子100の画素領域(撮像領域)113Aに対して本撮像を行う。すなわち、撮像部20は、ライブビュー画像を撮像していた第1領域200についてだけでなく、光源Lの明滅の検知に用いていた第2領域210についても撮像を実行させる。なお、撮像部20が第1領域200だけで本撮像を行うように構成してもよい。 In this embodiment, the imaging unit 20 performs main imaging under imaging conditions that provide proper exposure at the focal position based on autofocus and autoexposure control. At this time, the imaging unit 20 performs main imaging on the pixel area (imaging area) 113A of the imaging element 100 . That is, the imaging unit 20 causes not only the first region 200 in which the live view image was captured, but also the second region 210 used in detecting blinking of the light source L to capture the image. It should be noted that the imaging unit 20 may be configured to perform main imaging only in the first area 200 .

以上に説明したように、第1実施形態では、撮像素子100を駆動制御する駆動制御部72と、撮像素子100を第1領域200と第2領域210とに分割する分割部71と、駆動制御部72が第2領域210から読み出す信号に基づいて光源Lの明滅を検知する明滅検知部74と、を備える。このような構成によれば、撮像素子100の一部の第2領域210で光源Lの明滅を検知することで、画像に生じるフリッカー現象を防止することができる。 As described above, in the first embodiment, the drive control unit 72 that drives and controls the imaging device 100, the dividing unit 71 that divides the imaging device 100 into the first region 200 and the second region 210, and the drive control a flickering detection unit 74 that detects flickering of the light source L based on the signal read from the second area 210 by the unit 72 . According to such a configuration, by detecting blinking of the light source L in the partial second region 210 of the image sensor 100, it is possible to prevent the flicker phenomenon occurring in the image.

また、第1実施形態では、駆動制御部72は、明滅検知部74により検知された光源Lの明滅に基づいて撮像開始のタイミングを変更する。このような構成によれば、最適なタイミングで静止画の撮像を行うことができる。また、第1実施形態では、駆動制御部72が第1領域200から読み出す信号に基づいてライブビュー画像を表示部50に表示させる制御部73を備え、明滅検知部74は、ライブビュー画像の表示中に、光源Lの明滅を検知する。このような構成によれば、常に光源Lの明滅に合わせた最適なタイミングで撮像を行うことができる。すなわち、システム制御部が電源投入の直後にだけ光源Lの明滅を検知し、検知した光源Lの明滅に基づいて撮像を行う構成も考えられる。しかし、そのような構成の場合、ライブビュー画像の表示中に光源Lの明滅位相と最適な撮像タイミングとがずれてしまうことがある。上記のような構成では、ライブビュー画像の表示中も常に明滅検知部74が光源Lの明滅位相を検知しているので、撮像時において光源Lの明滅に合わせた最適な撮像タイミングとずれてしまうことがない。また、このような構成によれば、静止画の単写だけでなく連写の場合でも最適な撮像タイミングで撮像を行うことができる。 Further, in the first embodiment, the drive control unit 72 changes the imaging start timing based on blinking of the light source L detected by the blinking detection unit 74 . According to such a configuration, still images can be captured at optimum timing. Further, in the first embodiment, the drive control unit 72 includes the control unit 73 that causes the display unit 50 to display the live view image based on the signal read from the first area 200, and the flickering detection unit 74 controls the display of the live view image. During the operation, blinking of the light source L is detected. According to such a configuration, it is possible to take an image at an optimum timing that matches the flickering of the light source L at all times. In other words, a configuration in which the system control unit detects flickering of the light source L only immediately after the power is turned on and captures an image based on the detected flickering of the light source L is also conceivable. However, in such a configuration, the blinking phase of the light source L may deviate from the optimal imaging timing during display of the live view image. In the configuration as described above, the flickering detection unit 74 constantly detects the flickering phase of the light source L even while the live view image is being displayed. never. In addition, according to such a configuration, it is possible to perform image capturing at optimum timing not only for single shots of still images but also for continuous shots.

また、第1実施形態では、駆動制御部72は、第1領域200のフレームレートよりも高いフレームレートで第2領域210を駆動制御する。このような構成によれば、明滅検知部74が光源Lの明滅を精度よく検知することができる。また、第1実施形態では、駆動制御部72は、光源Lの明滅周波数の整数倍のフレームレートで第2領域210を駆動制御する。このような構成によれば、必要以上にフレームレートを高くしなくても、明滅検知部74が精度よく光源Lの明滅を検知することができる。また、第1実施形態では、駆動制御部72は、光源Lの明滅周波数に合わせて変更したフレームレートで第2領域210を駆動制御する。このような構成によれば、明滅検知部74による光源Lの明滅の検知精度を担保するとともに、消費電力を低減することができる。 Further, in the first embodiment, the drive control unit 72 drives and controls the second area 210 at a frame rate higher than that of the first area 200 . With such a configuration, the flickering detection unit 74 can detect flickering of the light source L with high accuracy. Further, in the first embodiment, the drive control unit 72 drives and controls the second region 210 at a frame rate that is an integral multiple of the flickering frequency of the light source L. FIG. According to such a configuration, the blinking detection section 74 can accurately detect blinking of the light source L without increasing the frame rate more than necessary. Further, in the first embodiment, the drive control unit 72 drives and controls the second area 210 at a frame rate changed according to the blinking frequency of the light source L. FIG. According to such a configuration, it is possible to ensure accuracy in detecting the flickering of the light source L by the flickering detection unit 74 and reduce power consumption.

また、第1実施形態では、第2領域210は複数のブロックで構成され、各ブロックに含まれる複数の画素からの信号を平均化する信号処理部416を含む。このような構成によれば、明滅検知部74が安定した信号に基づいて光源Lの明滅の検知を行うことができる。すなわち、第2領域210の各ブロックにおける画素信号の信号レベルは画素によってバラツキがある。従って、明滅検知部74が光源Lの明滅に応じて信号レベルが安定して変化する信号に基づいて光源Lの明滅を検知する必要がある。上記のような構成では、各画素の画素信号を平均化することで信号レベルのバラツキが少なくなり、安定した信号に基づいて光源Lの明滅の検知が可能となる。また、各ブロック内の信号の平均化を行うことにより、1ブロック1データとなるため、データ量が削減される。従って、画像処理部30やシステム制御部70の負担が軽減される。また、分割部71は、第2領域210を第1領域200の周囲に設定するので、精度よく光源Lの明滅の検知を行うことができる。すなわち、光源Lはどこに強い光量があるかわからないため(むらがあるため)、撮像素子100における偏った特定の領域だけで光源Lからの光量を検知しても正確な光源Lの明滅を検知することができない場合がある。上記のような構成では、光源Lの光量の強弱によらずに明滅の検知を行うことができる。 Further, in the first embodiment, the second area 210 is composed of a plurality of blocks and includes the signal processing section 416 that averages signals from a plurality of pixels included in each block. According to such a configuration, the blinking detection unit 74 can detect blinking of the light source L based on a stable signal. That is, the signal level of the pixel signal in each block of the second region 210 varies from pixel to pixel. Therefore, it is necessary for the blinking detector 74 to detect blinking of the light source L based on a signal whose signal level stably changes according to the blinking of the light source L. In the configuration as described above, by averaging the pixel signal of each pixel, variations in the signal level are reduced, and blinking of the light source L can be detected based on a stable signal. In addition, by averaging the signals in each block, one block has one data, so the amount of data can be reduced. Therefore, the burden on the image processing section 30 and the system control section 70 is reduced. In addition, since the dividing unit 71 sets the second area 210 around the first area 200, blinking of the light source L can be detected with high accuracy. That is, since it is not clear where the light source L has a strong light intensity (because there is unevenness), even if the light intensity from the light source L is detected only in a biased specific area of the image sensor 100, the flickering of the light source L can be accurately detected. may not be possible. With the configuration as described above, blinking can be detected regardless of the intensity of light from the light source L. FIG.

なお、図7に示したように、第1実施形態では、撮像装置の一例としてデジタルカメラ1について説明した。しかし、撮像装置はデジタルカメラ1に限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図7に示す第1実施形態に係るデジタルカメラ1において、表示部50は撮像装置の外部に設けられる構成であってもよい。この場合、システム制御部70及び表示部50のそれぞれには、有線又は無線で信号(画像データや制御信号など)を送受信する通信部が設けられる。また、画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。 As shown in FIG. 7, in the first embodiment, the digital camera 1 has been described as an example of the imaging device. However, the imaging device is not limited to the digital camera 1, and may be composed of a device such as a smart phone, a mobile phone, or a personal computer having an imaging function. Further, in the digital camera 1 according to the first embodiment shown in FIG. 7, the display section 50 may be arranged outside the imaging device. In this case, each of the system control unit 70 and the display unit 50 is provided with a communication unit that transmits and receives signals (image data, control signals, etc.) in a wired or wireless manner. Further, the image processing section 30 and the system control section 70 may be integrated. In this case, the system control unit having one body-side CPU performs the functions of the image processing unit 30 and the system control unit 70 by executing processing based on the control program.

また、上記した第1実施形態では、第2領域210の各ブロックの画素信号を平均化する信号処理部416を撮像部20内に設けていたが、画像処理部30に設けてもよい。また、明滅検知部74はシステム制御部70内に設けていたが、撮像部20又は画像処理部30内に設けてもよい。すなわち、撮像部20の信号処理部(演算回路)416が光源Lの明滅の検知を行う機能を備え、又は画像処理部30が光源Lの明滅の検知を行う機能を備えてもよい。この場合、撮像部20又は画像処理部30内の明滅検知部が光源Lの明滅周波数や明滅位相を検知し、検知信号をシステム制御部70に出力する。 Further, in the above-described first embodiment, the signal processing unit 416 for averaging the pixel signals of each block of the second region 210 is provided in the imaging unit 20, but it may be provided in the image processing unit 30. Further, although the flickering detection section 74 is provided in the system control section 70 , it may be provided in the imaging section 20 or the image processing section 30 . That is, the signal processing unit (arithmetic circuit) 416 of the imaging unit 20 may have a function of detecting flickering of the light source L, or the image processing unit 30 may have a function of detecting flickering of the light source L. In this case, the blink detection unit in the imaging unit 20 or the image processing unit 30 detects the blink frequency and blink phase of the light source L and outputs a detection signal to the system control unit 70 .

また、上記した第1実施形態では、駆動制御部72は、明滅検知部74により検知された光源Lの明滅に基づいて静止画の撮像開始のタイミングを調整していた(図8のステップS4,S7参照)。しかし、このような構成に限定されず、駆動制御部72は、明滅検知部74により検知された光源Lの明滅に基づいてライブビュー画像の撮像開始のタイミングを調整してもよい。このように、駆動制御部72がライブビュー画像においてもベストタイミングで露光することにより、ライブビュー画像の感度を上げることができるとともに、適正なホワイトバランスのライブビュー画像を取得することができる。 Further, in the above-described first embodiment, the drive control unit 72 adjusts the timing of starting to capture a still image based on the blinking of the light source L detected by the blinking detection unit 74 (step S4, S7). However, without being limited to such a configuration, the drive control section 72 may adjust the timing of starting imaging of the live view image based on blinking of the light source L detected by the blinking detection section 74 . In this manner, the drive control unit 72 can expose the live view image at the best timing, so that the sensitivity of the live view image can be increased, and a live view image with an appropriate white balance can be obtained.

<第2実施形態>
上記した第1実施形態では、分割部71は、撮像素子100を第1領域200と第2領域210とに2分割していた。これに対し、第2実施形態では、分割部71は、撮像素子100を第1領域200と領域210Aと領域210Bとに3分割する。なお、第2実施形態では、領域210Aのことを第3領域といい、領域210Bのことを第4領域という。第3領域210A及び第4領域210Bは、第1実施形態の第2領域210に相当する。従って、第2実施形態では、分割部71が第2領域210を第3領域210Aと第4領域210Bとにさらに分割したことになる。
<Second embodiment>
In the above-described first embodiment, the dividing section 71 divides the imaging device 100 into two regions, the first region 200 and the second region 210 . On the other hand, in the second embodiment, the dividing unit 71 divides the imaging device 100 into three regions, the first area 200, the area 210A, and the area 210B. In the second embodiment, the area 210A is called the third area, and the area 210B is called the fourth area. The third area 210A and the fourth area 210B correspond to the second area 210 of the first embodiment. Therefore, in the second embodiment, the dividing section 71 further divides the second area 210 into the third area 210A and the fourth area 210B.

図11は、第2実施形態の撮像素子100における第1領域200と第3領域210と第4領域211とを示す図である。図11に示すように、撮像素子100の画素領域113Aは、第1領域200と第3領域210Aと第4領域210Bとに分割されている。第1領域200は、画素領域113Aの中央部分の複数のブロック(図11中の「A」で示すブロック)からなる方形状の領域である。第3領域210Aは、画素領域113Aの周辺部分の複数のブロック(図5中の「B」で示すブロック)からなる領域である。すなわち、第3領域210Aは、第1領域200の周囲を囲うように配置された複数のブロックで構成されている領域である。第4領域210Bは、画素領域113Aの周辺部分の複数のブロック(図5中の「C」で示すブロック)からなる領域である。すなわち、第4領域210Bは、第1領域200の周囲を囲うように配置された複数のブロックで構成されている領域である。上記したように、第3領域210Aと第4領域210Bが第2領域210に対応する。なお、第1領域200、第3領域210A及び第4領域210Bを構成する各ブロックは、例えば120×60画素で構成されている。 FIG. 11 is a diagram showing the first area 200, the third area 210, and the fourth area 211 in the imaging device 100 of the second embodiment. As shown in FIG. 11, the pixel area 113A of the image sensor 100 is divided into a first area 200, a third area 210A and a fourth area 210B. The first area 200 is a rectangular area made up of a plurality of blocks (blocks indicated by "A" in FIG. 11) in the central portion of the pixel area 113A. The third area 210A is an area composed of a plurality of blocks (blocks indicated by "B" in FIG. 5) in the peripheral portion of the pixel area 113A. That is, the third area 210A is an area composed of a plurality of blocks arranged so as to surround the first area 200. As shown in FIG. The fourth area 210B is an area composed of a plurality of blocks (blocks indicated by "C" in FIG. 5) in the peripheral portion of the pixel area 113A. That is, the fourth area 210B is an area composed of a plurality of blocks arranged so as to surround the first area 200. As shown in FIG. As described above, the third area 210A and the fourth area 210B correspond to the second area 210. FIG. Each block constituting the first area 200, the third area 210A, and the fourth area 210B is composed of, for example, 120×60 pixels.

なお、図11において、領域ごとのブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックを設定しているが、図11に示すブロックの数よりも多い数のブロックを画素領域113Aに設定するようにしてもよい。 In FIG. 11, a small number of blocks are set in the pixel region 113A in order to make the arrangement of blocks in each region easier to see. 113A may be set.

本実施形態では、第1領域200は、通常の撮影用の領域(撮影用領域)である。第3領域210A及び第4領域210Bは、いずれも光源(図6の光源L参照)の明滅(フリッカー)を検知するために使用されるフリッカー検知用領域である。ただし、第3領域210Aと第4領域210Bとは、異なるフレームレートが設定される。 In this embodiment, the first area 200 is a normal imaging area (imaging area). The third area 210A and the fourth area 210B are both flicker detection areas used to detect blinking (flicker) of the light source (see light source L in FIG. 6). However, different frame rates are set for the third area 210A and the fourth area 210B.

図12は、光源Lの明滅周期と第3領域210Aの露光時間及び信号出力と第4領域210Bの露光時間及び信号出力とを示すタイミングチャートである。図12に示すように、駆動制御部72は、第3領域210Aのフレームレートとして、第1領域200のフレームレートよりも高いフレームレート(例えば100Hzの4倍のフレームレート)を設定する。また、駆動制御部72は、第4領域210Bのフレームレートとして、第1領域200のフレームレートよりも高く、かつ第3領域210Aのフレームレートとは異なるフレームレート(例えば120Hzの4倍のフレームレート)を設定する。このような構成によれば、明滅検知部74が異なる商用電源の周波数(50Hz、60Hz)に対応した異なる明滅周波数(100Hz、120Hz)の光源Lに対して確実に光源Lの明滅周波数や明滅周期を検知することができる。 FIG. 12 is a timing chart showing the blinking cycle of the light source L, the exposure time and signal output of the third area 210A, and the exposure time and signal output of the fourth area 210B. As shown in FIG. 12, the drive control unit 72 sets a frame rate higher than the frame rate of the first area 200 (for example, a frame rate four times 100 Hz) as the frame rate of the third area 210A. Further, the drive control unit 72 sets the frame rate of the fourth area 210B to be higher than the frame rate of the first area 200 and different from the frame rate of the third area 210A (for example, a frame rate four times as high as 120 Hz). ). According to such a configuration, the flickering detection unit 74 reliably detects the flickering frequency and flickering cycle of the light source L for different flickering frequencies (100 Hz and 120 Hz) corresponding to different commercial power frequencies (50 Hz and 60 Hz). can be detected.

なお、第3領域210Aのフレームレートと第4領域210Bのフレームレートは、商用電源の周波数に対応したフレームレートに限定されない。例えば、駆動制御部72は、第3領域210Aのフレームレートと第4領域210Bのフレームレートとを同じフレームレートとするが、これらのフレームレートの位相を90度ずらすように設定する。このような構成によれば、光源Lの明滅位相をより一層検知しやすくなる。 Note that the frame rate of the third area 210A and the frame rate of the fourth area 210B are not limited to the frame rate corresponding to the frequency of the commercial power supply. For example, the drive control unit 72 sets the frame rate of the third area 210A and the frame rate of the fourth area 210B to the same frame rate, but sets the phases of these frame rates to be shifted by 90 degrees. With such a configuration, the blinking phase of the light source L can be detected even more easily.

以上のように、第2実施形態では、分割部71は、第2領域210を第3領域210Aと第4領域210Bとに分割し、駆動制御部72は、第3領域210Aと第4領域210Bとを異なるフレームレートで駆動制御する。このような構成によれば、光源Lの様々な周波数の明滅を精度よく検知することができる。 As described above, in the second embodiment, the division unit 71 divides the second area 210 into the third area 210A and the fourth area 210B, and the drive control unit 72 divides the third area 210A and the fourth area 210B into the third area 210A and the fourth area 210B. are driven and controlled at different frame rates. According to such a configuration, blinking of the light source L at various frequencies can be detected with high accuracy.

<第3実施形態>
上記した第1実施形態では、明滅検知部74はライブビュー画像の表示中に明滅の検知を実行していた(図8のステップS4参照)。これに対し、第3実施形態では、明滅検知部74は、使用者によるレリーズスイッチの半押し操作に応じて明滅の検知を実行する。
<Third Embodiment>
In the above-described first embodiment, the blink detection unit 74 executes blink detection during display of the live view image (see step S4 in FIG. 8). On the other hand, in the third embodiment, the blink detection unit 74 executes blink detection in response to the user's half-pressing of the release switch.

図13は、第3実施形態のシステム制御部70が実行する撮影動作を説明するためのフローチャートである。図13に示すように、システム制御部70が使用者によるレリーズスイッチの半押し操作が行われたと判定した場合に(ステップS5のYES)、明滅検知部74は、光源Lの明滅を検知する(ステップS11)。なお、その他の処理については、図8で説明したものと同様であるため説明を省略する。このような構成によれば、ライブビュー画像の表示中に第2領域210(第2実施形態では第3領域210A、第4領域210B)において駆動制御を行う必要がなくなるため、消費電力が低減される。なお、第1実施形態と同様に、明滅検知部74は、ライブビュー画像の表示中に光源Lの明滅を検知するとともに、レリーズスイッチの半押し操作が行われた場合についても光源Lの明滅を検知するように構成してもよい。 FIG. 13 is a flowchart for explaining the shooting operation executed by the system control unit 70 of the third embodiment. As shown in FIG. 13, when the system control unit 70 determines that the release switch has been half-pressed by the user (YES in step S5), the blinking detection unit 74 detects blinking of the light source L ( step S11). Note that the other processes are the same as those described with reference to FIG. 8, so description thereof is omitted. According to such a configuration, there is no need to perform drive control in the second area 210 (the third area 210A and the fourth area 210B in the second embodiment) during display of the live view image, thereby reducing power consumption. be. As in the first embodiment, the blinking detection unit 74 detects blinking of the light source L during display of the live view image, and also detects blinking of the light source L when the release switch is half-pressed. It may be configured to detect

なお、明滅検知部74が光源Lの明滅を検知する処理を実行するタイミング(契機)としては、様々なタイミングが考えられる。例えば、使用者が部屋を移動した場合は、光源Lが変化することがある。光源が蛍光灯の部屋から光源がLEDの部屋に移動したような場合である。この場合、画像処理部30が画像のホワイトバランスが変化したことなどを検知したことにより部屋が移動されたと判定し、明滅検知部74が光源Lの明滅を検知するようにしてもよい。デジタルカメラ1にGPS機能(Global Positioning System)を設け、GPSで所定距離以上の移動を検知したことに応じて、明滅検知部74が光源Lの明滅を検知するようにしてもよい。また、ライブビュー画像の表示中は、第2領域210のフレームレートを商用電源の周波数の4倍とし、半押し操作に応じて第2領域210のフレームレートを商用電源の周波数の8倍としてもよい。 Various timings are conceivable as the timing (opportunity) at which the flickering detection unit 74 executes the process of detecting flickering of the light source L. FIG. For example, when the user moves between rooms, the light source L may change. This is the case when the light source moves from a room with fluorescent lights to a room with LED lights. In this case, the image processing unit 30 may detect that the white balance of the image has changed, thereby determining that the room has been moved, and the flickering detection unit 74 may detect flickering of the light source L. The digital camera 1 may be provided with a GPS function (Global Positioning System), and the flickering detection unit 74 may detect flickering of the light source L in response to detection of movement of a predetermined distance or more by GPS. Also, while the live view image is being displayed, the frame rate of the second area 210 may be set to four times the frequency of the commercial power supply, and the frame rate of the second area 210 may be set to eight times the frequency of the commercial power supply in response to the half-press operation. good.

<第4実施形態>
上記した第1実施形態では、演算回路416が第2領域210の各ブロックの画素信号を平均化していた。これに対し、第4実施形態では、演算回路(ブロック判定部)416が第2領域210の各ブロックの画素信号に基づいて、光源Lの明滅のコントラストが高いブロックを判定する。そして、明滅検知部74は、演算回路416が判定したブロックからの信号レベルに基づいて、光源Lの明滅を検知する。
<Fourth Embodiment>
In the first embodiment described above, the arithmetic circuit 416 averages the pixel signals of each block in the second area 210 . On the other hand, in the fourth embodiment, an arithmetic circuit (block determination unit) 416 determines a block with a high blink contrast of the light source L based on the pixel signal of each block in the second area 210 . Then, the blink detection unit 74 detects blinking of the light source L based on the signal level from the block determined by the arithmetic circuit 416 .

具体的には、撮像素子100の第2領域210の各画素から読み出された画素信号が演算回路416に出力される。演算回路416は、各画素信号の信号レベルに基づいて、光源Lの明滅のコントラスト(高低)を検出する。演算回路416は、光源Lの明滅のコントラストが最も高いブロックを判定する。演算回路416は、光源Lの明滅のコントラストが最も高いブロックの各画素の画素信号を平均化する。そして、演算回路416は、平均化した平均化信号を画像処理部30に出力する。画像処理部30は、演算回路416から出力された平均化信号の信号レベルを判定し、その判定結果をシステム制御部70に出力する。この様な構成によれば、より一層、明滅検知部74の明滅の検知精度が向上する。 Specifically, a pixel signal read from each pixel in the second region 210 of the image sensor 100 is output to the arithmetic circuit 416 . The arithmetic circuit 416 detects the contrast (high and low) of blinking of the light source L based on the signal level of each pixel signal. Arithmetic circuit 416 determines the block with the highest blinking contrast of light source L. FIG. Arithmetic circuit 416 averages the pixel signals of the pixels in the block in which the blinking contrast of light source L is highest. The arithmetic circuit 416 then outputs the averaged signal to the image processing section 30 . The image processing section 30 determines the signal level of the averaged signal output from the arithmetic circuit 416 and outputs the determination result to the system control section 70 . According to such a configuration, the blinking detection accuracy of the blinking detection unit 74 is further improved.

<第5実施形態>
上記した第1実施形態では、図6等に示したように、1つの撮像素子100を撮影用の領域(第1領域200)と光源Lの明滅検知用の領域(第2領域210)とに分割していた。これに対し、第5実施形態では、撮影用の撮像素子100とは別に、光源Lの明滅検知用の撮像素子400を設けている。
<Fifth Embodiment>
In the above-described first embodiment, as shown in FIG. 6 and the like, one image sensor 100 is divided into a shooting area (first area 200) and a blinking detection area (second area 210) of the light source L. had split. In contrast, in the fifth embodiment, an imaging device 400 for detecting flickering of the light source L is provided separately from the imaging device 100 for photographing.

図14は、第5実施形態に係る2つの撮像素子100,400の配置を示す図である。図14に示すように、撮影光学系11から導かれた光束は、ハーフミラー300を通過して一部は撮像素子100に到達し、他の一部はハーフミラー300で反射されて撮像素子400に到達する。撮像素子400は、光源Lの明滅を検知するための撮像素子である。明滅検知部74は、撮像素子400からの信号に基づいて光源Lの明滅周波数や明滅位相を検知する。この第5実施形態では、撮像素子100を第1撮像素子といい、撮像素子400を第2撮像素子という。このような構成よっても、撮像素子100とは別の撮像素子400により光源Lの明滅を検知することで、画像に生じるフリッカー現象を防止することができる。 FIG. 14 is a diagram showing the arrangement of two imaging elements 100 and 400 according to the fifth embodiment. As shown in FIG. 14 , the light beam guided from the imaging optical system 11 passes through the half mirror 300 , part of which reaches the image sensor 100 , and the other part is reflected by the half mirror 300 to reach the image sensor 400 . to reach The imaging element 400 is an imaging element for detecting blinking of the light source L. FIG. The blinking detection unit 74 detects the blinking frequency and blinking phase of the light source L based on the signal from the imaging device 400 . In this fifth embodiment, the image pickup device 100 is called a first image pickup device, and the image pickup device 400 is called a second image pickup device. With such a configuration as well, by detecting blinking of the light source L by the image sensor 400 different from the image sensor 100, it is possible to prevent the flicker phenomenon occurring in the image.

<第6実施形態>
第6実施形態では、上記した第1実施形態におけるデジタルカメラ1を、撮像装置1Aと電子機器1Bとに分離した構成としている。
<Sixth embodiment>
In the sixth embodiment, the digital camera 1 in the first embodiment is separated into an imaging device 1A and an electronic device 1B.

図15は、第6実施形態に係る撮像装置1A及び電子機器1Bの構成を示すブロック図である。図15に示す構成において、撮像装置1Aは、被写体の撮像を行う装置である。この撮像装置1Aは、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、記録部60、及び第1システム制御部70Aを備える。なお、撮像装置1Aのうち、レンズ部10、撮像部20、画像処理部30、ワークメモリ40、操作部55、及び記録部60の構成は、図7に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 FIG. 15 is a block diagram showing configurations of an imaging device 1A and an electronic device 1B according to the sixth embodiment. In the configuration shown in FIG. 15, an imaging device 1A is a device that takes an image of a subject. This imaging apparatus 1A includes a lens section 10, an imaging section 20, an image processing section 30, a work memory 40, an operation section 55, a recording section 60, and a first system control section 70A. The configuration of the lens unit 10, the imaging unit 20, the image processing unit 30, the work memory 40, the operation unit 55, and the recording unit 60 in the imaging apparatus 1A is the same as the configuration shown in FIG. Therefore, the same configurations are denoted by the same reference numerals, and overlapping descriptions are omitted.

また、電子機器1Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器1Bは、表示部50及び第2システム制御部(制御部)70Bを備える。なお、電子機器1Bのうちの表示部50の構成は、図7に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 The electronic device 1B is a device that displays images (still images, moving images, live view images). The electronic device 1B includes a display section 50 and a second system control section (control section) 70B. Note that the configuration of the display unit 50 in the electronic device 1B is the same as the configuration shown in FIG. Therefore, the same configurations are denoted by the same reference numerals, and overlapping descriptions are omitted.

第1システム制御部70Aは、第1通信部75Aを有している。また、第2システム制御部70Bは、第2通信部75Bを有している。第1通信部75Aと第2通信部75Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部70Aは、第1通信部75Aを介して画像データ(画像処理部30が画像処理した画像データ、記録部60に記録されている画像データ)を第2通信部75Bに送信する。第2システム制御部70Bは、第2通信部75Bにおいて受信した画像データを表示部50に表示させる。また、第2システム制御部70Bは、予め設定されているメニュー画像を第2表示部53に表示させる。 The first system control section 70A has a first communication section 75A. The second system control section 70B also has a second communication section 75B. The first communication section 75A and the second communication section 75B transmit and receive signals to and from each other by wire or wirelessly. In such a configuration, the first system control unit 70A transmits image data (image data processed by the image processing unit 30, image data recorded in the recording unit 60) to the second system via the first communication unit 75A. It is transmitted to the communication section 75B. The second system control unit 70B causes the display unit 50 to display the image data received by the second communication unit 75B. The second system control unit 70B also causes the second display unit 53 to display a preset menu image.

また、第2システム制御部70Bは、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を変更する制御を行う。また、第2システム制御部70Bは、使用者によるタッチパネル52のタッチ操作に応じて、又は自動的に、画像表示領域510内の各表示領域を選択する制御を行う。また、第1システム制御部70Aは、使用者による操作部(電子機器1B側に設けられた静止画や動画の撮像開始を指示する操作部)55の操作に応じて撮像の制御を実行する。 Further, the second system control unit 70B performs control to change the imaging conditions (including accumulation conditions) according to the user's touch operation on the touch panel 52 or automatically. Further, the second system control unit 70B performs control to select each display area in the image display area 510 according to the touch operation of the touch panel 52 by the user or automatically. In addition, the first system control unit 70A executes imaging control in accordance with the user's operation of the operation unit 55 (an operation unit provided on the electronic device 1B side for instructing the start of imaging of a still image or a moving image) 55 .

図7に示す構成(分割部71、駆動制御部72、制御部73、及び明滅検知部74)は、第1システム制御部70Aと第2システム制御部70Bのいずれに設けられてもよい。図7に示すすべての構成は、第1システム制御部70A又は第2システム制御部70Bに設けられてもよく、また図7に示す構成の一部が第1システム制御部70Aに設けられ、図7に示す構成の一部以外の構成が第2システム制御部70Bに設けられてもよい。 The configuration shown in FIG. 7 (dividing section 71, drive control section 72, control section 73, and blink detection section 74) may be provided in either the first system control section 70A or the second system control section 70B. All the configuration shown in FIG. 7 may be provided in the first system control unit 70A or the second system control unit 70B, and part of the configuration shown in FIG. 7 may be provided in the first system control unit 70A, 7 may be provided in the second system control unit 70B.

なお、撮像装置1Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。 The imaging device 1A is composed of, for example, a digital camera, a smart phone, a mobile phone, a personal computer, etc., having an imaging function and a communication function, and the electronic device 1B is, for example, a smart phone, a mobile phone, a portable personal computer, etc. It consists of portable terminals such as computers.

図15に示す第1システム制御部70Aは、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図15に示す第2システム制御部70Bは、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。 The first system control unit 70A shown in FIG. 15 is implemented by the body-side CPU executing processing based on a control program. Also, the second system control unit 70B shown in FIG. 15 is implemented by the body-side CPU executing processing based on the control program.

以上に説明したように、第6実施形態では、第1実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1Aで撮像されているライブビュー画像を利用して光源の明滅を検知することができる。 As described above, in the sixth embodiment, in addition to the effects described in the first embodiment, blinking of the light source is achieved using a live view image captured by the imaging device 1A using a portable terminal such as a smartphone. can be detected.

なお、図15に示す構成において、画像処理部30と第1システム制御部70Aとは一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部30の機能と第1システム制御部70Aの機能を担う。 In the configuration shown in FIG. 15, the image processing section 30 and the first system control section 70A may be integrated. In this case, a system control unit having one body-side CPU performs processing based on a control program to perform the function of the image processing unit 30 and the function of the first system control unit 70A.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various modifications and improvements can be made to the above embodiments without departing from the scope of the present invention. Also, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omissions are also included in the technical scope of the present invention. Moreover, it is also possible to appropriately combine the configurations of the above-described embodiments and modifications and apply them.

例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。 For example, although the arrangement of the color filters 102 is the Bayer arrangement in each of the above-described embodiments, an arrangement other than this arrangement may be used. Also, the number of pixels forming the unit group 131 should include at least one pixel. Also, it is sufficient that each block includes at least one pixel. Therefore, it is possible to perform imaging under different imaging conditions for each pixel.

また、上記した各実施形態において、駆動部21は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部30の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部70の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。 Further, in each of the above-described embodiments, the drive unit 21 may be partially or wholly mounted on the imaging chip 113 , or may be partially or wholly mounted on the signal processing chip 111 . Also, part of the configuration of the image processing unit 30 may be mounted on the imaging chip 113 or the signal processing chip 111 . Also, part of the configuration of the system control unit 70 may be mounted on the imaging chip 113 or the signal processing chip 111 .

また、上記した各実施形態において、明滅検知部74が検知した光源Lの明滅周波数及び明滅位相に基づいて最適な撮像タイミングで静止画を撮像する構成であった。しかし、明滅検知部74が検知した光源Lの明滅周波数及び明滅位相に基づいて、フリッカー現象が生じないようなフレームレートを決定し、決定したフレームレートで動画を撮影する構成でもよい。 Further, in each of the above-described embodiments, a still image is captured at an optimum timing based on the blinking frequency and blinking phase of the light source L detected by the blinking detection unit 74 . However, a frame rate that does not cause the flicker phenomenon may be determined based on the blinking frequency and blinking phase of the light source L detected by the blinking detection unit 74, and a moving image may be captured at the determined frame rate.

また、上記した第1実施形態では、撮像素子100を第1領域200と第2領域210の2分割とし、第2実施形態では、撮像素子100を第1領域200と第3領域210Aと第4領域210Bの3分割としていたが、4分割以上としてもよい。また、第2領域210(第3領域210A、第4領域210B)は、第1領域200の周囲に配置していたが、そのような位置に限定されない。例えば、中央部に配置してもよいし、また撮像素子100の全面に均等に配置してもよい。 Further, in the above-described first embodiment, the imaging device 100 is divided into two regions, the first region 200 and the second region 210. In the second embodiment, the imaging device 100 is divided into the first region 200, the third region 210A, and the fourth region 210A. Although the region 210B is divided into three, it may be divided into four or more. Moreover, although the second area 210 (the third area 210A and the fourth area 210B) is arranged around the first area 200, the position is not limited to such. For example, it may be arranged in the central portion, or may be arranged evenly over the entire surface of the imaging device 100 .

<第7実施形態>
第7実施形態においては、画像には、静止画、動画、ライブビュー画像、部分動画が含まれる。まず、部分動画について説明する。図16は、部分動画の概要を説明するための図である。図16に示す画像1500には、被写体としての人物O10と、その人物O10の耳に付けられた被写体としてのイヤリングO20とが写っている。画像1500においてイヤリングO20及びその周囲の領域(イヤリングO20よりも少し広めの領域)1501が動画で構成されている。図16に示す例では、領域1501の動画はイヤリングO20が揺れている動画となっている。一方、画像1500において領域1501以外の領域(つまり、人物O10が写っている領域)が静止画で構成されている。従って、領域1501以外の領域の画像は止まっている。使用者には画像1500においてイヤリングO20だけが動いているように見える。このように、画像の一部分が動画で他の部分が静止画である画像のこと「部分動画」という。また、「部分動画」のことを「シネマフォト」又は「シネマグラフ」ともいう。部分動画は、写真(静止画)を部分的に動かすことで、その動いている部分に注目させる手法である。使用者は、時間が止まっている写真の中で、動いている部分だけは時間が進んでいるように見える。本実施形態では、上記した撮像素子1100を用いて部分動画を生成する。
<Seventh embodiment>
In the seventh embodiment, images include still images, moving images, live view images, and partial moving images. First, the partial moving image will be described. FIG. 16 is a diagram for explaining an outline of a partial moving image. An image 1500 shown in FIG. 16 includes a person O10 as a subject and an earring O20 as a subject worn on the ear of the person O10. In the image 1500, the earring O20 and its surrounding area (a slightly wider area than the earring O20) 1501 are composed of moving images. In the example shown in FIG. 16, the moving image of the area 1501 is the moving image of the earring O20 swinging. On the other hand, the area of the image 1500 other than the area 1501 (that is, the area in which the person O10 is shown) is composed of a still image. Therefore, the image of the area other than the area 1501 is stopped. It appears to the user that only the earring O20 is moving in the image 1500 . An image in which part of the image is a moving image and the other part is a still image is called a "partial moving image". A "partial moving image" is also called a "cinema photo" or a "cinemagraph." A partial moving image is a method of partially moving a photograph (still image) to draw attention to the moving part. For the user, in a picture where time has stopped, only the parts that are moving appear to be moving forward. In this embodiment, a partial moving image is generated using the image sensor 1100 described above.

図17は、第7実施形態に係るデジタルカメラ1001の構成を示すブロック図である。なお、図17において、電子機器の一例であるデジタルカメラ1001は図7のデジタルカメラ1に相当し、レンズ部1010は図7のレンズ部10に相当し、撮像部1020は図7の撮像部20に相当し、撮像素子1100は図7の撮像素子100に相当し、駆動部1021は図7の駆動部21に相当し、画像処理部1030は図7の画像処理部30に相当し、ワークメモリ1040は図7のワークメモリ40に相当し、表示部1050は図7の表示部50に相当し、表示パネル1051は図7の表示パネル51に相当し、タッチパネル1052は図7のタッチパネル52に相当し、操作部1055は図7の操作部55に相当し、記録部1060は図7の記憶部60に相当し、システム制御部1070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部1010、撮像部1020、撮像素子1100、駆動部1021、ワークメモリ1040、表示部1050、操作部1055、記録部1060の構成については説明を省略する。 FIG. 17 is a block diagram showing the configuration of a digital camera 1001 according to the seventh embodiment. 17, a digital camera 1001 as an example of electronic equipment corresponds to the digital camera 1 in FIG. 7, a lens unit 1010 corresponds to the lens unit 10 in FIG. 7, and an imaging unit 1020 corresponds to the imaging unit 20 in FIG. , the image sensor 1100 corresponds to the image sensor 100 in FIG. 7, the driving unit 1021 corresponds to the driving unit 21 in FIG. 7, the image processing unit 1030 corresponds to the image processing unit 30 in FIG. 7, the display unit 1050 corresponds to the display unit 50 in FIG. 7, the display panel 1051 corresponds to the display panel 51 in FIG. 7, and the touch panel 1052 corresponds to the touch panel 52 in FIG. 7, the recording unit 1060 corresponds to the storage unit 60 in FIG. 7, and the system control unit 1070 corresponds to the system control unit 70 in FIG. Of these configurations, the configurations of the lens unit 1010, imaging unit 1020, imaging device 1100, driving unit 1021, work memory 1040, display unit 1050, operation unit 1055, and recording unit 1060 are omitted.

画像処理部1030は、図17に示すように、画像生成部1031及び検出部1032を含む。画像生成部1031は、撮像部1020から出力される各画素の画素信号からなるRAWデータに対して種々の画像処理を施すことにより画像データを生成する。本実施形態では、画像生成部1031は、動画(ライブビュー画像を含む)及び静止画の画像データを生成するだけでなく、上記した部分動画の画像データも生成することができる。検出部1032は、画像生成部1031で生成した画像データから被写体を検出する。本実施形態では、検出部1032は、画像生成部1031から時系列的に得られる複数の画像データ(フレーム)を比較して、移動する被写体(移動被写体)を検出する機能を備えている。また、検出部1032は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の境界を特定して被写体を検出する機能を備えている。なお、検出部1032は、例えば特開2010-16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。 The image processing unit 1030 includes an image generation unit 1031 and a detection unit 1032, as shown in FIG. The image generation unit 1031 generates image data by performing various image processing on RAW data composed of pixel signals of pixels output from the imaging unit 1020 . In this embodiment, the image generation unit 1031 can generate not only image data of moving images (including live view images) and still images, but also image data of the partial moving images described above. A detection unit 1032 detects a subject from the image data generated by the image generation unit 1031 . In this embodiment, the detection unit 1032 has a function of comparing a plurality of image data (frames) obtained in time series from the image generation unit 1031 and detecting a moving subject (moving subject). Further, the detection unit 1032 has a function of detecting the subject by specifying the boundary of the subject based on the contrast and color change between the bright and dark areas in the image data. Note that the detection unit 1032 may detect a human body included in the image data as a subject, as described in Japanese Patent Application Laid-Open No. 2010-16621 (US2010/0002940), for example.

ここで、撮像部1020で撮像される対象物である被写体は、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。また、被写体のうち、使用者(撮影者)に注目される被写体又は使用者に注目されると推定される被写体のことを「主要被写体」という。主要被写体も、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。 Here, the subject, which is the object to be imaged by the imaging unit 1020, is not limited to the case where there is only one in the image data, and there may be a plurality of subjects. Among subjects, a subject that attracts the user's (photographer's) attention or a subject that is presumed to attract the user's attention is referred to as a "main subject". The main subject is also not limited to the case where there is only one in the image data, and there may be a plurality of main subjects.

本実施形態では、表示パネル1051上に形成されたタッチパネル1052のタッチ操作が行われることによって、タッチされた被写体に対する焦点調節(AF:Automatic Focusing)が行われる。 In this embodiment, by performing a touch operation on the touch panel 1052 formed on the display panel 1051, focus adjustment (AF: Automatic Focusing) is performed on the touched subject.

システム制御部1070は、デジタルカメラ1001の全体の処理及び動作を制御する。このシステム制御部1070はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部1070は、撮像素子1100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部1070は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部1021に対して指示する。 A system control unit 1070 controls the overall processing and operation of the digital camera 1001 . The system control unit 1070 has a body-side CPU (Central Processing Unit). In this embodiment, the system control unit 1070 divides the imaging surface (pixel region 113A) of the imaging element 1100 (imaging chip 113) into a plurality of blocks, and sets different charge accumulation times (or charge accumulation times) and frame rates between the blocks. , to acquire an image with gain. Therefore, the system control unit 1070 instructs the driving unit 1021 about the position, shape, range of blocks, and storage conditions for each block.

また、システム制御部1070は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部1070は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部1021に対して指示する。また、画像処理部1030は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部1070は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部1030に指示する。 In addition, the system control unit 1070 acquires an image with a thinning rate that differs between blocks, the number of addition rows or addition columns for adding pixel signals, and the number of bits for digitization. Therefore, the system control unit 1070 instructs the driving unit 1021 about imaging conditions for each block (decimation rate, number of rows or columns to be added for adding pixel signals, and number of bits for digitization). In addition, the image processing unit 1030 executes image processing under different imaging conditions (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression ratio) between blocks. Therefore, the system control unit 1070 instructs the image processing unit 1030 on imaging conditions for each block (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate).

また、システム制御部1070は、画像処理部1030において生成された画像データを記録部1060に記録させる。また、システム制御部1070は、画像処理部1030において生成された画像データを表示部1050に出力させることにより、表示部1050に画像を表示させる。また、システム制御部1070は、記録部1060に記録されている画像データを読み出して表示部1050に出力させることにより、表示部1050に画像を表示させる。表示部1050に表示される画像としては、静止画、動画、ライブビュー画像、部分動画(図16参照)が含まれる。 Also, the system control unit 1070 causes the recording unit 1060 to record the image data generated by the image processing unit 1030 . Further, the system control unit 1070 causes the display unit 1050 to display an image by outputting the image data generated by the image processing unit 1030 to the display unit 1050 . Further, the system control unit 1070 reads the image data recorded in the recording unit 1060 and causes the display unit 1050 to output the image data, thereby causing the display unit 1050 to display an image. Images displayed on the display unit 1050 include still images, moving images, live view images, and partial moving images (see FIG. 16).

また、システム制御部1070は、制御情報をレンズ駆動制御装置15に出力することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cの駆動制御及び絞り14の駆動制御を実行させる。 Further, the system control unit 1070 outputs control information to the lens drive control device 15 to cause the lens drive control device 15 to execute drive control of the focusing lens 11 c and drive control of the diaphragm 14 .

本実施形態では、システム制御部1070は、図17に示すように、表示制御部1071、設定部(フレームレート設定部)1072、撮像制御部1073、及びAF処理部1074を備えている。表示制御部1071は、画像処理部1030で生成された画像データを表示部1050に出力させて、表示部1050の表示パネル1051に画像(ライブビュー画像、静止画、動画、部分動画)を表示させる制御を行う。また、表示制御部1071は、予め設定されているメニュー画像(図18参照)を表示部1050の表示パネル1051に表示させる制御を行う。 In this embodiment, the system control unit 1070 includes a display control unit 1071, a setting unit (frame rate setting unit) 1072, an imaging control unit 1073, and an AF processing unit 1074, as shown in FIG. The display control unit 1071 outputs the image data generated by the image processing unit 1030 to the display unit 1050, and displays an image (live view image, still image, moving image, partial moving image) on the display panel 1051 of the display unit 1050. control. Further, the display control unit 1071 performs control to display a preset menu image (see FIG. 18) on the display panel 1051 of the display unit 1050 .

設定部1072は、使用者によるタッチパネル1052のタッチ操作に基づいて、検出部1032が検出した被写体に応じた領域(以下、被写体領域という)に対応する画素領域113Aの領域を、動画を撮像する領域(以下、動画領域という)又は静止画を撮像する領域(以下、静止画領域という)としてブロック単位で設定する制御を行う。また、設定部1072は、使用者によるタッチパネル1052のタッチ操作によって選択された領域(以下、選択領域という)に対応する画素領域113Aの領域を、動画領域又は静止画領域としてブロック単位で設定する制御を行う。また、設定部1072は、使用者によるタッチパネル1052のタッチ操作に応じて、又は自動的に、フレームレートを含む撮像条件を設定する制御を行う。 Based on the user's touch operation on touch panel 1052, setting unit 1072 sets a region of pixel region 113A corresponding to a region corresponding to a subject detected by detection unit 1032 (hereinafter referred to as a subject region) as a moving image capturing region. (hereinafter referred to as a moving image area) or an area for capturing a still image (hereinafter referred to as a still image area). Further, the setting unit 1072 controls to set the area of the pixel area 113A corresponding to the area selected by the user's touch operation on the touch panel 1052 (hereinafter referred to as the selected area) as a moving image area or a still image area in units of blocks. I do. In addition, the setting unit 1072 performs control for setting imaging conditions including a frame rate in accordance with a user's touch operation on the touch panel 1052 or automatically.

撮像制御部1073は、設定部1072により設定された撮像条件で撮像を行うように撮像素子1100の駆動制御を行う。ここで、撮像制御部1073は、撮影動作の開始時には、ライブビュー画像の撮像を行うように撮像素子1100の駆動制御を行う。また、撮像制御部1073は、設定部1072により設定された動画領域において動画の撮像を行うように撮像素子1100の駆動制御を行う。また、撮像制御部1073は、設定部1072により設定された静止画領域において静止画の撮像を行うように撮像素子1100の駆動制御を行う。また、撮像制御部1073は、画像生成部1031により生成された動画、静止画、及び部分動画の画像データを記録部1060に記録する制御を行う。 The imaging control unit 1073 drives and controls the imaging element 1100 so as to perform imaging under the imaging conditions set by the setting unit 1072 . Here, the imaging control unit 1073 drives and controls the imaging device 1100 so as to capture a live view image at the start of the imaging operation. In addition, the imaging control unit 1073 drives and controls the imaging device 1100 so as to capture a moving image in the moving image area set by the setting unit 1072 . Further, the imaging control unit 1073 performs drive control of the imaging device 1100 so as to capture a still image in the still image area set by the setting unit 1072 . The imaging control unit 1073 also performs control to record image data of moving images, still images, and partial moving images generated by the image generating unit 1031 in the recording unit 1060 .

AF処理部1074は、使用者によるタッチパネル1052のタッチ操作に応じて、コントラストAFと呼ばれる被写体のコントラストが最大となるように焦点調節処理(AF処理)を実行する。具体的には、AF処理部1074は、電気接点81A,81Bを介して制御情報をレンズ駆動制御装置15に対して送信することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cを移動させる。また、AF処理部1074は、撮像部1020が撮像した被写体の像のコントラスト(本実施形態では、使用者により選択された被写体の像のコントラスト:図20のステップS1029,S1030参照)を表すコントラスト信号を画像処理部1030から取得する。AF処理部1074は、フォーカシング用レンズ11cを移動させながら、画像処理部1030からのコントラスト信号に基づいて、被写体の像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部1074は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御情報をレンズ駆動制御装置15に送信する。 The AF processing unit 1074 executes focus adjustment processing (AF processing) called contrast AF in response to a user's touch operation on the touch panel 1052 so as to maximize the contrast of the subject. Specifically, the AF processing unit 1074 causes the lens drive control device 15 to move the focusing lens 11c by transmitting control information to the lens drive control device 15 via the electrical contacts 81A and 81B. Further, the AF processing unit 1074 outputs a contrast signal representing the contrast of the subject image captured by the imaging unit 1020 (in this embodiment, the contrast of the subject image selected by the user: see steps S1029 and S1030 in FIG. 20). is acquired from the image processing unit 1030 . The AF processing unit 1074 moves the focusing lens 11c, and based on the contrast signal from the image processing unit 1030, detects the position of the focusing lens 11c at which the contrast of the object image is highest as the focal position. The AF processing unit 1074 transmits control information to the lens driving control device 15 so as to move the focusing lens 11c to the detected focal position.

なお、システム制御部1070において、表示制御部1071、設定部1072、撮像制御部1073、及びAF処理部1074は、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。 In the system control unit 1070, the display control unit 1071, the setting unit 1072, the imaging control unit 1073, and the AF processing unit 1074 are implemented by the body-side CPU executing processing based on the control program.

図18は、第7実施形態のデジタルカメラに係る表示部を示す図である。図18に示すように、表示部1050の表示パネル1051は、画像表示領域1510と操作ボタン表示領域1520とが設けられている。画像表示領域1510は、撮像部1020で撮像された画像、すなわち、静止画、動画、ライブビュー画像、及び部分動画を表示する領域である。また、操作ボタン表示領域1520は、使用者が撮像条件などを設定するためのメニュー画像1520Mを表示する領域である。 FIG. 18 is a diagram showing a display section according to the digital camera of the seventh embodiment. As shown in FIG. 18, the display panel 1051 of the display unit 1050 is provided with an image display area 1510 and an operation button display area 1520 . The image display area 1510 is an area for displaying images captured by the imaging unit 1020, that is, still images, moving images, live view images, and partial moving images. Further, the operation button display area 1520 is an area for displaying a menu image 1520M for the user to set imaging conditions and the like.

画像表示領域1510内には、複数のブロックB(i,j)が設定されている。図18に示す例では、ブロックB(i,j)は、画像表示領域1510において、水平方向(図18の横方向)に8個のブロック(i=1~8)が設定され、垂直方向(図18の縦方向)に6個のブロック(j=1~6)が設定されている。つまり、画像表示領域1510が8×6個(=48個)のブロックに分割されている。また、タッチパネル1052が画像表示領域1510上に設けられている。タッチパネル1052において、複数のタッチ領域P(i,j)が複数のブロックB(i,j)のそれぞれに重なるように形成されている。各タッチ領域P(i,j)は、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部1070に出力する。 A plurality of blocks B(i, j) are set in the image display area 1510 . In the example shown in FIG. 18, in the image display area 1510, eight blocks (i=1 to 8) are set in the image display area 1510 (horizontal direction in FIG. 18), and eight blocks (i=1 to 8) are set in the vertical direction ( Six blocks (j=1 to 6) are set in the vertical direction of FIG. That is, the image display area 1510 is divided into 8×6 (=48) blocks. Also, a touch panel 1052 is provided on the image display area 1510 . In touch panel 1052, a plurality of touch areas P(i, j) are formed so as to overlap each of a plurality of blocks B(i, j). When each touch area P(i, j) detects that it has been pressed (touched) by the user, it sends a detection signal indicating the pressed position (which touch area) to the system control unit 1070. Output.

画像表示領域1510に設定される複数のブロックB(i,j)は、上述した画素領域113A(図2参照)に設定される複数のブロックに対応する。ただし、画素領域113Aに設定されるブロックは、画像表示領域1510に設定されるブロックの数よりも多くてもよいし少なくてもよい。なお、図18において、画像表示領域1510内のブロックの配置を見えやすくするために、画像表示領域1510において少ない数のブロックを設定しているが、図18に示すブロックの数よりも多い数のブロックを画像表示領域1510に設定するようにしてもよい。 A plurality of blocks B(i, j) set in the image display area 1510 correspond to a plurality of blocks set in the above-described pixel area 113A (see FIG. 2). However, the number of blocks set in the pixel area 113A may be greater than or less than the number of blocks set in the image display area 1510. FIG. In FIG. 18, a small number of blocks are set in the image display area 1510 in order to make the arrangement of the blocks in the image display area 1510 easier to see. A block may be set in the image display area 1510 .

操作ボタン表示領域1520は、画像表示領域1510の近傍に設けられている。操作ボタン表示領域1520内には、使用者が撮影モード、領域(動画領域、静止画領域)、撮像条件、及びAF処理の実行を設定するためのメニュー画像1520Mが表示される。メニュー画像1520Mには、撮影モードボタン画像1521、タッチ動画ボタン画像1522、タッチ静止画ボタン画像1523、フレームレートボタン画像1524、及びAFボタン画像1525が含まれる。撮影モードボタン画像1521は、使用者が通常の動画や静止画を撮影するモード(通常モード)と部分動画を撮影するモード(部分動画モード)とを選択する場合に用いられる。タッチ動画ボタン画像1522は、使用者が画像表示領域1510において動画領域(例えば、後述する図21の領域1511)を設定する場合に用いられる。タッチ静止画ボタン画像1523は、使用者が画像表示領域1510において静止画領域(例えば、後述する図24の領域1512)を設定する場合に用いられる。フレームレートボタン画像1524は、使用者が動画のフレームレートを設定する場合に用いられる。AFボタン画像1525は、使用者がタッチパネル1052のタッチ操作で指定した被写体に対するAF処理を実行させる場合に用いられる。 Operation button display area 1520 is provided near image display area 1510 . Within the operation button display area 1520, a menu image 1520M is displayed for the user to set the shooting mode, areas (moving image area, still image area), imaging conditions, and execution of AF processing. The menu image 1520M includes a shooting mode button image 1521, a touch moving image button image 1522, a touch still image button image 1523, a frame rate button image 1524, and an AF button image 1525. The shooting mode button image 1521 is used when the user selects a mode for shooting normal moving images and still images (normal mode) and a mode for shooting partial moving images (partial moving image mode). The touch moving image button image 1522 is used when the user sets a moving image area (eg, area 1511 in FIG. 21 described later) in the image display area 1510 . The touch still image button image 1523 is used when the user sets a still image area (eg, area 1512 in FIG. 24 described later) in the image display area 1510 . A frame rate button image 1524 is used when the user sets the frame rate of the moving image. The AF button image 1525 is used when the user executes AF processing on a subject specified by a touch operation on the touch panel 1052 .

タッチパネル1052において、タッチ領域1521aが撮影モードボタン画像1521上に重なるように形成されている。タッチ領域1522aがタッチ動画ボタン画像1522上に重なるように形成されている。タッチ領域1523aがタッチ静止画ボタン画像1523上に重なるように形成されている。タッチ領域1524aがフレームレートボタン画像1524上に重なるように形成されている。タッチ領域1525aがAFボタン画像1525上に重なるように形成されている。タッチ領域1521a、タッチ領域1521a、タッチ領域1521a及びタッチ領域1525aは、使用者により押された(タッチされた)ことを検出すると、押された位置(いずれのタッチ領域であるか)を示す検出信号をシステム制御部1070に出力する。 On the touch panel 1052 , a touch area 1521 a is formed so as to overlap the shooting mode button image 1521 . A touch area 1522 a is formed so as to overlap the touch moving image button image 1522 . A touch area 1523 a is formed so as to overlap the touch still image button image 1523 . A touch area 1524 a is formed so as to overlap the frame rate button image 1524 . A touch area 1525 a is formed so as to overlap the AF button image 1525 . When the touch area 1521a, the touch area 1521a, the touch area 1521a, and the touch area 1525a detect that they have been pressed (touched) by the user, they generate a detection signal indicating the pressed position (which touch area). is output to the system control unit 1070 .

実施形態(第7実施形態、後述する第8及び第9実施形態)において、「第1領域」とは、表示パネル1051の画像表示領域1510において使用者の操作に応じて又は自動的に設定部1072により設定された領域(動画領域又は静止画領域)に対応する撮像素子1100の画素領域113A内の領域のことをいう。また、「第2領域」とは、表示パネル1051の画像表示領域1510において使用者の操作に応じて又は自動的に設定部1072により設定された領域(動画領域又は静止画領域)に対応する撮像素子1100の画素領域113A内の領域のことをいう。第1領域及び第2領域は、いずれも、1つの領域に限らず、複数の領域であってもよい。 In the embodiments (seventh embodiment, eighth and ninth embodiments to be described later), the “first region” means that a setting unit is automatically set in response to a user's operation in the image display region 1510 of the display panel 1051. It means an area within the pixel area 113A of the image sensor 1100 corresponding to the area (moving image area or still image area) set by 1072 . In addition, the “second area” is an area (moving image area or still image area) set by the setting unit 1072 automatically or according to the user's operation in the image display area 1510 of the display panel 1051. It refers to a region within the pixel region 113A of the element 1100. FIG. Both the first area and the second area are not limited to one area, and may be a plurality of areas.

次に、第7実施形態に係るデジタルカメラ1001の部分動画の撮影動作について説明する。図19は、第7実施形態のシステム制御部1070が実行する部分動画の撮影動作を説明するためのフローチャートである。 Next, the partial moving image capturing operation of the digital camera 1001 according to the seventh embodiment will be described. FIG. 19 is a flow chart for explaining the partial moving image shooting operation executed by the system control unit 1070 of the seventh embodiment.

使用者が撮影モードとして部分動画モードを選択することにより、図19に示す部分動画の撮影動作(ステップS1001~S1012の処理)が開始される。使用者による撮影モードの選択は、例えば以下のように行われる。デジタルカメラ1001の電源が投入されると、表示制御部1071は図18に示した画面が表示部1050の表示パネル1051に表示される。使用者が撮影モードボタン画像1521(すなわちタッチ領域1521a)をタッチする。タッチパネル1052は、使用者によりタッチされたタッチ領域1521aに対応する検出信号をシステム制御部1070に出力する。表示制御部1071は、タッチ領域1521aに対応する検出信号に基づいて、撮像モードボタン画像1521の横に、撮影モードの種類の画像として「通常モード」及び「部分動画モード」を表示させる。設定部1072は、タッチパネル1052において、撮影モードの種類の画像の領域と重なるように新たにタッチ領域を設定する。使用者は撮影モードの種類の画像として「部分動画モード」をタッチする。タッチパネル1052は、使用者によりタッチされた「部分動画モード」上のタッチ領域に対応する検出信号をシステム制御部1070に出力する。設定部1072は、撮影モードの種類として「部分動画モード」を設定する。その後、図19に示す処理が開始される。 When the user selects the partial moving image mode as the shooting mode, the partial moving image shooting operation (processing of steps S1001 to S1012) shown in FIG. 19 is started. Selection of the shooting mode by the user is performed, for example, as follows. When the digital camera 1001 is powered on, the display control unit 1071 displays the screen shown in FIG. 18 on the display panel 1051 of the display unit 1050 . The user touches the shooting mode button image 1521 (that is, the touch area 1521a). Touch panel 1052 outputs a detection signal corresponding to touch area 1521a touched by the user to system control section 1070 . Based on the detection signal corresponding to the touch area 1521a, the display control unit 1071 displays "normal mode" and "partial moving image mode" as images of types of shooting modes next to the imaging mode button image 1521. FIG. The setting unit 1072 newly sets a touch area on the touch panel 1052 so as to overlap the area of the image of the shooting mode type. The user touches "partial moving image mode" as an image of the type of shooting mode. Touch panel 1052 outputs to system control section 1070 a detection signal corresponding to the touch area on the “partial moving image mode” touched by the user. The setting unit 1072 sets “partial moving image mode” as the type of shooting mode. After that, the processing shown in FIG. 19 is started.

図19に示す処理において、まず、撮像制御部1073がライブビュー画像の撮影動作を開始する(ステップS1001)。ライブビュー画像の撮影が開始されると、表示制御部1071は、撮像部1020で撮像されたライブビュー画像を表示パネル1051の画像表示領域1510に表示する(ステップS1002)。例えば、画像表示領域1510には滝のライブビュー画像が表示される(後述する図21、図23、及び図24参照)。 In the process shown in FIG. 19, first, the imaging control unit 1073 starts the operation of capturing a live view image (step S1001). When the live view image capturing is started, the display control unit 1071 displays the live view image captured by the image capturing unit 1020 in the image display area 1510 of the display panel 1051 (step S1002). For example, a live view image of a waterfall is displayed in the image display area 1510 (see FIGS. 21, 23, and 24, which will be described later).

次に、設定部1072は、使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523のタッチ操作が行われたか否かを判定する(ステップS1003)。使用者は、画像表示領域1510において動画領域を設定する場合、タッチ動画ボタン画像1522(すなわちタッチ領域1522a)を指でタッチする。また、使用者は、画像表示領域1510において静止画領域を設定する場合、タッチ静止画ボタン画像1523(すなわちタッチ領域1523a)を指でタッチする。使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523がタッチされると、タッチパネル1052は、使用者によりタッチされたタッチ領域1522a又は1523aに対応する検出信号をシステム制御部1070に出力する。設定部1072は、使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523のタッチ操作が行われたと判定した場合は、領域(動画領域、静止画領域)や撮像条件などを設定する設定処理を実行する(ステップS1004)。なお、ステップS1004の設定処理では、AF処理部1074によるAF処理も実行される。 Next, the setting unit 1072 determines whether or not the user has performed a touch operation on the touch moving image button image 1522 or the touch still image button image 1523 (step S1003). When setting the moving image area in the image display area 1510, the user touches the touch moving image button image 1522 (that is, the touch area 1522a) with a finger. Further, when the user sets a still image area in the image display area 1510, the user touches the touch still image button image 1523 (that is, the touch area 1523a) with a finger. When the user touches touch moving image button image 1522 or touch still image button image 1523 , touch panel 1052 outputs a detection signal corresponding to touch area 1522 a or 1523 a touched by the user to system control unit 1070 . If the setting unit 1072 determines that the user has performed a touch operation on the touch video button image 1522 or the touch still image button image 1523, the setting unit 1072 performs setting processing for setting an area (moving image area, still image area), imaging conditions, and the like. (step S1004). Note that AF processing by the AF processing unit 1074 is also executed in the setting processing in step S1004.

(1)使用者によりタッチ動画ボタン画像1522がタッチされた場合:
図20は、図19に示す設定処理(ステップS1004)を説明するためのフローチャートである。また、図21は、使用者が動画領域1511を設定するときの表示パネル1051の表示例を示す図である。また、図22は、撮像素子1100の画素領域113Aにおける動画領域1211を示す図である。また、図23は、使用者がフレームレートを設定するときの表示パネル1051の表示例を示す図である。
(1) When the user touches the touch video button image 1522:
FIG. 20 is a flowchart for explaining the setting process (step S1004) shown in FIG. FIG. 21 is a diagram showing a display example of the display panel 1051 when the user sets the moving image area 1511. As shown in FIG. Also, FIG. 22 is a diagram showing a moving image area 1211 in the pixel area 113A of the image sensor 1100. As shown in FIG. Also, FIG. 23 is a diagram showing a display example of the display panel 1051 when the user sets the frame rate.

図21に示すように、表示制御部1071は、タッチ領域1522aに対応する検出信号に基づいて、タッチ動画ボタン画像1522の横に、領域設定モードの画像1522vとして「オート」及び「マニュアル」を表示させる。ここで、「オート」は、設定部1072が自動で動画領域を設定する領域設定モード(自動モード)である。「マニュアル」は使用者が手動で動画領域を設定する領域設定モード(手動モード)である。設定部1072は、タッチパネル1052において、領域設定モードの画像1522vの領域(「オート」及び「マニュアル」の領域)と重なるように新たにタッチ領域を設定する。使用者は領域設定モードの画像1522vとして「オート」又は「マニュアル」をタッチする。タッチパネル1052は、使用者によりタッチされた「オート」又は「マニュアル」のタッチ領域に対応する検出信号をシステム制御部1070に出力する。 As shown in FIG. 21, the display control unit 1071 displays “auto” and “manual” as the area setting mode image 1522v next to the touch moving image button image 1522 based on the detection signal corresponding to the touch area 1522a. Let Here, “auto” is an area setting mode (automatic mode) in which the setting unit 1072 automatically sets the moving image area. "Manual" is an area setting mode (manual mode) in which the user manually sets the moving image area. The setting unit 1072 newly sets a touch area on the touch panel 1052 so as to overlap with the area of the image 1522v in the area setting mode (“auto” and “manual” areas). The user touches "auto" or "manual" as the area setting mode image 1522v. The touch panel 1052 outputs a detection signal corresponding to the “auto” or “manual” touch area touched by the user to the system control unit 1070 .

図20に示す処理において、設定部1072は、「オート」又は「マニュアル」のタッチ領域に対応する検出信号に基づいて、使用者によって領域設定モードとして「オート」が選択されたか「マニュアル」が選択されたかを判定する(ステップS1021)。設定部1072は、使用者により領域設定モードとして「オート」が選択されたと判定した場合は(ステップS1021のYES)、画像表示領域1510内の領域が選択可能な状態、すなわち、タッチパネル1052がタッチ操作を検出可能な状態に設定する。その後、使用者は、画像表示領域1510に表示されている被写体のブロックB(i,j)を指でタッチすることにより、画像表示領域1510に表示されている被写体を選択する。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。 In the process shown in FIG. 20, the setting unit 1072 determines whether the user has selected "auto" or "manual" as the area setting mode based on the detection signal corresponding to the "auto" or "manual" touch area. It is determined whether or not it has been done (step S1021). If the setting unit 1072 determines that the user has selected “auto” as the area setting mode (YES in step S1021), the area within the image display area 1510 is selectable, that is, the touch panel 1052 is touch operated. to be discoverable. Thereafter, the user selects a subject displayed in image display area 1510 by touching block B(i, j) of the subject displayed in image display area 1510 with a finger. Touch panel 1052 outputs a detection signal corresponding to touch area P(i, j) touched by the user to system control section 1070 .

設定部1072は、タッチパネル1052からの検出信号に基づいて、使用者によって選択されたブロックB(i,j)を認識する。図21に示す例では、使用者によって領域1511(図21中の線が引かれている領域)内の所定のブロックB(i,j)が選択されたものとする。設定部1072は、使用者により選択された所定のブロックB(i,j)の位置を示す位置信号を画像処理部1030に出力することにより、検出部1032に被写体の検出を実行させる(ステップS1022)。検出部1032は、システム制御部1070からの位置信号が示す位置のブロックを認識する。そして、検出部1032は、認識したブロックを含む被写体を検出する。具体的には、検出部1032は、画像生成部1031から時系列的に得られる複数の画像データを比較して、移動する被写体(図21中の滝)を検出する。または、検出部1032は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体(図21中の滝)の境界を特定して被写体を検出する。検出部1032は、検出した被写体の位置及び範囲を示す被写体検出信号をシステム制御部1070に出力する。 Setting unit 1072 recognizes block B(i, j) selected by the user based on the detection signal from touch panel 1052 . In the example shown in FIG. 21, it is assumed that the user has selected a predetermined block B(i, j) within area 1511 (the area with the line drawn in FIG. 21). The setting unit 1072 outputs a position signal indicating the position of the predetermined block B(i,j) selected by the user to the image processing unit 1030, thereby causing the detection unit 1032 to detect the subject (step S1022). ). The detector 1032 recognizes the block at the position indicated by the position signal from the system controller 1070 . Then, the detection unit 1032 detects a subject including the recognized block. Specifically, the detection unit 1032 compares a plurality of image data obtained in time series from the image generation unit 1031 to detect a moving subject (waterfall in FIG. 21). Alternatively, the detection unit 1032 detects the subject by identifying the boundary of the subject (the waterfall in FIG. 21) based on the contrast between the bright and dark areas and the color change in the image data. The detection unit 1032 outputs a subject detection signal indicating the position and range of the detected subject to the system control unit 1070 .

設定部1072は、画像処理部1030からの被写体検出信号に基づいて、検出部1032が検出した被写体の位置及び範囲を認識する。そして、設定部1072は、認識した被写体の位置及び範囲に応じた被写体領域(図21中の領域1511)に対応する画素領域113A内の被写体領域(図22中の領域1211)を設定する(ステップS1023)。具体的には、設定部1072は、駆動部1021に対して被写体領域1211のブロックの位置などを指示する指示信号を出力する。なお、図21に示すように、設定部1072は、被写体の不規則な動きが生じた場合でも被写体の動画を撮像することができるように、検出部1032が検出した被写体(図21中の滝)の領域よりも少し広めの領域を被写体領域1511として設定している。 The setting unit 1072 recognizes the position and range of the object detected by the detection unit 1032 based on the object detection signal from the image processing unit 1030 . Then, the setting unit 1072 sets a subject area (area 1211 in FIG. 22) in the pixel area 113A corresponding to the subject area (area 1511 in FIG. 21) according to the recognized subject position and range (step S1023). Specifically, the setting unit 1072 outputs an instruction signal to the driving unit 1021 to instruct the positions of the blocks in the subject area 1211 and the like. Note that, as shown in FIG. 21, the setting unit 1072 sets the subject detected by the detection unit 1032 (the waterfall in FIG. 21) so that a moving image of the subject can be captured even when the subject moves irregularly. ) is set as a subject area 1511. In FIG.

次に、設定部1072は、ステップS1003においてタッチ動画の操作が行われたか否か、すなわち、ステップS1003において使用者によりタッチ動画ボタン画像1522がタッチされたか否かを判定する(ステップS1025)。設定部1072は、使用者によりタッチ動画ボタン画像1522がタッチされたと判定した場合は、被写体領域1211(図21の被写体領域1511)を動画領域として設定する(ステップS1026)。 Next, the setting unit 1072 determines whether or not the touch moving image has been operated in step S1003, that is, whether or not the user has touched the touch moving image button image 1522 in step S1003 (step S1025). If the setting unit 1072 determines that the user has touched the touch moving image button image 1522, the setting unit 1072 sets the subject area 1211 (the subject area 1511 in FIG. 21) as the moving image area (step S1026).

そして、設定部1072は、使用者によるフレームレートボタン画像1524のタッチ操作に基づいて、動画領域のフレームレートを設定する(ステップS1028)。具体的には、使用者がフレームレートボタン画像1524(すなわちタッチ領域1524a)をタッチする。タッチパネル1052は、使用者によりタッチされたタッチ領域1524aに対応する検出信号をシステム制御部1070に出力する。図23に示すように、表示制御部1071は、タッチ領域1524aに対応する検出信号に基づいて、フレームレートボタン画像1524の横に、複数のフレームレート値の画像1524vを表示させる。図23に示す例では、フレームレート値として、「30」「60」「90」「120」「240」が表示されている。設定部1072は、タッチパネル1052において、複数のフレームレート値の画像1524vの領域と重なるように新たにタッチ領域を設定する。使用者は複数のフレームレート値の画像1524vのいずれかをタッチする。タッチパネル1052は、使用者によりタッチされたフレームレート値の画像上のタッチ領域に対応する検出信号をシステム制御部1070に出力する。設定部1072は、タッチパネル1052からの検出信号に応じたフレームレートの値(例えば240fps)を設定する。 Then, the setting unit 1072 sets the frame rate of the moving image area based on the user's touch operation on the frame rate button image 1524 (step S1028). Specifically, the user touches the frame rate button image 1524 (that is, the touch area 1524a). Touch panel 1052 outputs a detection signal corresponding to touch area 1524 a touched by the user to system control section 1070 . As shown in FIG. 23, the display control unit 1071 displays images 1524v of a plurality of frame rate values next to the frame rate button image 1524 based on the detection signal corresponding to the touch area 1524a. In the example shown in FIG. 23, "30", "60", "90", "120", and "240" are displayed as frame rate values. The setting unit 1072 newly sets a touch area on the touch panel 1052 so as to overlap with the area of the image 1524v having a plurality of frame rate values. The user touches one of the multiple frame rate value images 1524v. Touch panel 1052 outputs to system control unit 1070 a detection signal corresponding to the touch area on the image of the frame rate value touched by the user. The setting unit 1072 sets a frame rate value (for example, 240 fps) according to the detection signal from the touch panel 1052 .

設定部1072は、ステップS1028において、フレームレート以外の撮像条件も設定する。例えば、設定部1072は、適正露出となるような電荷蓄積時間(露光時間)、ゲインなどを自動的に設定する。 The setting unit 1072 also sets imaging conditions other than the frame rate in step S1028. For example, the setting unit 1072 automatically sets the charge accumulation time (exposure time), the gain, and the like for proper exposure.

その後、AF処理部1074は、使用者によりAFボタン画像1525のタッチ操作が行われたか否かを判定する(ステップS1029)。そして、AF処理部1074は、使用者によりAFボタン画像1525のタッチ操作が行われたと判定した場合に、AF処理を実行する(ステップS1030)。具体的には、使用者は、AFボタン画像1525(すなわちタッチ領域1525a)をタッチする。タッチパネル1052は、使用者によりタッチされたタッチ領域1525aに対応する検出信号をシステム制御部1070に出力する。次に、使用者は、焦点位置の調節を行う被写体を選択するために、画像表示領域1510内の被写体をタッチする。例えば、使用者は、焦点位置の調節を行う被写体として図21及び図23に示す滝の被写体内のブロックB(i,j)をタッチする。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。AF処理部1074は、タッチパネル1052からの検出信号に基づいて、使用者によって選択されたブロックB(i,j)の被写体についての焦点調節処理(AF処理)を実行する。 After that, the AF processing unit 1074 determines whether or not the user has performed a touch operation on the AF button image 1525 (step S1029). When the AF processing unit 1074 determines that the user has performed a touch operation on the AF button image 1525, the AF processing unit 1074 executes AF processing (step S1030). Specifically, the user touches the AF button image 1525 (that is, the touch area 1525a). Touch panel 1052 outputs a detection signal corresponding to touch area 1525 a touched by the user to system control section 1070 . Next, the user touches a subject within image display area 1510 in order to select a subject whose focus position is to be adjusted. For example, the user touches the block B(i, j) within the subject of the waterfall shown in FIGS. 21 and 23 as the subject whose focal position is to be adjusted. Touch panel 1052 outputs a detection signal corresponding to touch area P(i, j) touched by the user to system control section 1070 . Based on the detection signal from the touch panel 1052, the AF processing unit 1074 executes focus adjustment processing (AF processing) for the object in block B(i, j) selected by the user.

すなわち、AF処理部1074は、フォーカシング用レンズ11cを移動させながら、画像処理部1030からのコントラスト信号に基づいて、滝の被写体像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部1074は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御情報をレンズ駆動制御装置15に送信する。 That is, while moving the focusing lens 11c, the AF processing unit 1074 detects the position of the focusing lens 11c at which the subject image of the waterfall has the highest contrast as the focus position based on the contrast signal from the image processing unit 1030. do. The AF processing unit 1074 transmits control information to the lens driving control device 15 so as to move the focusing lens 11c to the detected focal position.

図20のステップS1021において、設定部1072は、使用者により領域設定モードとして「マニュアル」が選択されたと判定した場合は(ステップS1021のNO)、画像表示領域1510内の領域が選択可能な状態、すなわち、タッチパネル1052がタッチ操作を検出可能な状態に設定する。その後、使用者は、画像表示領域1510に設定されているブロックB(i,j)を指でタッチすること(又は指でなぞる)ことにより、画像表示領域1510内の領域をブロック単位で選択する。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。 In step S1021 of FIG. 20, when the setting unit 1072 determines that the user has selected “manual” as the region setting mode (NO in step S1021), the region within the image display region 1510 is selectable, That is, touch panel 1052 is set to a state in which touch operation can be detected. After that, the user touches (or traces) the block B(i, j) set in the image display area 1510 with a finger, thereby selecting an area within the image display area 1510 block by block. . Touch panel 1052 outputs a detection signal corresponding to touch area P(i, j) touched by the user to system control section 1070 .

設定部1072は、タッチパネル1052からの検出信号に基づいて、使用者によって選択された選択領域を認識する。図21に示す例では、使用者によって選択領域1511が選択されたものとする。設定部1072は、認識した選択領域1512に対応する画素領域113A内の選択領域(図22中の領域1211)を設定する(ステップS1024)。具体的には、設定部1072は、駆動部1021に対して選択領域1211のブロックの位置などを指示する指示信号を出力する。なお、図21に示すように、設定部1072は、被写体の不規則な動きが生じた場合でも被写体の静止画を撮像することができるように、使用者が選択した領域よりも少し広めの領域を選択領域1511として設定してもよい。 Setting unit 1072 recognizes the selection area selected by the user based on the detection signal from touch panel 1052 . In the example shown in FIG. 21, it is assumed that the selection area 1511 has been selected by the user. The setting unit 1072 sets a selected area (area 1211 in FIG. 22) in the pixel area 113A corresponding to the recognized selected area 1512 (step S1024). Specifically, the setting unit 1072 outputs an instruction signal to the driving unit 1021 to instruct the positions of the blocks in the selection area 1211 and the like. Note that, as shown in FIG. 21, the setting unit 1072 selects an area that is slightly wider than the area selected by the user so that a still image of the subject can be captured even if the subject moves irregularly. may be set as the selection area 1511 .

次に、設定部1072は、ステップS1003においてタッチ動画の操作が行われたか否か、すなわち、ステップS1003において使用者によりタッチ動画ボタン画像1522がタッチされたか否かを判定する(ステップS1025)。設定部1072は、使用者によりタッチ動画ボタン画像1522がタッチされたと判定した場合は、選択領域1211(図21の選択領域1511)を動画領域として設定する(ステップS1026)。 Next, the setting unit 1072 determines whether or not the touch moving image has been operated in step S1003, that is, whether or not the user has touched the touch moving image button image 1522 in step S1003 (step S1025). When the setting unit 1072 determines that the user has touched the touch moving image button image 1522, the setting unit 1072 sets the selection area 1211 (the selection area 1511 in FIG. 21) as the moving image area (step S1026).

そして、設定部1072は、上記した場合と同様に、使用者によるフレームレートボタン画像1524のタッチ操作に基づいて、動画領域のフレームレートを設定する(ステップS1028)。また、設定部1072は、ステップS1028において、フレームレート以外の撮像条件も設定する。例えば、設定部1072は、適正露出となるような電荷蓄積時間(露光時間)、ゲインなどを自動的に設定する。その後、AF処理部1074は、上記した場合と同様に、使用者によりAFボタン画像1525のタッチ操作が行われたことに基づいて(ステップS1029のYES)、AF処理を実行する(ステップS1030)。 Then, similarly to the case described above, the setting unit 1072 sets the frame rate of the moving image area based on the user's touch operation on the frame rate button image 1524 (step S1028). The setting unit 1072 also sets imaging conditions other than the frame rate in step S1028. For example, the setting unit 1072 automatically sets the charge accumulation time (exposure time), the gain, and the like for proper exposure. Thereafter, the AF processing unit 1074 executes AF processing (step S1030) when the user touches the AF button image 1525 (YES in step S1029).

(2)使用者によりタッチ静止画ボタン画像1523がタッチされた場合:
図24は、使用者が静止画領域1512を設定するときの表示パネル1051の表示例を示す図である。また、図25は、撮像素子1100の画素領域113Aにおける静止画領域1212を示す図である。なお、使用者によりタッチ静止画ボタン画像1523がタッチされた場合も、図20に示す設定処理(ステップS1004)が実行される。
(2) When the user touches the touch still image button image 1523:
FIG. 24 is a diagram showing a display example of the display panel 1051 when the user sets the still image area 1512. As shown in FIG. Also, FIG. 25 is a diagram showing a still image area 1212 in the pixel area 113A of the image sensor 1100. As shown in FIG. Also when the user touches the touch still image button image 1523, the setting process (step S1004) shown in FIG. 20 is executed.

図24に示すように、表示制御部1071は、タッチ領域1523aに対応する検出信号に基づいて、タッチ静止画ボタン画像1523の横に、領域設定モードの画像1523vとして「オート」及び「マニュアル」を表示させる。設定部1072は、タッチパネル1052において、領域設定モードの画像1523vの領域(「オート」及び「マニュアル」の領域)と重なるように新たにタッチ領域を設定する。使用者は領域設定モードの画像1523vとして「オート」又は「マニュアル」をタッチする。タッチパネル1052は、使用者によりタッチされた「オート」又は「マニュアル」のタッチ領域に対応する検出信号をシステム制御部1070に出力する。 As shown in FIG. 24, the display control unit 1071 displays “auto” and “manual” as an area setting mode image 1523v next to the touch still image button image 1523 based on the detection signal corresponding to the touch area 1523a. display. The setting unit 1072 newly sets a touch area on the touch panel 1052 so as to overlap the area of the image 1523v in the area setting mode (“auto” and “manual” areas). The user touches "auto" or "manual" as the area setting mode image 1523v. The touch panel 1052 outputs a detection signal corresponding to the “auto” or “manual” touch area touched by the user to the system control unit 1070 .

図20に示す処理において、設定部1072は、「オート」又は「マニュアル」のタッチ領域に対応する検出信号に基づいて、使用者によって領域設定モードとして「オート」が選択されたか「マニュアル」が選択されたかを判定する(ステップS1021)。設定部1072は、使用者により領域設定モードとして「オート」が選択されたと判定した場合は(ステップS1021のYES)、画像表示領域1510内の領域が選択可能な状態、すなわち、タッチパネル1052がタッチ操作を検出可能な状態に設定する。その後、使用者は、画像表示領域1510に表示されている被写体のブロックB(i,j)を指でタッチすることにより、画像表示領域1510に表示されている被写体を選択する。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。 In the process shown in FIG. 20, the setting unit 1072 determines whether the user has selected "auto" or "manual" as the area setting mode based on the detection signal corresponding to the "auto" or "manual" touch area. It is determined whether it has been done (step S1021). If the setting unit 1072 determines that the user has selected “auto” as the area setting mode (YES in step S1021), the area within the image display area 1510 is selectable, that is, the touch panel 1052 is touch operated. to be discoverable. Thereafter, the user selects a subject displayed in image display area 1510 by touching block B(i, j) of the subject displayed in image display area 1510 with a finger. Touch panel 1052 outputs a detection signal corresponding to touch area P(i, j) touched by the user to system control section 1070 .

設定部1072は、タッチパネル1052からの検出信号に基づいて、使用者によって選択されたブロックB(i,j)を認識する。図24に示す例では、使用者によって領域1512(図24中の白線が引かれている領域)内の所定のブロックB(i,j)が選択されたものとする。設定部1072は、使用者により選択された所定のブロックB(i,j)の位置を示す位置信号を画像処理部1030に出力することにより、検出部1032に被写体の検出を実行させる(ステップS1022)。検出部1032は、システム制御部1070からの位置信号が示す位置のブロックを認識する。そして、検出部1032は、認識したブロックを含む被写体を検出する。具体的には、検出部1032は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体(図24中の滝の後ろの背景)の境界を特定して被写体を検出する。検出部1032は、検出した被写体の位置及び範囲を示す被写体検出信号をシステム制御部1070に出力する。 Setting unit 1072 recognizes block B(i, j) selected by the user based on the detection signal from touch panel 1052 . In the example shown in FIG. 24, it is assumed that the user has selected a predetermined block B(i, j) within area 1512 (the area with white lines in FIG. 24). The setting unit 1072 outputs a position signal indicating the position of the predetermined block B(i,j) selected by the user to the image processing unit 1030, thereby causing the detection unit 1032 to detect the object (step S1022). ). The detector 1032 recognizes the block at the position indicated by the position signal from the system controller 1070 . Then, the detection unit 1032 detects a subject including the recognized block. Specifically, the detection unit 1032 detects the subject by identifying the boundary of the subject (the background behind the waterfall in FIG. 24) based on the contrast and color change between the bright and dark areas in the image data. The detection unit 1032 outputs a subject detection signal indicating the position and range of the detected subject to the system control unit 1070 .

設定部1072は、画像処理部1030からの被写体検出信号に基づいて、検出部1032が検出した被写体の位置及び範囲を認識する。そして、設定部1072は、認識した被写体の位置及び範囲に応じた被写体領域(図24中の領域1512)に対応する画素領域113A内の被写体領域(図25中の領域1212)を設定する(ステップS1023)。具体的には、設定部1072は、駆動部1021に対して被写体領域1212のブロックの位置などを指示する指示信号を出力する。 The setting unit 1072 recognizes the position and range of the object detected by the detection unit 1032 based on the object detection signal from the image processing unit 1030 . Then, the setting unit 1072 sets a subject area (area 1212 in FIG. 25) within the pixel area 113A corresponding to the subject area (area 1512 in FIG. 24) according to the recognized subject position and range (step S1023). Specifically, the setting unit 1072 outputs an instruction signal to the driving unit 1021 to instruct the positions of the blocks in the subject region 1212 and the like.

次に、設定部1072は、ステップS1003においてタッチ動画の操作が行われたか否か、すなわち、ステップS1003において使用者によりタッチ動画ボタン画像1522がタッチされたか否かを判定する(ステップS1025)。設定部1072は、使用者によりタッチ動画ボタン画像1522がタッチされたのではなく、タッチ静止画ボタン画像1523がタッチされたと判定した場合は、被写体領域1212(図24の被写体領域1512)を静止画領域として設定する(ステップS1027)。 Next, the setting unit 1072 determines whether or not the touch moving image has been operated in step S1003, that is, whether or not the user has touched the touch moving image button image 1522 in step S1003 (step S1025). If the setting unit 1072 determines that the user touches the touch still image button image 1523 instead of the touch moving image button image 1522, the setting unit 1072 sets the subject region 1212 (the subject region 1512 in FIG. 24) to the still image. A region is set (step S1027).

設定部1072は、ステップS1028において、フレームレート以外の撮像条件を設定する(ステップS1028)。例えば、設定部1072は、適正露出となるような電荷蓄積時間(露光時間)、ゲインなどを自動的に設定する。なお、設定部1072がステップS1027で静止画領域を設定した場合は、フレームレートの設定処理を実行しない。 In step S1028, the setting unit 1072 sets imaging conditions other than the frame rate (step S1028). For example, the setting unit 1072 automatically sets a charge accumulation time (exposure time), a gain, and the like that provide proper exposure. Note that when the setting unit 1072 sets the still image area in step S1027, the frame rate setting process is not executed.

その後、AF処理部1074は、上記した場合と同様に、使用者によりAFボタン画像1525のタッチ操作が行われたか否かを判定する(ステップS1029)。そして、AF処理部1074は、使用者によりAFボタン画像1525のタッチ操作が行われたと判定した場合に、AF処理を実行する(ステップS1030)。 After that, the AF processing unit 1074 determines whether or not the user has performed a touch operation on the AF button image 1525 (step S1029). When the AF processing unit 1074 determines that the user has performed a touch operation on the AF button image 1525, the AF processing unit 1074 executes AF processing (step S1030).

図20のステップS1021において、設定部1072は、使用者により領域設定モードとして「マニュアル」が選択されたと判定した場合は(ステップS1021のNO)、画像表示領域1510内の領域が選択可能な状態、すなわち、タッチパネル1052がタッチ操作を検出可能な状態に設定する。その後、使用者は、画像表示領域1510に設定されているブロックB(i,j)を指でタッチすること(又は指でなぞる)ことにより、画像表示領域1510内の領域をブロック単位で選択する。タッチパネル1052は、使用者によりタッチされたタッチ領域P(i,j)に対応する検出信号をシステム制御部1070に出力する。 In step S1021 of FIG. 20, when the setting unit 1072 determines that the user has selected “manual” as the region setting mode (NO in step S1021), the region within the image display region 1510 is selectable, That is, touch panel 1052 is set to a state in which touch operation can be detected. After that, the user touches (or traces) the block B(i, j) set in the image display area 1510 with a finger, thereby selecting an area within the image display area 1510 block by block. . Touch panel 1052 outputs a detection signal corresponding to touch area P(i, j) touched by the user to system control section 1070 .

設定部1072は、タッチパネル1052からの検出信号に基づいて、使用者によって選択された選択領域を認識する。図24に示す例では、使用者によって選択領域1512が選択されたものとする。設定部1072は、認識した選択領域1512に対応する画素領域113A内の選択領域(図25中の領域1212)を設定する(ステップS1024)。具体的には、設定部1072は、駆動部1021に対して選択領域1212のブロックの位置などを指示する指示信号を出力する。 Setting unit 1072 recognizes the selection area selected by the user based on the detection signal from touch panel 1052 . In the example shown in FIG. 24, it is assumed that the selection area 1512 has been selected by the user. The setting unit 1072 sets a selected area (area 1212 in FIG. 25) within the pixel area 113A corresponding to the recognized selected area 1512 (step S1024). Specifically, the setting unit 1072 outputs an instruction signal to the driving unit 1021 to instruct the positions of the blocks in the selection area 1212 and the like.

次に、設定部1072は、ステップS1003においてタッチ動画の操作が行われたか否か、すなわち、ステップS1003において使用者によりタッチ動画ボタン画像1522がタッチされたか否かを判定する(ステップS1025)。設定部1072は、使用者によりタッチ動画ボタン画像1522がタッチされたのではなく、タッチ静止画ボタン画像1523がタッチされたと判定した場合は、選択領域1212(図24の選択領域1512)を静止画領域として設定する(ステップS1028)。 Next, the setting unit 1072 determines whether or not the touch moving image has been operated in step S1003, that is, whether or not the user has touched the touch moving image button image 1522 in step S1003 (step S1025). If the setting unit 1072 determines that the user touched the touch still image button image 1523 instead of the touch moving image button image 1522, the setting unit 1072 sets the selection area 1212 (selection area 1512 in FIG. 24) to the still image. Set as an area (step S1028).

そして、設定部1072は、上記した場合と同様に、フレームレート以外の撮像条件も設定する(ステップS1028)。例えば、設定部1072は、適正露出となるような電荷蓄積時間(露光時間)、ゲインなどを自動的に設定する。その後、AF処理部1074は、上記した場合と同様に、使用者によりAFボタン画像1525のタッチ操作が行われたことに基づいて(ステップS1029のYES)、AF処理を実行する(ステップS1030)。 Then, the setting unit 1072 also sets imaging conditions other than the frame rate, as in the case described above (step S1028). For example, the setting unit 1072 automatically sets the charge accumulation time (exposure time), the gain, and the like for proper exposure. Thereafter, the AF processing unit 1074 executes AF processing (step S1030) when the user touches the AF button image 1525 (YES in step S1029).

なお、AF処理(ステップS1030)では、使用者が選択した被写体(領域)の焦点調節が行われる。使用者が滝の被写体(動画領域)を選択した場合は、滝の被写体に対する焦点調節が行われる。また、使用者が滝の後ろの背景の被写体(静止画領域)を選択した場合は、滝の後ろの被写体に対する焦点調節が行われる。一般的には、焦点調節の対象の被写体は、使用者が注目している被写体とされる。AF処理部1074は静止画領域において静止画を撮像する場合にだけ静止画領域に対するAF処理を実行するようにしてもよい。 Note that in the AF processing (step S1030), the subject (region) selected by the user is focused. When the user selects the subject of the waterfall (moving image area), the focus of the subject of the waterfall is adjusted. Also, when the user selects the background subject (still image area) behind the waterfall, the subject behind the waterfall is focused. In general, the subject targeted for focus adjustment is the subject that the user is paying attention to. The AF processing unit 1074 may perform AF processing for a still image area only when a still image is captured in the still image area.

以上のような図19のステップS1001~S1004の処理は、使用者により操作部1055の録画スイッチが押されるまで繰り返し実行される。なお、撮像素子1100はブロック単位で動画又は静止画を撮像することが可能である。従って、設定部1072は、使用者のタッチパネル1052のタッチ操作に応じて、複数の動画領域を設定することが可能である。また、設定部1072は、使用者のタッチパネル1052のタッチ操作に応じて、複数の静止画領域を設定することも可能である。また、設定部1072は、使用者のタッチパネル1052のタッチ操作に応じて、動画領域として設定した領域を静止画領域に設定し直すことも可能であり、静止画領域として設定した領域を動画領域として設定し直すことも可能である。また、設定部1072は、動画領域として設定した領域内において静止画領域を設定することも可能である。また、設定部1072は、静止画領域として設定した領域内において動画領域を設定することも可能である。 The processing of steps S1001 to S1004 in FIG. 19 as described above is repeatedly executed until the recording switch of the operation unit 1055 is pressed by the user. Note that the image sensor 1100 can capture moving images or still images in units of blocks. Therefore, the setting unit 1072 can set a plurality of moving image areas according to the user's touch operation on the touch panel 1052 . The setting unit 1072 can also set a plurality of still image areas according to the user's touch operation on the touch panel 1052 . In addition, the setting unit 1072 can reset an area set as a moving image area to a still image area according to a user's touch operation on the touch panel 1052, and can set an area set as a still image area as a moving image area. It is also possible to reset. The setting unit 1072 can also set a still image area within the area set as the moving image area. The setting unit 1072 can also set a moving image area within the area set as the still image area.

ステップS1004の設定処理において、設定部1072により動画領域や静止画領域が設定された場合は、ステップS1001において、撮像制御部1073は、撮像素子1100を駆動制御することにより、動画領域において動画の撮像を行い、静止画領域において静止画の撮像を行う。また、ステップS2において、表示制御部1071は、撮像素子1100で撮像された部分動画(部分動画のライブビュー画像)を表示パネル1051の画像表示領域1510に表示させる。これにより、使用者は、どのような部分動画が撮像されるかを事前に確認することができる。 In the setting process in step S1004, if the setting unit 1072 sets a moving image area or a still image area, in step S1001, the imaging control unit 1073 drives and controls the imaging device 1100 to capture a moving image in the moving image area. is performed, and a still image is captured in the still image area. In step S<b>2 , the display control unit 1071 causes the image display area 1510 of the display panel 1051 to display the partial moving image (live view image of the partial moving image) captured by the imaging device 1100 . This allows the user to confirm in advance what kind of partial moving image is to be captured.

システム制御部1070が使用者による動画スイッチの操作が行われたと判定した場合は(ステップS1005のYES)、撮像制御部1073は、撮像処理を実行する(ステップS1006)。このとき、ステップS1004の設定処理において、設定部1072により動画領域や静止画領域が設定された場合は、ステップS1006において、撮像制御部1073は、撮像素子1100を駆動制御することにより、動画領域において動画の撮像を行い、静止画領域において静止画の撮像を行う。また、表示制御部1071は、撮像素子1100で撮像された画像を表示パネル1051の画像表示領域1510に表示させる(ステップS1007)。このとき、ステップS1004の設定処理において、設定部1072により動画領域や静止画領域が設定された場合は、ステップS1007において、表示制御部1071は、撮像素子1100で撮像された部分動画を表示パネル1051の画像表示領域1510に表示させる。これにより、使用者は、どのような部分動画が撮像されているかを確認することができる。なお、撮像素子1100で撮像された画像(動画、部分動画)は、撮像制御部1073により記録部1060に記録される。 When the system control unit 1070 determines that the moving image switch has been operated by the user (YES in step S1005), the imaging control unit 1073 executes imaging processing (step S1006). At this time, if the setting unit 1072 sets a moving image area or a still image area in the setting process in step S1004, the imaging control unit 1073 drives and controls the imaging device 1100 in step S1006 to A moving image is captured, and a still image is captured in the still image area. Further, the display control unit 1071 displays the image captured by the image sensor 1100 in the image display area 1510 of the display panel 1051 (step S1007). At this time, if the setting unit 1072 sets a moving image area or a still image area in the setting process in step S1004, the display control unit 1071 displays the partial moving image captured by the image sensor 1100 on the display panel 1051 in step S1007. is displayed in the image display area 1510 of . Thereby, the user can confirm what kind of partial moving image is captured. An image (moving image, partial moving image) captured by the imaging device 1100 is recorded in the recording unit 1060 by the imaging control unit 1073 .

次に、設定部1072は、使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523のタッチ操作が行われたか否かを判定する(ステップS1008)。設定部1072は、使用者によりタッチ動画ボタン画像1522又はタッチ静止画ボタン画像1523のタッチ操作が行われたと判定した場合は、領域(動画領域、静止画領域)や撮像条件などを設定する設定処理を実行する(ステップS1009)。ステップS1009の設定処理は、図20に示したステップS1004の設定処理と同様である。すなわち、設定部1072は、表示部1050の表示パネル1051にライブビュー画像を表示させているときに設定処理(ステップS1004)を行うだけでなく、動画(部分動画を含む)の撮像中においても設定処理(ステップS1009)を行う。 Next, the setting unit 1072 determines whether or not the user has performed a touch operation on the touch moving image button image 1522 or the touch still image button image 1523 (step S1008). If the setting unit 1072 determines that the user has performed a touch operation on the touch moving image button image 1522 or the touch still image button image 1523, the setting unit 1072 performs setting processing for setting an area (moving image area, still image area), imaging conditions, and the like. is executed (step S1009). The setting process in step S1009 is the same as the setting process in step S1004 shown in FIG. That is, the setting unit 1072 not only performs the setting process (step S1004) while displaying the live view image on the display panel 1051 of the display unit 1050, but also performs the setting process during capturing of moving images (including partial moving images). Processing (step S1009) is performed.

この場合においても、設定部1072は、使用者のタッチパネル1052のタッチ操作に応じて、動画領域として設定した領域を静止画領域に設定し直すことも可能であり、静止画領域として設定した領域を動画領域として設定し直すことも可能である。また、設定部1072は、動画領域として設定した領域内において静止画領域を設定することも可能である。また、設定部1072は、静止画領域として設定した領域内において動画領域を設定することも可能である。 Even in this case, the setting unit 1072 can reset the area set as the moving image area to the still image area in accordance with the user's touch operation on the touch panel 1052. It is also possible to reset it as a moving image area. The setting unit 1072 can also set a still image area within the area set as the moving image area. The setting unit 1072 can also set a moving image area within the area set as the still image area.

図19のステップS1006~S1009の処理は、使用者により操作部1055の録画スイッチが押されて録画の終了となるまで繰り返し実行される。システム制御部1070が使用者による動画スイッチの操作が行われたと判定した場合は(ステップS1010のYES)、撮像制御部1073は、記録部1060に記録した動画データ(部分動画のデータを含む)のファイル化を行う(ステップS1011)。例えば、撮像制御部1073は、動画データ(部分動画のデータを含む)のファイルに名前を付け、撮影日時などの情報を付加する。そして、撮像制御部1073は、動画データ(部分動画のデータを含む)のファイルを記録部1060に保存する(ステップS1012)。 The processing of steps S1006 to S1009 in FIG. 19 is repeatedly executed until the user presses the recording switch of the operation unit 1055 to end recording. When the system control unit 1070 determines that the moving image switch has been operated by the user (YES in step S1010), the imaging control unit 1073 controls the moving image data (including partial moving image data) recorded in the recording unit 1060. A file is created (step S1011). For example, the imaging control unit 1073 names files of moving image data (including data of partial moving images), and adds information such as shooting date and time. Then, the imaging control unit 1073 saves a file of moving image data (including partial moving image data) in the recording unit 1060 (step S1012).

なお、図19においてステップS1004又はステップS1009の設定処理(図20)が実行されなかった場合は、通常の動画が撮像されることになる。 Note that if the setting process (FIG. 20) in step S1004 or step S1009 in FIG. 19 is not executed, a normal moving image will be captured.

以上に説明したように、第7実施形態では、撮像素子1100を有し、撮像素子1100の撮像領域113Aにおいて動画と静止画のうち少なくともいずれか一方を撮像可能な撮像部1020と、撮像部1020により撮像領域113Aにおいて動画を撮像中に、撮像領域113A内に第1領域(例えば図22の領域1211又は図25の領域1212)を設定する設定部1072と、設定部1072により第1領域が設定されると、第1領域と第1領域とは異なる第2領域(例えば図22の領域1211又は図25の領域1212)とのいずれか一方について動画を生成し、他方について静止画を生成する画像生成部1031と、を備える。このような構成によれば、撮像素子1100を用いて動画の撮像中に画像の一部分が動画で他の部分が静止画である画像(部分動画)を生成することができる。 As described above, in the seventh embodiment, the imaging unit 1020 has the imaging element 1100 and can capture at least one of a moving image and a still image in the imaging area 113A of the imaging element 1100, and the imaging unit 1020 A setting unit 1072 that sets a first area (for example, the area 1211 in FIG. 22 or the area 1212 in FIG. 25) in the imaging area 113A while a moving image is being captured in the imaging area 113A by the setting unit 1072. Then, a moving image is generated for one of the first area and a second area different from the first area (for example, the area 1211 in FIG. 22 or the area 1212 in FIG. 25), and a still image is generated for the other area. and a generation unit 1031 . According to such a configuration, it is possible to generate an image (partial moving image) in which a portion of the image is a moving image and the other portion is a still image while capturing a moving image using the imaging device 1100 .

また、上記のような構成によれば、記録部1060の記録容量を少なくすることができる。すなわち、従来は、使用者がデジタルカメラ1001で動画を撮像した後に、動画を編集することにより部分動画を作成していた。しかし、このような構成では、撮像素子のすべての撮像領域で撮像した動画データ分の容量が必要となる。また、編集前の動画データを残しておきたい場合には、編集後の部分動画のデータと、編集前の動画データを記録部に記録することとなり、記録部は大きな記録容量が必要となる。一方、上記のような構成では、撮像素子1100を用いて動画の撮像中に部分動画を生成することができるので、記録部1060は部分動画のデータ分の容量だけでよい。従って、記録部1060の記録容量を少なくすることができる。 Moreover, according to the configuration as described above, the recording capacity of the recording unit 1060 can be reduced. That is, conventionally, after the user captures a moving image with the digital camera 1001, the partial moving image is created by editing the moving image. However, such a configuration requires a capacity for moving image data captured in all imaging areas of the image sensor. Also, if it is desired to keep the moving image data before editing, the data of the partial moving image after editing and the moving image data before editing are recorded in the recording unit, and the recording unit requires a large recording capacity. On the other hand, in the configuration as described above, since a partial moving image can be generated while capturing a moving image using the image sensor 1100, the recording unit 1060 only needs a capacity for the data of the partial moving image. Therefore, the recording capacity of the recording unit 1060 can be reduced.

また、上記のような構成によれば、撮像素子1100の一部の領域についてだけ動画を撮像するので、消費電力を低減させることができる。また、撮像部1020による動画の撮像中において設定部1072がリアルタイムに第1領域を設定することができるので、使用者は動画の撮像中において部分動画を編集することができる。 Moreover, according to the configuration as described above, since a moving image is captured only in a partial area of the image sensor 1100, power consumption can be reduced. In addition, since the setting unit 1072 can set the first area in real time while the imaging unit 1020 is capturing the moving image, the user can edit the partial moving image while capturing the moving image.

また、第7実施形態では、撮像部1020により撮像された動画と静止画のうち少なくともいずれか一方から被写体を検出する検出部1032を備え、設定部1072は、検出部1032により検出された一又は複数の被写体の領域を第1領域として設定する。このような構成によれば、設定部1072は被写体の形や範囲などに応じた領域を第1領域として設定することができる。従って、例えば被写体の形状が複雑な形状であったり、被写体の範囲が小さな範囲であっても、設定部1072は被写体の領域を第1領域として容易に設定することができる。また、使用者による部分動画の作成作業も簡易化される。 Further, in the seventh embodiment, the detection unit 1032 detects the subject from at least one of the moving image and the still image captured by the imaging unit 1020, and the setting unit 1072 detects one or more A plurality of subject areas is set as a first area. With such a configuration, the setting unit 1072 can set an area according to the shape and range of the subject as the first area. Therefore, for example, even if the subject has a complicated shape or the range of the subject is small, the setting unit 1072 can easily set the subject area as the first area. In addition, the work of creating partial moving images by the user is also simplified.

また、第7実施形態では、撮像部1020により撮像された動画と静止画の少なくともいずれか一方を表示部1050に表示させる表示制御部1071と、表示部1050に表示された動画と静止画の少なくともいずれか一方において、第1領域を選択可能な選択部1052と、をさらに備える。このような構成によれば、使用者が任意の領域を第1領域として選択することができる。従って、使用者の好みに応じた部分動画を作成することができる。また、第7実施形態では、選択部1052は、表示部1050に形成されたタッチパネル1052を有するので、使用者による操作の利便性が向上する。 In the seventh embodiment, the display control unit 1071 displays at least one of the moving image and the still image captured by the imaging unit 1020 on the display unit 1050, and at least one of the moving image and the still image displayed on the display unit 1050 Either one of them further includes a selection unit 1052 capable of selecting the first area. According to such a configuration, the user can select any area as the first area. Therefore, it is possible to create a partial moving image according to the user's preference. Further, in the seventh embodiment, since the selection unit 1052 has the touch panel 1052 formed on the display unit 1050, the convenience of operation by the user is improved.

また、第7実施形態では、設定部1072は、撮像部1020により撮像されたライブビュー画像を表示部1050に表示させているときに、第1領域を設定する。このような構成によれば、使用者はどのような部分動画が撮像されるかを事前に確認することができる。また、第7実施形態では、動画のフレームレートを設定するフレームレート設定部1072を備える。このような構成によれば、動画の動きの滑らかさを適宜変更することができる。また、フレームレートに応じてスローモーション動画として記録部1060に記録し、又はハイスピード動画として記録部1060に記録することも可能となる。また、第7実施形態では、フレームレート設定部1072は、動画が生成される第1領域または第2領域が複数ある場合、領域毎に動画のフレームレートを異ならせる。このような構成によれば、領域毎に動画の動きの滑らかさを変更することができる。よって、より面白みのある部分動画を作成することができる。 Further, in the seventh embodiment, the setting unit 1072 sets the first area while displaying the live view image captured by the imaging unit 1020 on the display unit 1050 . According to such a configuration, the user can confirm in advance what kind of partial moving image is to be captured. The seventh embodiment also includes a frame rate setting unit 1072 that sets the frame rate of moving images. According to such a configuration, it is possible to appropriately change the smoothness of motion of moving images. It is also possible to record in the recording unit 1060 as a slow-motion moving image or as a high-speed moving image in the recording unit 1060 according to the frame rate. Further, in the seventh embodiment, when there are a plurality of first regions or second regions in which moving images are generated, the frame rate setting unit 1072 makes the frame rate of moving images different for each region. According to such a configuration, it is possible to change the smoothness of motion of the moving image for each area. Therefore, a more interesting partial moving image can be created.

なお、上記した第7実施形態において、設定部1072が使用者のタッチ操作に応じて動画領域を設定した場合、画素領域113Aにおける動画領域以外の領域を自動的に静止画領域として設定するようにしてもよい。また、設定部1072が使用者のタッチ操作に応じて静止画領域を設定した場合、画素領域113Aにおける静止画領域以外の領域を自動的に動画領域として設定するようにしてもよい。 In the seventh embodiment described above, when the setting unit 1072 sets the moving image area according to the user's touch operation, the area other than the moving image area in the pixel area 113A is automatically set as the still image area. may Further, when the setting unit 1072 sets the still image area according to the user's touch operation, the area other than the still image area in the pixel area 113A may be automatically set as the moving image area.

なお、上記した第7実施形態では、電子機器の一例としてデジタルカメラ1001を挙げていたが、これに限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図17に示す画像処理部1030とシステム制御部1070は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部1030の機能とシステム制御部1070の機能を担う。 In the above-described seventh embodiment, the digital camera 1001 is used as an example of an electronic device, but the electronic device is not limited to this. good too. Further, the image processing unit 1030 and the system control unit 1070 shown in FIG. 17 may be integrated. In this case, the system control unit having one body-side CPU performs the functions of the image processing unit 1030 and the system control unit 1070 by executing processing based on the control program.

<第8実施形態>
上記した第7実施形態では、撮像部1020が非移動被写体(図21等に示した滝及びその後ろの背景のような移動しない被写体)を撮像する場合を例として説明したが、撮像部1020が人物のような移動する移動被写体を撮像する場合にも適用することができる。しかし、撮像部1020が移動被写体を撮像する場合、移動被写体の移動に伴って画像データ(静止画の画像データ)が欠損してしまうことがある。そこで、第8実施形態では、移動被写体の移動に伴って欠損する画像データを補完する技術を提案する。
<Eighth embodiment>
In the above-described seventh embodiment, the case where the imaging unit 1020 captures an image of a non-moving subject (a non-moving subject such as the waterfall shown in FIG. 21 and the background behind it) has been described as an example. It can also be applied to imaging a moving subject such as a person. However, when the imaging unit 1020 captures an image of a moving subject, image data (image data of a still image) may be lost as the moving subject moves. Therefore, the eighth embodiment proposes a technique for complementing image data lost due to movement of a moving subject.

図26は、移動被写体O30の領域1513を動画領域として設定するときの表示パネル1051の表示例を示す図である。図19のステップS1004又はステップS1009の設定処理において、設定部1072は、使用者により領域設定モードとして「オート」が選択されたと判定し(図20のステップS1021参照)、検出部1032が検出した移動被写体である人物O30に応じた被写体領域1513を設定し(図20のステップS1022、S1023参照)、被写体領域1513を動画領域として設定したものとする(図20のステップS1026参照)。また、設定部1072は、使用者により領域設定モードとして「オート」が選択されたと判定し(図20のステップS1021参照)、検出部1032が検出した被写体領域1513以外の領域を設定し(図20のステップS1022、S1023参照)、被写体領域1513以外の領域を静止画領域として設定したものとする(図20のステップS1027参照)。 FIG. 26 is a diagram showing a display example of the display panel 1051 when setting the area 1513 of the moving object O30 as the moving image area. In the setting process in step S1004 or step S1009 in FIG. 19, the setting unit 1072 determines that the user has selected “auto” as the region setting mode (see step S1021 in FIG. 20), and the movement detected by the detection unit 1032 is Assume that a subject area 1513 corresponding to the person O30 who is the subject is set (see steps S1022 and S1023 in FIG. 20), and the subject area 1513 is set as a moving image area (see step S1026 in FIG. 20). Further, the setting unit 1072 determines that the user has selected “auto” as the area setting mode (see step S1021 in FIG. 20), and sets an area other than the subject area 1513 detected by the detection unit 1032 (see FIG. 20). (see steps S1022 and S1023 in FIG. 20), and an area other than the subject area 1513 is set as the still image area (see step S1027 in FIG. 20).

上述したように、図19のステップS1006の撮像処理において、撮像制御部1073が動画領域(図26に示す例では被写体領域1513)において動画を撮像させるとともに、静止画領域(図26に示す例では被写体領域1513以外の領域)において静止画を撮像させる。本実施形態では、設定部1072は、図26に示すように移動被写体である人物O30が移動すると、被写体領域1513も移動させる。すなわち、設定部1072は、移動被写体を追尾するように被写体領域1513を設定する。撮像制御部1073が静止画領域において静止画を撮像させた後に、被写体領域1513が移動すると、撮像された静止画の画像データのうち、被写体領域1513の部分の画像データが欠損してしまう。 As described above, in the image capturing process in step S1006 in FIG. 19, the image capturing control unit 1073 captures a moving image in the moving image area (subject area 1513 in the example illustrated in FIG. 26) and still image area (in the example illustrated in FIG. A still image is captured in a region other than the subject region 1513). In this embodiment, the setting unit 1072 also moves the subject area 1513 when the person O30, which is the moving subject, moves as shown in FIG. That is, the setting unit 1072 sets the subject area 1513 so as to track the moving subject. If the subject region 1513 moves after the imaging control unit 1073 captures a still image in the still image region, the image data of the subject region 1513 portion of the image data of the captured still image is lost.

図27は、第8実施形態における撮像処理を示すフローチャートである。また、図28は、移動被写体の移動に伴う画像の補完を説明するための図である。図27に示す撮像処理は、図19のステップS1006の処理に対応する。図26に示す処理において、撮像制御部1073は、ステップS1004又はステップS1009の設定処理において動画領域が設定された場合は(ステップS31のYES)、動画領域において動画を撮像させる(ステップS32)。図28に示す例では、撮像制御部1073は、動画領域としての被写体領域1513aにおいて動画を撮像させる。また、撮像制御部1073は、ステップS1004又はステップS1009の設定処理において静止画領域が設定された場合は(ステップS33のYES)、静止画領域において静止画を撮像させる(ステップS34)。図28に示す例では、撮像制御部1073は、被写体領域1513a以外の領域において静止画を撮像させる。 FIG. 27 is a flowchart showing imaging processing in the eighth embodiment. Also, FIG. 28 is a diagram for explaining complementation of an image accompanying movement of a moving subject. The imaging process shown in FIG. 27 corresponds to the process of step S1006 in FIG. In the process shown in FIG. 26, if a moving image area is set in the setting process of step S1004 or step S1009 (YES in step S31), the imaging control unit 1073 captures a moving image in the moving image area (step S32). In the example shown in FIG. 28, the imaging control unit 1073 causes the moving image to be captured in the subject area 1513a as the moving image area. Further, when a still image area is set in the setting process of step S1004 or step S1009 (YES in step S33), the image capturing control unit 1073 captures a still image in the still image area (step S34). In the example shown in FIG. 28, the image capturing control unit 1073 captures a still image in an area other than the subject area 1513a.

次に、撮像制御部1073は、動画領域が一定以上の距離を移動したか否かを判定する(ステップS35)。図28に示す例では、人物O30が移動して被写体領域1513aが被写体領域1513bに移動している。このとき、撮像制御部1073は、動画領域が一定以上の距離を移動したと判定する。撮像制御部1073は、動画領域が一定上の距離を移動したと判定した場合は、動画領域以外の領域(ここで、複数の動画領域が設定されている場合は、複数の動画領域以外の領域)において静止画を再度撮像させる(ステップS36)。図28に示す例では、撮像制御部1073は、被写体領域1513b以外の領域において静止画を撮像させる。そして、撮像制御部1073は、ステップS36で再撮像した静止画の画像データのうち、移動前の動画領域における静止画の画像データで、ステップS34で撮像した静止画の画像データの欠損部分を補完する(ステップS37)。図28に示す例では、撮像制御部1073は、ステップS36で再撮像した静止画の画像データのうち、被写体領域1513aの静止画の画像データで、ステップS34で撮像した静止画の画像データの欠損部分(被写体領域1513aの部分)を補完する。 Next, the imaging control unit 1073 determines whether or not the moving image area has moved a certain distance or more (step S35). In the example shown in FIG. 28, the person O30 has moved and the subject area 1513a has moved to the subject area 1513b. At this time, the imaging control unit 1073 determines that the moving image area has moved a distance equal to or greater than a certain distance. When the imaging control unit 1073 determines that the moving image area has moved a certain distance, the imaging control unit 1073 moves the area other than the moving image area. ), a still image is captured again (step S36). In the example shown in FIG. 28, the image capture control unit 1073 captures a still image in an area other than the subject area 1513b. Then, the image capturing control unit 1073 complements the missing portion of the image data of the still image captured in step S34 with the image data of the still image in the moving image area before the movement among the image data of the still image recaptured in step S36. (step S37). In the example shown in FIG. 28, the imaging control unit 1073 determines that the image data of the still image captured in step S34 is missing in the image data of the still image of the subject area 1513a among the image data of the still image recaptured in step S36. The part (the part of the subject area 1513a) is complemented.

このような構成によれば、移動被写体の移動に伴って画像データが欠損してしまった場合でも、その画像データを補完することができる。よって、画像データの欠損がある不自然な部分動画が生成されてしまうことを防止することができる。 According to such a configuration, even if the image data is lost due to the movement of the moving subject, the missing image data can be complemented. Therefore, it is possible to prevent generation of an unnatural partial moving image with missing image data.

なお、上記した図19においては、ステップS1004又はステップS1009の設定処理(図20)が実行されなかった場合は、通常の動画が撮像されることになる。この場合は、従来と同様に、撮像素子1100により動画が撮像された後に、使用者が動画を編集することにより部分動画を作成することになる。しかし、同一の被写体についての2つの動画を同時に撮像することができれば、動画の撮像後の部分動画の編集作業が容易になると考えられる。そこで、図29に示すような構成により、同一の被写体についての2つの動画を同時に撮像するように構成する。 Note that in FIG. 19 described above, if the setting process (FIG. 20) in step S1004 or step S1009 is not executed, a normal moving image is captured. In this case, as in the conventional case, after the moving image is captured by the imaging device 1100, the user edits the moving image to create a partial moving image. However, if it is possible to capture two moving images of the same subject at the same time, it is considered that the work of editing the partial moving image after capturing the moving image will become easier. Therefore, with the configuration shown in FIG. 29, two moving images of the same subject are simultaneously captured.

図29は、各ブロックにおける配列パターンを示す図である。図29に示す配列パターンは、画素領域113Aが一の領域と他の領域とに2分割される配列パターンである。この配列パターンでは、画素領域113Aにおいて、奇数の列(2m-1)における奇数の行(2n-1)のブロックと、偶数の列(2m)における偶数の行(2n)のブロックとで一の領域が構成されている。また、偶数の列(2m)における奇数の行(2n-1)のブロックと、奇数の列(2m-1)における偶数の行(2n)のブロックとで他の領域が構成されている。すなわち、画素領域113Aにおける各ブロックが市松模様となるように分割されている。m及びnは正の整数(m=1,2,3,・・・、n=1,2,3,・・・)である。このような構成によれば、撮像素子1100は、一の領域において動画を撮像するとともに、他の領域においても動画を撮像することにより、同一の被写体に対して同時に2つの動画を同時に撮像することができる。同一の被写体に対する2つの動画を用いれば、使用者は様々なバリエーションの部分動画を容易に作成することができる。 FIG. 29 is a diagram showing an arrangement pattern in each block. The array pattern shown in FIG. 29 is an array pattern in which the pixel area 113A is divided into two areas, one area and the other area. In this arrangement pattern, in the pixel region 113A, blocks in odd rows (2n−1) in odd columns (2m−1) and blocks in even rows (2n) in even columns (2m) are one block. A region is configured. Another area consists of blocks of odd rows (2n-1) in even columns (2m) and blocks of even rows (2n) in odd columns (2m-1). That is, each block in the pixel region 113A is divided into a checkered pattern. m and n are positive integers (m = 1, 2, 3, ..., n = 1, 2, 3, ...). According to such a configuration, the imaging device 1100 captures a moving image in one region and also captures a moving image in another region, thereby simultaneously capturing two moving images of the same subject. can be done. By using two moving images of the same subject, the user can easily create various variations of partial moving images.

<第9実施形態>
第9実施形態では、上記した第7実施形態におけるデジタルカメラ1001を、撮像装置1001Aと電子機器1001Bとに分離した構成としている。
<Ninth Embodiment>
In the ninth embodiment, the digital camera 1001 in the seventh embodiment is separated into an imaging device 1001A and an electronic device 1001B.

図30は、第9実施形態に係る撮像装置1001A及び電子機器1001Bの構成を示すブロック図である。図30に示す構成において、撮像装置1001Aは、被写体の撮像を行う装置である。この撮像装置1001Aは、レンズ部1010、撮像部1020、画像処理部1030、ワークメモリ1040、操作部1055、記録部1060、及び第1システム制御部1070Aを備える。なお、撮像装置1001Aのうち、レンズ部1010、撮像部1020、画像処理部1030、ワークメモリ1040、操作部1055、及び記録部1060の構成は、図17に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 FIG. 30 is a block diagram showing configurations of an imaging device 1001A and an electronic device 1001B according to the ninth embodiment. In the configuration shown in FIG. 30, an imaging device 1001A is a device for imaging a subject. This imaging apparatus 1001A includes a lens unit 1010, an imaging unit 1020, an image processing unit 1030, a work memory 1040, an operation unit 1055, a recording unit 1060, and a first system control unit 1070A. The configurations of the lens unit 1010, the imaging unit 1020, the image processing unit 1030, the work memory 1040, the operation unit 1055, and the recording unit 1060 in the imaging device 1001A are the same as those shown in FIG. Therefore, the same components are denoted by the same reference numerals, and overlapping descriptions are omitted.

また、電子機器1001Bは、画像(静止画、動画、ライブビュー画像、部分動画)の表示を行う装置である。この電子機器1001Bは、表示部1050及び第2システム制御部1070Bを備える。なお、電子機器1001Bのうちの表示部1050の構成は、図17に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 The electronic device 1001B is a device that displays images (still images, moving images, live view images, partial moving images). This electronic device 1001B includes a display section 1050 and a second system control section 1070B. Note that the configuration of the display unit 1050 in the electronic device 1001B is the same as the configuration shown in FIG. Therefore, the same configurations are denoted by the same reference numerals, and overlapping descriptions are omitted.

第1システム制御部1070Aは、第1通信部1075Aを有している。また、第2システム制御部1070Bは、第2通信部1075Bを有している。第1通信部1075Aと第2通信部1075Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部1070Aは、第1通信部1075Aを介して画像データ(画像処理部1030が画像処理した画像データ、記録部1060に記録されている画像データ)を第2通信部1075Bに送信する。第2システム制御部1070Bは、第2通信部1075Bにおいて受信した画像データを表示部1050に表示させる。また、第2システム制御部1070Bは、予め設定されているメニュー画像を第2表示部53に表示させる。 The first system control section 1070A has a first communication section 1075A. Also, the second system control unit 1070B has a second communication unit 1075B. The first communication unit 1075A and the second communication unit 1075B transmit and receive signals to and from each other in a wired or wireless manner. In such a configuration, the first system control unit 1070A transfers image data (image data processed by the image processing unit 1030, image data recorded in the recording unit 1060) to the second system via the first communication unit 1075A. It is transmitted to the communication section 1075B. Second system control unit 1070B causes display unit 1050 to display the image data received by second communication unit 1075B. Second system control unit 1070B also causes second display unit 53 to display a preset menu image.

また、第2システム制御部1070Bは、使用者によるタッチパネル1052のタッチ操作に応じて、又は自動的に、撮像条件(蓄積条件を含む)を変更する制御を行う。また、第2システム制御部1070Bは、使用者によるタッチパネル1052のタッチ操作に応じて、又は自動的に、画像表示領域1510内の各表示領域を選択する制御を行う。また、第1システム制御部1070Aは、使用者による操作部(電子機器1001B側に設けられた静止画や動画の撮像開始を指示する操作部)1055の操作に応じて撮像の制御を実行する。 In addition, the second system control unit 1070B performs control to change the imaging conditions (including accumulation conditions) according to the user's touch operation on the touch panel 1052 or automatically. Further, the second system control unit 1070B performs control to select each display area in the image display area 1510 according to the touch operation of the touch panel 1052 by the user or automatically. In addition, the first system control unit 1070A executes imaging control according to the user's operation of the operation unit 1055 (an operation unit provided on the electronic device 1001B side for instructing the start of imaging of a still image or moving image) 1055 .

図17に示す構成(表示制御部1071、設定部1072、撮像制御部1073、及びAF処理部1074)は、第1システム制御部1070Aと第2システム制御部1070Bのいずれに設けられてもよい。図17に示すすべての構成は、第1システム制御部1070A又は第2システム制御部1070Bに設けられてもよく、また図17に示す構成の一部が第1システム制御部1070Aに設けられ、図17に示す構成の一部以外の構成が第2システム制御部1070Bに設けられてもよい。 The configuration shown in FIG. 17 (display control unit 1071, setting unit 1072, imaging control unit 1073, and AF processing unit 1074) may be provided in either the first system control unit 1070A or the second system control unit 1070B. All the configuration shown in FIG. 17 may be provided in the first system control unit 1070A or the second system control unit 1070B, and part of the configuration shown in FIG. 17 may be provided in the first system control unit 1070A, 17 may be provided in the second system control unit 1070B.

なお、撮像装置1001Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器1001Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。 Note that the imaging device 1001A is configured by, for example, a digital camera, a smart phone, a mobile phone, a personal computer, or the like having an imaging function and a communication function, and the electronic device 1001B is, for example, a smart phone, a mobile phone, or a portable personal It consists of portable terminals such as computers.

図30に示す第1システム制御部1070Aは、CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図30に示す第2システム制御部1070Bは、CPUが制御プログラムに基づいて処理を実行することにより実現される。 The first system control unit 1070A shown in FIG. 30 is implemented by the CPU executing processing based on the control program. Also, the second system control unit 1070B shown in FIG. 30 is implemented by the CPU executing processing based on the control program.

以上に説明したように、第9実施形態では、第7実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置1001Aで撮像されている部分動画を確認した上で撮像を行うことができる。 As described above, in the ninth embodiment, in addition to the effects described in the seventh embodiment, a mobile terminal such as a smartphone is used to check a partial moving image captured by the imaging device 1001A, and then capture the image. be able to.

なお、図30に示す構成において、画像処理部1030と第1システム制御部1070Aとは一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部1030の機能と第1システム制御部1070Aの機能を担う。 In the configuration shown in FIG. 30, image processing section 1030 and first system control section 1070A may be integrated. In this case, a system control unit having one CPU performs processing based on a control program to perform the function of the image processing unit 1030 and the function of the first system control unit 1070A.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various modifications and improvements can be made to the above embodiments without departing from the scope of the present invention. Also, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omissions are also included in the technical scope of the present invention. Moreover, it is also possible to appropriately combine the configurations of the above-described embodiments and modifications and apply them.

例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。 For example, although the arrangement of the color filters 102 is the Bayer arrangement in each of the above-described embodiments, an arrangement other than this arrangement may be used. Also, the number of pixels forming the unit group 131 should include at least one pixel. Also, it is sufficient that each block includes at least one pixel. Therefore, it is possible to perform imaging under different imaging conditions for each pixel.

また、上記した各実施形態において、駆動部1021は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部1030の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部1070の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。 Further, in each of the above-described embodiments, the drive unit 1021 may be partially or wholly mounted on the imaging chip 113 , or partially or wholly mounted on the signal processing chip 111 . Also, part of the configuration of the image processing unit 1030 may be mounted on the imaging chip 113 or the signal processing chip 111 . Also, part of the configuration of the system control unit 1070 may be mounted on the imaging chip 113 or the signal processing chip 111 .

また、上記した各実施形態において、画素領域113Aにおいて静止画領域を設定せずに動画領域だけを設定してもよい。この場合、複数の動画領域を設定し、複数の動画領域毎にフレームレート変更する。このようにフレームレートの異なる複数の動画を含む画像も部分動画に含めてもよい。このような構成によれば、動きの遅い動画と動きの速い動画とが混在した画像を生成することができ、より一層、面白みのある画像を作成することができる。 Further, in each of the above-described embodiments, only the moving image area may be set without setting the still image area in the pixel area 113A. In this case, a plurality of moving image areas are set and the frame rate is changed for each of the plurality of moving image areas. An image including a plurality of moving images having different frame rates in this way may also be included in the partial moving images. According to such a configuration, it is possible to generate an image in which a slow-moving moving image and a fast-moving moving image are mixed, so that a more interesting image can be generated.

また、図29に示したブロックの配列パターンでは、画素領域113Aを2分割していたが、3分割以上としてもよい。画素領域113Aを3分割以上とした場合は、同一の被写体についての3以上の動画を同時に撮像することができる。従って、より一層、面白みのある部分動画を作成することができるようになる。 Also, in the arrangement pattern of the blocks shown in FIG. 29, the pixel region 113A is divided into two, but it may be divided into three or more. If the pixel area 113A is divided into three or more, three or more moving images of the same subject can be captured simultaneously. Therefore, it becomes possible to create a more interesting partial moving image.

また、上記した第7実施形態において、検出部1032が検出可能な被写体としては、人物などに限定されず、特徴検出が可能であれば車などの物であってもよい。また、撮像制御部1073は、静止画と動画とを別々に記録部1060に記録してもよい。また、撮像制御部1073は、静止画と動画のタイムラインをリンクさせて記録部1060に記録する。また、検出部1032は、予め特定の人物などを登録しておき、登録した特定の人物などが被写体として撮像されていることをパターンマッチングにより検知した場合に、その特定の人物を自動的に追尾して動画撮影を行うようにしてもよい。また、タッチパネル1052のタッチ操作を操作部1055におけるスイッチやダイヤルなどの操作に代えてもよい。 Further, in the seventh embodiment described above, the subject that can be detected by the detection unit 1032 is not limited to a person or the like, and may be an object such as a car as long as its characteristics can be detected. Also, the imaging control unit 1073 may record the still image and the moving image separately in the recording unit 1060 . Also, the imaging control unit 1073 links the timelines of the still image and the moving image and records them in the recording unit 1060 . In addition, the detection unit 1032 registers a specific person in advance, and automatically tracks the specific person when detecting through pattern matching that the registered specific person is captured as a subject. It is also possible to shoot a moving image by pressing the button. Also, the touch operation of the touch panel 1052 may be replaced with the operation of switches, dials, or the like in the operation unit 1055 .

また、上記した各実施形態において、デジタルカメラ1001は三脚などで固定した状態で撮像を行うことが望ましい。撮像中に画角が変化すると、動画と静止画をうまく合成することができなくなるおそれがあるからである。 Also, in each of the above-described embodiments, it is desirable that the digital camera 1001 is fixed on a tripod or the like to take an image. This is because if the angle of view changes during imaging, it may become impossible to synthesize a moving image and a still image well.

<第10実施形態>
図31は、第10実施形態に係るデジタルカメラ2001の構成を示すブロック図である。なお、図31において、電子機器の一例であるデジタルカメラ2001は図7のデジタルカメラ1に相当し、レンズ部2010は図7のレンズ部10に相当し、撮像部2020は図7の撮像部20に相当し、撮像素子2100は図7の撮像素子100に相当し、駆動部2021は図7の駆動部21に相当し、画像処理部2030は図7の画像処理部30に相当し、ワークメモリ2040は図7のワークメモリ40に相当し、表示部2050は図7の表示部50に相当し、表示パネル2051は図7の表示パネル51に相当し、タッチパネル2052は図7のタッチパネル52に相当し、操作部2055は図7の操作部55に相当し、記録部2060は図7の記憶部60に相当し、システム制御部2070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部2010、撮像部2020、撮像素子2100、駆動部2021、ワークメモリ2040、表示部2050、操作部2055、記録部2060の構成については説明を省略する。
<Tenth Embodiment>
FIG. 31 is a block diagram showing the configuration of a digital camera 2001 according to the tenth embodiment. 31, a digital camera 2001 as an example of electronic equipment corresponds to the digital camera 1 in FIG. 7, a lens unit 2010 corresponds to the lens unit 10 in FIG. 7, and an imaging unit 2020 corresponds to the imaging unit 20 in FIG. , the image sensor 2100 corresponds to the image sensor 100 in FIG. 7, the driving unit 2021 corresponds to the driving unit 21 in FIG. 7, the image processing unit 2030 corresponds to the image processing unit 30 in FIG. 7, the display unit 2050 corresponds to the display unit 50 in FIG. 7, the display panel 2051 corresponds to the display panel 51 in FIG. 7, and the touch panel 2052 corresponds to the touch panel 52 in FIG. 7, the recording unit 2060 corresponds to the storage unit 60 in FIG. 7, and the system control unit 2070 corresponds to the system control unit 70 in FIG. Of these configurations, the configurations of the lens unit 2010, imaging unit 2020, imaging element 2100, driving unit 2021, work memory 2040, display unit 2050, operation unit 2055, and recording unit 2060 are omitted.

なお、本実施形態において、フォーカシング用レンズ11cの駆動制御は、フォーカシング用レンズ11cの焦点調節を行うための制御であり、AF処理(Automatic Focusing)という。また、絞り14の駆動制御は、絞り14の開口径調節を行うための制御であり、AE処理(Automatic Exposure)という。 In this embodiment, drive control of the focusing lens 11c is control for performing focus adjustment of the focusing lens 11c, and is called AF processing (automatic focusing). Further, drive control of the diaphragm 14 is control for adjusting the aperture diameter of the diaphragm 14, and is called AE processing (automatic exposure).

画像処理部2030は、図31に示すように、検出部(態様検出部)2031を含む。検出部2031は、画像処理部2030で生成した画像データから主要被写体を検出する。本実施形態では、検出部2031は、例えば特開2010-16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を主要被写体として検出する機能を備えている。また、検出部2031は、例えば特開2010-16621号公報(US2010/0002940号)に記載されているように、公知の顔検出機能を用いて人物の顔を検出する機能も備えている。また、検出部2031は、主要被写体としての人物の表情を検出し、検出した表情が特定の表情(例えば笑顔)であるか否かを判定する機能も備えている。 The image processing unit 2030 includes a detection unit (mode detection unit) 2031 as shown in FIG. A detection unit 2031 detects a main subject from the image data generated by the image processing unit 2030 . In this embodiment, the detection unit 2031 has a function of detecting a human body included in image data as a main subject, as described in, for example, Japanese Patent Laying-Open No. 2010-16621 (US2010/0002940). The detection unit 2031 also has a function of detecting a person's face using a known face detection function, as described, for example, in Japanese Unexamined Patent Application Publication No. 2010-16621 (US2010/0002940). The detection unit 2031 also has a function of detecting the facial expression of a person as a main subject and determining whether the detected facial expression is a specific facial expression (for example, a smile).

ここで、撮像部2020で撮像される対象物である被写体は、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。また、被写体のうち、使用者(撮影者)に注目される被写体又は使用者に注目されると推定される被写体のことを「主要被写体」という。主要被写体も、画像データ中に1つだけ存在する場合に限らず、複数存在する場合もある。 Here, the subject, which is the object to be imaged by the imaging unit 2020, is not limited to the case where there is only one in the image data, and there may be a plurality of subjects. Among subjects, a subject that attracts the user's (photographer's) attention or a subject that is presumed to attract the user's attention is referred to as a "main subject". The main subject is also not limited to the case where there is only one in the image data, and there may be a plurality of main subjects.

システム制御部2070は、デジタルカメラ2001の全体の処理及び動作を制御する。このシステム制御部2070はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部2070は、撮像素子2100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部2070は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部2021に対して指示する。 A system control unit 2070 controls the overall processing and operation of the digital camera 2001 . The system control unit 2070 has a body-side CPU (Central Processing Unit). In this embodiment, the system control unit 2070 divides the imaging surface (pixel region 113A) of the imaging element 2100 (imaging chip 113) into a plurality of blocks, and sets different charge accumulation times (or charge accumulation times) and frame rates between the blocks. , to acquire an image with gain. Therefore, the system control unit 2070 instructs the driving unit 2021 about the position, shape, range of blocks, and accumulation conditions for each block.

また、システム制御部2070は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部2070は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部2021に対して指示する。また、画像処理部2030は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部2070は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部2030に指示する。 In addition, the system control unit 2070 acquires an image with a thinning rate that differs between blocks, the number of addition rows or addition columns for adding pixel signals, and the number of bits for digitization. Therefore, the system control unit 2070 instructs the driving unit 2021 about imaging conditions for each block (thinning rate, number of rows or columns to be added for adding pixel signals, and number of bits for digitization). Further, the image processing unit 2030 executes image processing under different imaging conditions (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression ratio) between blocks. Therefore, the system control unit 2070 instructs the image processing unit 2030 on imaging conditions for each block (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate).

また、システム制御部2070は、画像処理部2030において生成された画像データを記録部2060に記録させる。また、システム制御部2070は、画像処理部2030において生成された画像データを表示部2050に出力させることにより、表示部2050に画像を表示させる。また、システム制御部2070は、記録部2060に記録されている画像データを読み出して表示部2050に出力させることにより、表示部2050に画像を表示させる。表示部2050に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。 Also, the system control unit 2070 causes the recording unit 2060 to record the image data generated by the image processing unit 2030 . Further, the system control unit 2070 causes the display unit 2050 to display an image by outputting the image data generated by the image processing unit 2030 to the display unit 2050 . Further, the system control unit 2070 reads the image data recorded in the recording unit 2060 and causes the display unit 2050 to output the image data, thereby causing the display unit 2050 to display an image. Images displayed on the display unit 2050 include still images, moving images, and live view images.

本実施形態では、システム制御部2070は、図31に示すように、設定部2071、制御部2072、表示制御部2073、AF処理部(焦点検出部)2074、及びAE処理部2075を備えている。設定部2071は、撮像素子2100の画素領域(撮像領域)113Aにおいて、検出部2031が検出した主要被写体(例えば人物)を含む主要被写体領域(例えば図34に示す人物O110を含む主要被写体領域2201)と、主要被写体を含まない非主要被写体領域(例えば図34に示す非主要被写体領域2203)とをブロック単位で設定する。また、設定部2071は、撮像素子2100の画素領域113Aにおいて、検出部2031が検出した主要被写体の一部分(例えば人物の顔)を含む部分領域(例えば図34に示す部分領域2202)をブロック単位で設定する。なお、後述する図34に示すように、部分領域は主要被写体領域に含まれる領域である。また、設定部2071は、検出部2031が検出した主要被写体の移動に合わせて主要被写体領域、非主要被写体領域、及び部分領域の位置及びサイズを変化させる。また、設定部2071は、画素領域113Aにおいて領域ごとに異なる撮像条件を設定する。すなわち、設定部2071は、主要被写体領域と部分領域と非主要被写体領域とで異なる撮像条件を設定する。 In this embodiment, the system control unit 2070 includes a setting unit 2071, a control unit 2072, a display control unit 2073, an AF processing unit (focus detection unit) 2074, and an AE processing unit 2075, as shown in FIG. . The setting unit 2071 sets a main subject area (for example, a main subject area 2201 including a person O110 shown in FIG. 34) including the main subject (for example, a person) detected by the detection unit 2031 in the pixel area (imaging area) 113A of the image sensor 2100. , and a non-main subject area that does not include the main subject (for example, the non-main subject area 2203 shown in FIG. 34) are set in units of blocks. In addition, the setting unit 2071 selects a partial area (for example, a partial area 2202 shown in FIG. 34) including a part of the main subject (for example, a person's face) detected by the detection unit 2031 in the pixel area 113A of the image sensor 2100 in block units. set. Incidentally, as shown in FIG. 34, which will be described later, the partial area is an area included in the main subject area. Also, the setting unit 2071 changes the positions and sizes of the main subject area, the non-main subject area, and the partial area according to the movement of the main subject detected by the detection unit 2031 . In addition, the setting unit 2071 sets different imaging conditions for each area in the pixel area 113A. That is, the setting unit 2071 sets different imaging conditions for the main subject area, the partial area, and the non-main subject area.

制御部2072は、主要被写体領域と部分領域と非主要被写体領域とを異なる撮像条件で撮像を行わせるように撮像素子2100の駆動制御を行う。また、制御部2072は、検出部2031により検出された主要被写体としての人物の表情が特定の表情(例えば笑顔)であることを条件に、撮像素子2100に本撮像(後述する図32のステップS2017の撮像、すなわちレリーズスイッチの全押し操作に基づく撮像)を実行させる。また、制御部2072は、画像処理部2030により生成された静止画及び動画の画像データを記録部2060に記録する制御を行う。表示制御部2073は、画像処理部2030で生成された画像データを表示部2050に出力させて、表示部2050の表示面2051に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。 The control unit 2072 controls the driving of the imaging element 2100 so that the main subject area, the partial area, and the non-main subject area are imaged under different imaging conditions. In addition, the control unit 2072 directs the image sensor 2100 to take the main image (step S2017 in FIG. 32 to be described later) on condition that the expression of the person as the main subject detected by the detection unit 2031 is a specific expression (for example, a smile). (i.e., imaging based on the full-press operation of the release switch) is executed. Further, the control unit 2072 performs control to record image data of still images and moving images generated by the image processing unit 2030 in the recording unit 2060 . The display control unit 2073 outputs the image data generated by the image processing unit 2030 to the display unit 2050, and performs control to display an image (live view image, still image, moving image) on the display surface 2051 of the display unit 2050. .

AF処理部2074は、ライブビュー画像の撮影中において、コントラストAFと呼ばれる被写体のコントラストが最大となるように焦点調節処理(AF処理)を実行する(図32のステップS2007参照)。また、AF処理部2074は、レリーズスイッチの半押し操作が行われた場合や動画スイッチの操作が行われた場合においても焦点調節処理(AF処理)を実行する(図32のステップS2013参照、図33のステップS2027参照)。 The AF processing unit 2074 executes focus adjustment processing (AF processing) called contrast AF during live view image shooting so that the contrast of the subject is maximized (see step S2007 in FIG. 32). The AF processing unit 2074 also executes focus adjustment processing (AF processing) when the release switch is half-pressed or when the moving image switch is operated (see step S2013 in FIG. 32; 33 step S2027).

具体的には、AF処理部2074は、電気接点81A,81Bを介して制御情報をレンズ駆動制御装置15に対して送信することにより、レンズ駆動制御装置15にフォーカシング用レンズ11cを移動させる。また、AF処理部2074は、撮像部2020が撮像した被写体の像のコントラスト(ここで、検出部2031が主要被写体を検出した場合は、その主要被写体の像のコントラストの評価値)を表すコントラスト信号を画像処理部2030から取得する。AF処理部2074は、フォーカシング用レンズ11cを移動させながら、画像処理部2030からのコントラスト信号に基づいて、被写体の像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部2074は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御信号をレンズ駆動制御装置15に送信する。 Specifically, the AF processing unit 2074 causes the lens drive control device 15 to move the focusing lens 11c by transmitting control information to the lens drive control device 15 via the electrical contacts 81A and 81B. Further, the AF processing unit 2074 outputs a contrast signal representing the contrast of the image of the subject captured by the imaging unit 2020 (here, when the detection unit 2031 detects the main subject, the evaluation value of the contrast of the image of the main subject). is acquired from the image processing unit 2030 . The AF processing unit 2074 moves the focusing lens 11c, and based on the contrast signal from the image processing unit 2030, detects the position of the focusing lens 11c where the contrast of the subject image is highest as the focal position. The AF processing unit 2074 transmits a control signal to the lens driving control device 15 so as to move the focusing lens 11c to the detected focal position.

AE処理部2075は、ライブビュー画像の撮影中において露出調節処理(AE処理)を実行する(図32のステップS2008参照)。また、AE処理部2075は、レリーズスイッチの半押し操作が行われた場合や動画スイッチの操作が行われた場合においても露出調節処理(AE処理)を実行する(図32のステップS2014参照、図33のステップS2028参照)。具体的には、AE処理部2075は、画像の輝度分布を示す輝度分布データを画像処理部2030から取得する。そして、AE処理部2075は、輝度分布データを用いて測光を行う。また、AE処理部2075は、測光した結果に基づいて撮像条件(シャッター速度(露光時間、電荷蓄積時間)、フレームレート、及びゲイン(ISO感度))と絞り値とを決定する。このとき、AE処理部2075は、撮像素子2100の画素領域113Aにおけるブロックごとに適正露出となるような撮像条件を決定することが可能である。なお、絞り値については、ブロックごとに設定することはできず画素領域113A全面に対して設定する。 The AE processing unit 2075 executes exposure adjustment processing (AE processing) during live view image shooting (see step S2008 in FIG. 32). The AE processing unit 2075 also executes exposure adjustment processing (AE processing) when the release switch is half-pressed or when the moving image switch is operated (see step S2014 in FIG. 32; 33 step S2028). Specifically, the AE processing unit 2075 acquires luminance distribution data representing the luminance distribution of the image from the image processing unit 2030 . Then, the AE processing unit 2075 performs photometry using the luminance distribution data. Also, the AE processing unit 2075 determines imaging conditions (shutter speed (exposure time, charge accumulation time), frame rate, and gain (ISO sensitivity)) and aperture value based on the result of photometry. At this time, the AE processing unit 2075 can determine imaging conditions that provide proper exposure for each block in the pixel area 113A of the image sensor 2100. FIG. Note that the aperture value cannot be set for each block, and is set for the entire pixel region 113A.

AE処理部2075は、適正露出に応じた絞り値を示す制御情報をレンズ駆動制御装置15に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、AE処理部2075は、適正露出に応じたシャッター速度(電荷蓄積時間)、フレームレート、及びゲイン(ISO感度)を指示する指示信号を駆動部2021に出力する。駆動部2021は、指示信号により指示されたシャッター速度、フレームレート、及びゲインで撮像素子2100を駆動制御する。 The AE processing unit 2075 causes drive control for adjustment of the aperture diameter of the diaphragm 14 to be executed by transmitting control information indicating an aperture value corresponding to proper exposure to the lens drive control device 15 . The AE processing unit 2075 also outputs an instruction signal to the driving unit 2021 to instruct shutter speed (charge accumulation time), frame rate, and gain (ISO sensitivity) according to proper exposure. The drive unit 2021 drives and controls the imaging element 2100 with the shutter speed, frame rate, and gain indicated by the instruction signal.

なお、システム制御部2070において、設定部2071、制御部2072、表示制御部2073、AF処理部2074、及びAE処理部2075は、それぞれ、ボディ側CPUが制御プログラムに基づいて処理を実行することにより実現される。 In the system control unit 2070, the setting unit 2071, the control unit 2072, the display control unit 2073, the AF processing unit 2074, and the AE processing unit 2075 are each executed by the body side CPU based on the control program. Realized.

次に、第10実施形態に係るデジタルカメラ2001の撮影動作について説明する。図32及び図33は、第10実施形態のシステム制御部2070が実行する撮影動作を説明するためのフローチャートである。図32及び図33に示す処理において、デジタルカメラ2001に電源が投入された後、使用者が撮影を開始するために操作部2055などの操作を行うと、制御部2072は、ライブビュー画像の撮影を開始する(ステップS2001)。すなわち、制御部2072は、駆動部2021に対して指示信号を出力することにより撮像素子2100の駆動制御を実行させる。また、表示制御部2073は、撮像素子2100で撮像されたライブビュー画像を表示部2050の表示面2051に表示する(ステップS2002)。 Next, the shooting operation of the digital camera 2001 according to the tenth embodiment will be described. 32 and 33 are flowcharts for explaining the shooting operation executed by the system control unit 2070 of the tenth embodiment. In the processing shown in FIGS. 32 and 33, when the user operates the operation unit 2055 or the like to start photographing after the digital camera 2001 is powered on, the control unit 2072 causes the live view image to be photographed. is started (step S2001). That is, the control unit 2072 outputs an instruction signal to the driving unit 2021 to execute drive control of the imaging device 2100 . Also, the display control unit 2073 displays the live view image captured by the image sensor 2100 on the display surface 2051 of the display unit 2050 (step S2002).

次に、設定部2071は、画像処理部2030に対して指示信号を出力することにより、検出部2031に主要被写体の検出を実行させる(ステップS2003)。検出部2031は、設定部2071からの指示信号を受け取ると、画像データに含まれる人物(人体)を主要被写体として検出する。そして、検出部2031は、検出した人物の位置及びサイズを示す信号をシステム制御部2070に出力する。また、設定部2071は、画像処理部2030に対して指示信号を出力することにより、検出部2031に主要被写体の一部分である人物の顔の検出を実行させる(ステップS2004)。検出部2031は、設定部2071からの指示信号を受け取ると、画像データに基づいて公知の顔検出機能を用いて主要被写体の一部分である人物の顔を検出する。そして、検出部2031は、検出した人物の顔の位置及びサイズを示す信号をシステム制御部2070に出力する。 Next, the setting unit 2071 outputs an instruction signal to the image processing unit 2030 to cause the detection unit 2031 to detect the main subject (step S2003). Upon receiving the instruction signal from the setting unit 2071, the detection unit 2031 detects a person (human body) included in the image data as the main subject. The detection unit 2031 then outputs a signal indicating the detected position and size of the person to the system control unit 2070 . The setting unit 2071 outputs an instruction signal to the image processing unit 2030 to cause the detection unit 2031 to detect the face of a person who is part of the main subject (step S2004). Upon receiving the instruction signal from the setting unit 2071, the detection unit 2031 detects the face of a person who is part of the main subject using a known face detection function based on the image data. Then, the detection unit 2031 outputs a signal indicating the detected position and size of the person's face to the system control unit 2070 .

次に、設定部2071は、画素領域113Aにおいて領域を設定する(ステップS2005)。具体的には、設定部2071は、検出部2031からの人物の位置及びサイズを示す信号に基づいて、人物を含む主要被写体領域をブロック単位で設定する。また、設定部2071は、検出部2031からの人物の顔の位置及びサイズを示す信号に基づいて、主要被写体領域内に顔を含む部分領域をブロック単位で設定する。また、設定部2071は、画素領域113Aにおいて主要被写体領域以外の領域を非主要被写体領域として設定する。 Next, the setting unit 2071 sets an area in the pixel area 113A (step S2005). Specifically, the setting unit 2071 sets the main subject area including the person in units of blocks based on the signal indicating the position and size of the person from the detection unit 2031 . Also, the setting unit 2071 sets a partial area including a face in the main subject area on a block-by-block basis based on the signal indicating the position and size of the person's face from the detection unit 2031 . The setting unit 2071 also sets areas other than the main subject area in the pixel area 113A as non-main subject areas.

図34は、第10実施形態の撮像素子2100の撮像領域113Aにおける主要被写体領域2201と部分領域2202と非主要被写体領域2203とを示す図である。図34に示す例では、撮像素子2100の画素領域(撮像領域)113Aにおいて、歩いている人物O110と、道路O120と、複数の木O130とが撮像されている。人物O110は主要被写体であり、道路O120及び木O130は背景の被写体である。この場合、検出部2031は、人物O110を主要被写体として検出する。また、検出部2031は、顔検出機能を用いて人物O110の顔についても検出する。設定部2071は、検出部2031が検出した人物O110を含む領域を主要被写体領域2201として設定する。また、設定部2071は、検出部2031が検出した人物O110の顔を含む領域を主要被写体領域2201における部分領域2202として設定する。さらに、設定部2071は、画素領域113Aにおける主要被写体領域2201以外の領域を非主要被写体領域2203として設定する。なお、図34に示すように、設定部2071は、検出部2031が検出した主要被写体の領域よりも少し広めに領域を主要被写体領域2201として設定している。また、設定部2071は、検出部2031が検出した主要被写体の一部分の領域よりも少し広めの領域を部分領域2202として設定している。 FIG. 34 is a diagram showing a main subject area 2201, a partial area 2202, and a non-main subject area 2203 in the imaging area 113A of the image sensor 2100 of the tenth embodiment. In the example shown in FIG. 34, in a pixel area (imaging area) 113A of the imaging device 2100, a walking person O110, a road O120, and a plurality of trees O130 are imaged. A person O110 is the main subject, and a road O120 and a tree O130 are background subjects. In this case, the detection unit 2031 detects the person O110 as the main subject. The detection unit 2031 also detects the face of the person O110 using the face detection function. The setting unit 2071 sets the area including the person O110 detected by the detection unit 2031 as the main subject area 2201 . The setting unit 2071 also sets the area including the face of the person O110 detected by the detection unit 2031 as the partial area 2202 in the main subject area 2201 . Furthermore, the setting unit 2071 sets an area other than the main subject area 2201 in the pixel area 113A as a non-main subject area 2203 . Note that as shown in FIG. 34, the setting unit 2071 sets a main subject area 2201 that is slightly wider than the area of the main subject detected by the detection unit 2031 . Also, the setting unit 2071 sets an area slightly wider than the partial area of the main subject detected by the detection unit 2031 as a partial area 2202 .

図35は、第10実施形態の表示部2050の表示面2051における主要被写体領域2511と部分領域2512と非主要被写体領域2513とを示す図である。撮像素子2100が図34に示す被写体O110,O120,O130を撮像した場合は、図35に示すように、表示部2050の表示面2051には、歩いている人物O110の画像と、道路O120の画像と、複数の木O130の画像とが表示される。図35に示す人物O110を含む主要被写体領域2511は、図34に示す画素領域113Aにおける主要被写体領域2201に対応する領域である。図35に示す人物O110の顔を含む部分領域2512は、図34に示す画素領域113Aにおける部分領域2202に対応する領域である。図35に示す非主要被写体領域2513は、図34に示す画素領域113Aにおける非主要被写体領域2203に対応する領域である。 FIG. 35 is a diagram showing a main subject area 2511, a partial area 2512, and a non-main subject area 2513 on the display surface 2051 of the display unit 2050 of the tenth embodiment. When the imaging device 2100 images the subjects O110, O120, and O130 shown in FIG. 34, the image of the person O110 walking and the image of the road O120 are displayed on the display surface 2051 of the display unit 2050 as shown in FIG. , and images of a plurality of trees O130 are displayed. A main subject area 2511 including the person O110 shown in FIG. 35 is an area corresponding to the main subject area 2201 in the pixel area 113A shown in FIG. A partial area 2512 including the face of the person O110 shown in FIG. 35 is an area corresponding to the partial area 2202 in the pixel area 113A shown in FIG. A non-main subject area 2513 shown in FIG. 35 is an area corresponding to the non-main subject area 2203 in the pixel area 113A shown in FIG.

本実施形態では、図35に示すように、表示制御部2073は、検出部2031が主要被写体(人物O110)を検出したときは、その主要被写体を囲う枠2601と、その主要被写体の一部分(人物O110の顔)を囲う枠2602とを表示部2050の表示面2051に表示する。枠2601は、検出部2031が主要被写体を捕捉したことを使用者に知らせるとともに、主要被写体の位置やサイズなどを使用者に知らせるために表示される。枠2602は、検出部2031が主要被写体の一部分を捕捉したことを使用者に知らせるとともに、主要被写体の一部分の位置やサイズなどを使用者に知らせるために表示される。なお、図35に示す例では、枠2601は主要被写体領域2511の周囲の枠であり、枠2602は部分領域2512の周囲の枠である。 In this embodiment, as shown in FIG. 35, when the detection unit 2031 detects the main subject (person O110), the display control unit 2073 creates a frame 2601 surrounding the main subject and a part of the main subject (person O110). A frame 2602 surrounding O 110's face) is displayed on the display surface 2051 of the display unit 2050 . A frame 2601 is displayed to inform the user that the detection unit 2031 has captured the main subject and to inform the user of the position, size, and the like of the main subject. A frame 2602 is displayed to inform the user that the detection unit 2031 has captured a portion of the main subject and to inform the user of the position and size of the portion of the main subject. In the example shown in FIG. 35, the frame 2601 is the frame around the main subject area 2511 and the frame 2602 is the frame around the partial area 2512 .

また、本実施形態では、図35に示すように、表示面2051の右上には、小さい領域のサブ画面2051Sが設けられている。表示制御部2073は、検出部2031が主要被写体(人物O110)を検出したときは、部分領域2202の画像をサブ画面2051Sに表示する(後述するステップS2009参照)。 In addition, in this embodiment, as shown in FIG. 35, a sub-screen 2051S of a small area is provided on the upper right of the display surface 2051. In FIG. When the detection unit 2031 detects the main subject (person O110), the display control unit 2073 displays the image of the partial area 2202 on the sub-screen 2051S (see step S2009 described later).

図32の説明に戻り、設定部2071は、ステップS2005で設定した領域ごとに撮像条件を設定する(ステップS2006)。ここで、設定部2071は、主要被写体領域2201と部分領域2202と非主要被写体領域2203とで異なる撮像条件を設定する。具体的には、設定部2071は、主要被写体領域2201において非主要被写体領域2203よりも高いフレームレートかつ高いゲインを設定する。これにより、検出部2031は、主要被写体領域2201において非主要被写体領域2203よりも高い精度で高速に主要被写体の検出を行うことができる。従って、検出部2031による主要被写体の検出のレスポンスが高くなる。また、設定部2071は、部分領域2202において主要被写体領域2201よりも高いフレームレートかつ高いゲインを設定する。これにより、検出部2031は、主要被写体である人物O110の顔の表情を速く正確に判定することができる。 Returning to the description of FIG. 32, the setting unit 2071 sets imaging conditions for each region set in step S2005 (step S2006). Here, the setting unit 2071 sets different imaging conditions for the main subject area 2201 , the partial area 2202 and the non-main subject area 2203 . Specifically, the setting unit 2071 sets a higher frame rate and higher gain in the main subject area 2201 than in the non-main subject area 2203 . As a result, the detection unit 2031 can detect the main subject in the main subject area 2201 at high speed with higher accuracy than in the non-main subject area 2203 . Therefore, the detection response of the main subject by the detection unit 2031 is increased. Also, the setting unit 2071 sets a higher frame rate and a higher gain in the partial area 2202 than in the main subject area 2201 . This allows the detection unit 2031 to quickly and accurately determine the facial expression of the person O110 who is the main subject.

なお、設定部2071は、フレームレートやゲイン以外の撮像条件については、それぞれの領域2201,2202,203の被写体に適した撮像条件を自動的に設定し、又は使用者の操作部2055などの操作に応じて設定する。 Note that the setting unit 2071 automatically sets the imaging conditions other than the frame rate and gain that are suitable for the subject in each of the areas 2201, 2202, and 203, or sets the imaging conditions according to the user's operation of the operation unit 2055 or the like. set accordingly.

次に、AF処理部2074は、自動的に焦点調節を行うAF処理を実行する(ステップS2007)。具体的には、AF処理部2074は、主要被写体である人物O110の像のコントラストを表すコントラスト信号を画像処理部2030から取得する。また、AF処理部2074は、フォーカシング用レンズ11cの移動を指示する制御情報をレンズ駆動制御装置15に対して送信する。これにより、レンズ駆動制御装置15は、AF処理部2074からの制御情報に基づいて、フォーカシング用レンズ11cを移動させる制御を行う。そして、AF処理部2074は、フォーカシング用レンズ11cを移動させながら人物O110の像のコントラストが最も高くなるフォーカシング用レンズ11cのレンズ位置を焦点位置として検出する。AF処理部2074は、検出した焦点位置にフォーカシング用レンズ11cを移動させる。上述したように、設定部2071により主要被写体領域2201に対して高いフレームレートかつ高いゲインが設定されている。従って、画像処理部2030は主要被写体の像のコントラストの評価値を素早く算出することができる。その結果、AF処理部2074は、素早く焦点位置の検出を行うことができる。 Next, the AF processing unit 2074 executes AF processing for automatically adjusting the focus (step S2007). Specifically, the AF processing unit 2074 acquires from the image processing unit 2030 a contrast signal representing the contrast of the image of the person O110 who is the main subject. In addition, the AF processing unit 2074 transmits control information instructing movement of the focusing lens 11c to the lens driving control device 15. FIG. Accordingly, the lens drive control device 15 performs control to move the focusing lens 11c based on the control information from the AF processing section 2074. FIG. Then, the AF processing unit 2074 detects the lens position of the focusing lens 11c at which the contrast of the image of the person O110 is highest while moving the focusing lens 11c as the focal position. The AF processor 2074 moves the focusing lens 11c to the detected focal position. As described above, the setting unit 2071 sets a high frame rate and a high gain for the main subject area 2201 . Therefore, the image processing unit 2030 can quickly calculate the contrast evaluation value of the image of the main subject. As a result, the AF processing section 2074 can quickly detect the focal position.

本実施形態では、AF処理部2074は、ステップS2007のAF処理で検出した焦点位置に基づいて主要被写体までの距離を算出する。また、AF処理部2074は、主要被写体の焦点位置の情報及び主要被写体までの距離の情報を記憶する。そして、主要被写体が移動している場合、AF処理部2074は、主要被写体の焦点位置の情報の履歴及び主要被写体までの距離の情報の履歴に基づいて、主要被写体の位置を予測する。AF処理部2074は、予測した主要被写体の位置に基づいて主要被写体の焦点位置を予測し、予測した焦点位置にフォーカシング用レンズ11cを移動させる。このような構成によれば、AF処理部2074は、高速に移動している主要被写体に対して常に合焦させることができる。 In this embodiment, the AF processing unit 2074 calculates the distance to the main subject based on the focal position detected by the AF processing in step S2007. The AF processing unit 2074 also stores information on the focus position of the main subject and information on the distance to the main subject. Then, when the main subject is moving, the AF processing unit 2074 predicts the position of the main subject based on the history of information on the focus position of the main subject and the history of information on the distance to the main subject. The AF processing unit 2074 predicts the focal position of the main subject based on the predicted position of the main subject, and moves the focusing lens 11c to the predicted focal position. With such a configuration, the AF processing section 2074 can always focus on the main subject moving at high speed.

また、本実施形態では、主要被写体が移動している場合、ステップS2005において、設定部2071は、主要被写体の焦点位置の情報の履歴及び主要被写体までの距離の情報の履歴に基づいて、主要被写体の位置及びサイズを予測する。設定部2071は、予測した主要被写体の位置及びサイズに基づいて主要被写体領域の位置及びサイズを予測する。そして、設定部2071は、予測した位置及びサイズの主要被写体領域を設定する。このような構成によれば、主要被写体が高速に移動している場合でも、主要被写体の移動に合わせて主要被写体領域を設定することができる。 In this embodiment, when the main subject is moving, in step S2005, the setting unit 2071 sets the main subject based on the history of the focal position information of the main subject and the history of the distance information to the main subject. Predict the position and size of A setting unit 2071 predicts the position and size of the main subject area based on the predicted position and size of the main subject. Then, the setting unit 2071 sets the main subject area of the predicted position and size. According to such a configuration, even when the main subject is moving at high speed, the main subject area can be set according to the movement of the main subject.

なお、図34に示すように、主要被写体が人物O110である場合は、AF処理部2074は、人物O110の顔に対して合焦させる。ただし、AF処理部2074は、人物O110の最も近い位置などに合焦させてもよい。また、主要被写体は人物に限らず、車などの物体であってもよい。また、検出部2031により複数の主要被写体が検出された場合は、AF処理部2074は、例えば複数の主要被写体のうちの人物を優先して合焦させるようにしてもよい。また、検出部2031により複数の人物が検出された場合は、AF処理部2074は、例えば複数の人物のうちの最も中央に存在する人物に対して合焦させるようにしてもよい。また、検出部2031により複数の主要被写体が検出された場合は、設定部2071は、複数の主要被写体のそれぞれに対して主要被写体領域を設定する。ただし、設定部2071は、複数の主要被写体のうちの一部の主要被写体(例えば、最も中央に存在する主要被写体)に対してだけ主要被写体領域を設定してもよい。 Note that, as shown in FIG. 34, when the main subject is the person O110, the AF processing unit 2074 focuses on the face of the person O110. However, the AF processing unit 2074 may focus on the closest position of the person O110. Also, the main subject is not limited to a person, and may be an object such as a car. Also, when a plurality of main subjects are detected by the detection unit 2031, the AF processing unit 2074 may, for example, preferentially focus on a person among the plurality of main subjects. In addition, when a plurality of persons are detected by the detection unit 2031, the AF processing unit 2074 may focus on, for example, the centralmost person among the plurality of persons. Also, when a plurality of main subjects are detected by the detection unit 2031, the setting unit 2071 sets a main subject area for each of the plurality of main subjects. However, the setting unit 2071 may set the main subject area only for some of the main subjects (for example, the centralmost main subject) among the plurality of main subjects.

また、AE処理部2075は、適正露出となるように露出を制御するAE処理を実行する(ステップS2008)。具体的には、AE処理部2075は、画像処理部2030が生成した画像データの輝度分布を示す輝度分布データを画像処理部2030から取得する。そして、AE処理部2075は、輝度分布データに基づいて、適正露出となるような撮像条件(フレームレート、シャッター速度、及びゲイン(ISO感度)など)と絞り値とを決定する。AE処理部2075は、決定した適正露出に応じた絞り値を示す制御情報をレンズ駆動制御装置15に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、AE処理部2075は、適正露出に応じた撮像条件(フレームレート、シャッター速度、及びゲインなど)を指示する指示信号を駆動部2021に出力する。駆動部2021は、指示信号により指示された撮像条件を設定する。 Also, the AE processing unit 2075 executes AE processing for controlling exposure so as to obtain proper exposure (step S2008). Specifically, the AE processing unit 2075 acquires from the image processing unit 2030 luminance distribution data representing the luminance distribution of the image data generated by the image processing unit 2030 . Based on the brightness distribution data, the AE processing unit 2075 then determines imaging conditions (frame rate, shutter speed, gain (ISO sensitivity), etc.) and aperture value for proper exposure. The AE processing unit 2075 causes drive control for adjusting the aperture diameter of the diaphragm 14 to be executed by transmitting control information indicating the aperture value corresponding to the determined appropriate exposure to the lens drive control device 15 . The AE processing unit 2075 also outputs an instruction signal to the driving unit 2021 to instruct imaging conditions (frame rate, shutter speed, gain, etc.) according to proper exposure. The drive unit 2021 sets the imaging conditions instructed by the instruction signal.

なお、ステップS2006において、設定部2071がフレームレートやゲインなどの撮像条件を設定し、ステップS2008において、AE処理部2075がステップS2006で設定された撮像条件に応じた絞り値を設定するようにしてもよい。また、AE処理部2075がステップS2008において絞り値だけでなくフレームレートやゲインなどの撮像条件を設定する場合は、主要被写体領域2201において非主要被写体領域2203よりも高いフレームレートかつ高いゲインを設定し、部分領域2202において主要被写体領域2201よりも高いフレームレートかつ高いゲインを設定する。これにより、検出部2031による主要被写体である人物の検出のレスポンスを維持し、検出部2031による表情の判定の精度を維持することができる。 In step S2006, the setting unit 2071 sets imaging conditions such as the frame rate and gain, and in step S2008, the AE processing unit 2075 sets the aperture value according to the imaging conditions set in step S2006. good too. Also, when the AE processing unit 2075 sets imaging conditions such as frame rate and gain in addition to the aperture value in step S2008, a higher frame rate and higher gain are set in the main subject area 2201 than in the non-main subject area 2203. , a higher frame rate and a higher gain than in the main subject area 2201 are set in the partial area 2202 . As a result, the detection response of the person who is the main subject by the detection unit 2031 can be maintained, and the accuracy of facial expression determination by the detection unit 2031 can be maintained.

表示制御部2073は、ステップS2003において検出部2031が主要被写体を検出した場合は、図35に示すように、表示面2051のサブ画面2051Sに部分領域202の画像(主要被写体である人物O110の顔の画像)を拡大表示する(ステップS2009)。これにより、表示面2051のサイズが小さい場合でも、使用者が人物O110の顔(及びその表情)を容易に確認することができる。なお、サブ画面2051Sに表示される画像は、主要被写体の一部(人物O110の顔)の画像に限らず、主要被写体の全部の画像であってもよい。また、サブ画面2051Sに表示される主要被写体の一部の画像は、人物O110の顔の画像に限らず、人物O110の上半身の画像などであってもよい。 When the detection unit 2031 detects the main subject in step S2003, the display control unit 2073 displays the image of the partial area 202 (the face of the person O110 who is the main subject) on the sub-screen 2051S of the display surface 2051 as shown in FIG. ) is enlarged and displayed (step S2009). As a result, even when the size of the display surface 2051 is small, the user can easily check the face (and its facial expression) of the person O110. Note that the image displayed on the sub-screen 2051S is not limited to the image of part of the main subject (the face of the person O110), and may be the image of the entire main subject. Further, the partial image of the main subject displayed on the sub-screen 2051S is not limited to the image of the face of the person O110, and may be an image of the upper body of the person O110.

その後、システム制御部2070は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS2010)。システム制御部2070は、レリーズスイッチの半押し操作が行われていないと判定した場合は、動画スイッチの操作が行われたか否かを判定する(ステップS2020)。システム制御部2070は、レリーズスイッチの半押し操作が行われるか、又は動画スイッチの操作が行われるまでステップS2001からステップS2009の処理を繰り返し実行する。従って、検出部2031による主要被写体の検出(ステップS2003)と顔の検出(ステップS2004)とが随時行われる。すなわち、検出部2031による主要被写体の追尾が行われる。また、検出部2031が検出した主要被写体の動きに応じて、設定部2071による領域(主要被写体領域2201、部分領域202、非主要被写体領域2203)の設定(ステップS2005)が随時行われ、設定部2071による領域ごとの撮像条件の設定も随時行われる。その結果、検出部2031が主要被写体の動きを高精度かつ高速に検出することができ、検出部2031による主要被写体の追尾のレスポンスが向上する。 After that, the system control unit 2070 determines whether or not the release switch has been half-pressed (operation of SW1) (step S2010). If the system control unit 2070 determines that the release switch has not been pressed halfway, it determines whether the moving image switch has been operated (step S2020). The system control unit 2070 repeats the processing from step S2001 to step S2009 until the release switch is half-pressed or the moving image switch is operated. Therefore, detection of the main subject (step S2003) and detection of the face (step S2004) by the detection unit 2031 are performed as needed. That is, the main subject is tracked by the detection unit 2031 . Further, according to the motion of the main subject detected by the detection unit 2031, the setting unit 2071 sets the regions (main subject region 2201, partial region 202, non-main subject region 2203) (step S2005) as needed. The setting of imaging conditions for each area by 2071 is also performed as needed. As a result, the detection unit 2031 can detect the movement of the main subject with high accuracy and high speed, and the tracking response of the main subject by the detection unit 2031 is improved.

システム制御部2070は、レリーズスイッチの半押し操作が行われたと判定した場合は(ステップS2010のYES)、制御部2072は、ライブビュー画像の撮影を行い(ステップS2011)、表示制御部2073は、撮像素子2100で撮像されたライブビュー画像を表示部2050の表示面2051に表示する(ステップS2012)。また、AF処理部2074は、ステップS2007で説明した場合と同様にAF処理を実行し(ステップS2013)、AE処理部2075は、ステップS2008で説明した場合と同様にAE処理を実行する(ステップS2014)。なお、AF処理部2074は、レリーズスイッチの半押し操作が行われた場合にだけAF処理を実行する構成でもよい。すなわち、AF処理部2074は、ライブビュー画像の撮像中においてはAF処理を実行しない構成でもよい。同様に、AE処理部2075は、レリーズスイッチの半押し操作が行われた場合にだけAE処理を実行する構成でもよい。すなわち、AE処理部2075は、ライブビュー画像の撮像中においてはAE処理を実行しない構成でもよい。 When the system control unit 2070 determines that the release switch has been half-pressed (YES in step S2010), the control unit 2072 captures a live view image (step S2011), and the display control unit 2073 A live view image captured by the imaging element 2100 is displayed on the display surface 2051 of the display unit 2050 (step S2012). Also, the AF processing unit 2074 executes AF processing (step S2013) in the same manner as described in step S2007, and the AE processing unit 2075 executes AE processing in the same manner as in step S2008 (step S2014). ). Note that the AF processing unit 2074 may be configured to execute AF processing only when the release switch is half-pressed. That is, the AF processing unit 2074 may be configured not to execute AF processing while capturing a live view image. Similarly, the AE processing unit 2075 may be configured to perform AE processing only when the release switch is half-pressed. That is, the AE processing unit 2075 may be configured not to execute AE processing while the live view image is being captured.

その後、システム制御部2070は、レリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS2015)。システム制御部2070がレリーズスイッチの全押し操作が行われていないと判定した場合は(ステップS2015のNO)、上記したステップS2010からステップS2014までの処理を繰り返し実行する。システム制御部2070がレリーズスイッチの全押し操作が行われたと判定した場合は(ステップS2015のYES)、制御部2072は、主要被写体の表情が笑顔であるか否かを判定する(ステップS2016)。本実施形態では、検出部2031は、顔検出機能を用いて主要被写体としての人物の表情を検出し、検出した表情を示す情報をシステム制御部2070に出力する。制御部2072は、検出部2031から出力される人物の表情を示す情報に基づいて人物の表情が特定の表情(笑顔)であるか否かを判定する。 After that, the system control unit 2070 determines whether or not the release switch has been fully pressed (operation of SW2) (step S2015). When the system control unit 2070 determines that the release switch has not been fully pressed (NO in step S2015), the processes from steps S2010 to S2014 are repeated. When the system control unit 2070 determines that the release switch has been fully pressed (YES in step S2015), the control unit 2072 determines whether the facial expression of the main subject is smiling (step S2016). In this embodiment, the detection unit 2031 uses a face detection function to detect the facial expression of a person as the main subject, and outputs information indicating the detected facial expression to the system control unit 2070 . The control unit 2072 determines whether or not the facial expression of the person is a specific facial expression (smile) based on the information indicating the facial expression of the person output from the detection unit 2031 .

図36は、笑顔の画像及び笑顔でない画像の一例を示す図である。図36(A)は人物の表情が笑顔である場合を示し、図36(B)は人物の表情が笑顔でない場合を示している。検出部2031は、顔検出機能を用いて検出した人物の表情が笑顔であるか否かを判定する。検出部2031は、図36(A)に示すように、人物の表情が笑顔であると判定した場合は、人物の表情が笑顔であることを示す情報をシステム制御部2070に出力する。また、検出部2031は、図36(B)に示すように、人物の表情が笑顔でないと判定した場合は、人物の表情が笑顔でないことを示す情報をシステム制御部2070に出力する。制御部2072は、検出部2031から出力される人物の表情を示す情報に基づいて人物の表情が笑顔であるか否かを判定する。 FIG. 36 is a diagram showing an example of a smiling image and a non-smiling image. FIG. 36A shows a case where the facial expression of the person is smiling, and FIG. 36B shows a case where the facial expression of the person is not smiling. The detection unit 2031 determines whether or not the facial expression of the person detected using the face detection function is a smile. As shown in FIG. 36A , when determining that the facial expression of the person is smiling, the detecting unit 2031 outputs information indicating that the facial expression of the person is smiling to the system control unit 2070 . Further, as shown in FIG. 36B, when the detection unit 2031 determines that the facial expression of the person is not smiling, it outputs information indicating that the facial expression of the person is not smiling to the system control unit 2070 . The control unit 2072 determines whether or not the facial expression of the person is a smile based on the information indicating the facial expression of the person output from the detection unit 2031 .

制御部2072は、検出部2031から出力される人物の表情を示す情報に基づいて、主要被写体である人物の表情が特定の表情(笑顔)であると判定した場合、撮像処理を実行する(ステップS2017)。上述したように、ステップS2014のAE処理において、AE処理部2075は、適正露出の輝度レベルに基づいて被写体に適した撮像条件を決定している。ステップS2017の撮像処理では、制御部2072は、ステップS2014のAE処理で決定された撮像条件を指示する指示信号を駆動部2021に出力する。そして、制御部2072は、撮像を指示する指示信号を駆動部2021に出力する。駆動部2021は、制御部2072から指示された撮像条件で撮像素子2100を駆動制御して撮像を実行する。なお、画素領域113Aの各画素において、同じ撮像条件による撮像が行われてもよく、また、被写体ごとに異なる撮像条件による撮像が行われてもよい。 If the control unit 2072 determines that the facial expression of the person who is the main subject is a specific facial expression (smile) based on the information indicating the facial expression of the person output from the detection unit 2031, the control unit 2072 executes imaging processing (step S2017). As described above, in the AE processing in step S2014, the AE processing unit 2075 determines imaging conditions suitable for the subject based on the brightness level of proper exposure. In the imaging process of step S2017, the control unit 2072 outputs to the drive unit 2021 an instruction signal that instructs the imaging conditions determined in the AE process of step S2014. Then, the control unit 2072 outputs an instruction signal instructing imaging to the driving unit 2021 . The drive unit 2021 drives and controls the image sensor 2100 under the imaging conditions instructed by the control unit 2072 to perform imaging. In each pixel of the pixel region 113A, imaging may be performed under the same imaging conditions, or imaging may be performed under different imaging conditions for each subject.

なお、制御部2072は、ステップS2016で人物の表情が笑顔であるか否かを判定し、笑顔であると判定したことを条件にステップS2017の撮像処理を実行している。しかし、このような構成に限定されず、制御部2072は、人物が目をつぶっているか否かを判定し、目をつぶっていないと判定したことを条件にステップS2017の撮像処理を実行してもよい。すなわち、撮像処理を実行するための条件としては、人物の表情に関わる条件に限らず、人物が特定の動作を行っていることなどを条件としてもよい。 Note that the control unit 2072 determines whether or not the facial expression of the person is smiling in step S2016, and executes the imaging process in step S2017 on the condition that it is determined to be smiling. However, the configuration is not limited to this, and the control unit 2072 determines whether or not the person's eyes are closed, and executes the imaging process in step S2017 on the condition that it is determined that the person's eyes are not closed. good too. That is, the condition for executing the imaging process is not limited to the condition related to the facial expression of the person, and may be the condition that the person is performing a specific action.

ステップS2020において、システム制御部2070が動画スイッチの操作が行われたと判定した場合は(ステップS2020のYES)、制御部2072は、動画の撮影を開始する(図33のステップS2021)。また、表示制御部2073は、撮像素子2100で撮像された動画を表示部2050の表示面2051に表示する(ステップS2022)。また、設定部2071は、ステップS2003で説明した場合と同様に、画像処理部2030に対して指示信号を出力することにより、検出部2031に主要被写体の検出を実行させる(ステップS2023)。検出部2031は、設定部2071からの指示信号を受け取ると、画像データに含まれる人物(人体)を主要被写体として検出する。また、設定部2071は、ステップS2004で説明した場合と同様に、画像処理部2030に対して指示信号を出力することにより、検出部2031に主要被写体の一部分である人物の顔の検出を実行させる(ステップS2024)。検出部2031は、設定部2071からの指示信号を受け取ると、画像データに基づいて公知の顔検出機能を用いて主要被写体の一部分である人物の顔を検出する。 If the system control unit 2070 determines in step S2020 that the moving image switch has been operated (YES in step S2020), the control unit 2072 starts capturing moving images (step S2021 in FIG. 33). Also, the display control unit 2073 displays the moving image captured by the image sensor 2100 on the display surface 2051 of the display unit 2050 (step S2022). The setting unit 2071 outputs an instruction signal to the image processing unit 2030 to cause the detection unit 2031 to detect the main subject (step S2023). Upon receiving the instruction signal from the setting unit 2071, the detection unit 2031 detects a person (human body) included in the image data as the main subject. Further, the setting unit 2071 outputs an instruction signal to the image processing unit 2030 to cause the detection unit 2031 to detect the face of a person who is part of the main subject, as in the case described in step S2004. (Step S2024). Upon receiving the instruction signal from the setting unit 2071, the detection unit 2031 detects the face of a person who is part of the main subject using a known face detection function based on the image data.

次に、設定部2071は、ステップS2005で説明した場合と同様に、画素領域113Aにおいて領域を設定する(ステップS2025)。すなわち、設定部2071は、検出部2031が主要被写体を検出した場合は、主要被写体を含む主要被写体領域及び部分領域をブロック単位で設定する。また、設定部2071は、画素領域113Aにおいて主要被写体領域以外の領域を非主要被写体領域として設定する。 Next, the setting unit 2071 sets a region in the pixel region 113A (step S2025) in the same manner as described in step S2005. That is, when the detection unit 2031 detects the main subject, the setting unit 2071 sets the main subject area and the partial area including the main subject in units of blocks. The setting unit 2071 also sets areas other than the main subject area in the pixel area 113A as non-main subject areas.

また、設定部2071は、ステップS2006で説明した場合と同様に、主要被写体領域と部分領域と非主要被写体領域とで異なる撮像条件を設定する(ステップS2026)。すなわち、設定部2071は、主要被写体領域において非主要被写体領域よりも高いフレームレートかつ高いゲインを設定する。また、設定部2071は、部分領域において主要被写体領域よりも高いフレームレートかつ高いゲインを設定する。また、AF処理部2074は、ステップS2007で説明した場合と同様にAF処理を実行し(ステップS2027)、AE処理部2075は、ステップS2008で説明した場合と同様にAE処理を実行する(ステップS2028)。そして、表示制御部2073は、ステップS2009で説明した場合と同様に、表示面2051のサブ画面2051Sに部分領域の画像(例えば人物の顔の画像)を拡大表示する(ステップS2029)。 Also, the setting unit 2071 sets different imaging conditions for the main subject area, the partial area, and the non-main subject area (step S2026), as in the case described in step S2006. That is, the setting unit 2071 sets a higher frame rate and a higher gain in the main subject area than in the non-main subject area. Also, the setting unit 2071 sets a higher frame rate and a higher gain in the partial area than in the main subject area. Also, the AF processing unit 2074 executes AF processing in the same manner as described in step S2007 (step S2027), and the AE processing unit 2075 executes AE processing in the same manner as in step S2008 (step S2028). ). Then, the display control unit 2073 enlarges and displays the image of the partial area (for example, the image of the person's face) on the sub-screen 2051S of the display surface 2051 (step S2029) in the same manner as described in step S2009.

制御部2072は、画像処理部2030により生成された動画の画像データを記録部2060に記録する制御を行う(ステップS2030)。その後、システム制御部2070は、使用者による動画スイッチの操作(動画の撮影を終了させるための操作)が行われたか否かを判定する(ステップS2031)。システム制御部2070は、動画スイッチの操作が行われていないと判定した場合は、上記したステップS2021からステップS2031までの処理を繰り返し実行する。システム制御部2070は、動画スイッチの操作が行われたと判定した場合は、処理を終了する。 The control unit 2072 performs control to record the moving image data generated by the image processing unit 2030 in the recording unit 2060 (step S2030). After that, the system control unit 2070 determines whether or not the user has operated the moving image switch (operation for ending the shooting of the moving image) (step S2031). If the system control unit 2070 determines that the moving image switch has not been operated, the system control unit 2070 repeats the processing from step S2021 to step S2031 described above. If the system control unit 2070 determines that the moving image switch has been operated, the process ends.

以上に説明したように、第10実施形態では、撮像素子2100を有する撮像部2020と、主要被写体(例えば図34に示す人物O110)を検出する検出部2031と、撮像素子2100の撮像領域113Aにおいて、検出部2031が検出した主要被写体を含む第1領域(例えば主要被写体領域2201)と第1領域とは異なる第2領域(例えば非主要被写体領域2203)とを設定する設定部2071と、第1領域と第2領域とを異なる撮像条件で撮像を行わせる制御部2072と、を備える。このような構成によれば、主要被写体に合わせて領域を設定し、領域に対応した撮像条件で撮像を行うことができる。従って、検出部2031が第1領域で撮像された画像データに基づいて高精度で主要被写体の追尾を行うことができる。 As described above, in the tenth embodiment, the imaging unit 2020 having the imaging device 2100, the detecting unit 2031 that detects the main subject (for example, the person O110 shown in FIG. 34), and the imaging region 113A of the imaging device 2100 , a setting unit 2071 that sets a first area (for example, the main subject area 2201) containing the main subject detected by the detection unit 2031 and a second area (for example, the non-main subject area 2203) different from the first area; and a control unit 2072 for imaging the area and the second area under different imaging conditions. According to such a configuration, it is possible to set an area according to the main subject and perform imaging under imaging conditions corresponding to the area. Therefore, the detection unit 2031 can highly accurately track the main subject based on the image data captured in the first area.

また、第10実施形態では、設定部2071は、主要被写体の移動に合わせて第1領域を変化させる。このような構成によれば、検出部2031が第1領域の画像データに基づいて主要被写体の動きを高精度かつ高速に検出することができる。また、第10実施形態では、主要被写体の焦点位置を検出する焦点検出部2074を備え、設定部2071は、焦点検出部2074が検出した焦点位置に関する情報に基づいて主要被写体の移動を予測する。このような構成によれば、主要被写体が移動している場合でも、主要被写体の移動に合わせて主要被写体領域を設定することができる。 Also, in the tenth embodiment, the setting unit 2071 changes the first area according to the movement of the main subject. With such a configuration, the detection unit 2031 can detect the movement of the main subject with high accuracy and high speed based on the image data of the first area. Further, in the tenth embodiment, a focus detection unit 2074 that detects the focus position of the main subject is provided, and the setting unit 2071 predicts movement of the main subject based on information regarding the focus position detected by the focus detection unit 2074. According to such a configuration, even when the main subject is moving, the main subject area can be set according to the movement of the main subject.

また、第10実施形態では、制御部2072は、第1領域に対して、撮像条件としてのゲイン及びフレームレートの少なくとも一方について第2領域よりも高く設定する。このような構成によれば、検出部2031による主要被写体の追尾のレスポンスが向上する。 Further, in the tenth embodiment, the control unit 2072 sets at least one of the gain and the frame rate as imaging conditions for the first region to be higher than that for the second region. According to such a configuration, the tracking response of the main subject by the detection unit 2031 is improved.

また、第10実施形態では、第1領域を表示部2050に表示する表示制御部2073を備える。このような構成によれば、検出部2031が主要被写体を検出したことを使用者に知らせるとともに、第1領域の位置やサイズなどを使用者に知らせることができる。また、表示制御部2073は、主要被写体の少なくとも一部(例えば人物O110の顔)を第2領域の所定位置(例えばサブ画面2051S)に拡大表示する。このような構成によれば、表示部2050の表示面2051のサイズが小さい場合でも、使用者が主要被写体又は主要被写体の一部を容易に確認することができる。 Further, in the tenth embodiment, the display control unit 2073 that displays the first area on the display unit 2050 is provided. According to such a configuration, it is possible to inform the user that the detection unit 2031 has detected the main subject, and to inform the user of the position, size, etc. of the first area. Also, the display control unit 2073 enlarges and displays at least part of the main subject (for example, the face of the person O110) in a predetermined position (for example, the sub-screen 2051S) in the second area. According to such a configuration, even when the size of the display surface 2051 of the display unit 2050 is small, the user can easily confirm the main subject or part of the main subject.

また、第10実施形態では、主要被写体としての人物の表情及び動作(例えば瞬き)を含む態様を検出する態様検出部2031を備え、制御部2072は、態様検出部2031により検出された態様が特定態様(例えば笑顔、目をつぶっていない状態)である場合に、撮像部2020に本撮像を行わせる。このような構成によれば、最適な人物の表情や動作などが行われているタイミングで撮像を行うことができる。 Further, in the tenth embodiment, a mode detection unit 2031 is provided for detecting a mode including facial expressions and actions (for example, blinking) of a person as a main subject. In the case of a state (for example, a smiling face, a state in which eyes are not closed), the imaging unit 2020 is caused to perform main imaging. According to such a configuration, it is possible to capture an image at the optimum timing when the person's facial expression, motion, and the like are performed.

なお、上記した第10実施形態では、電子機器の一例としてデジタルカメラ2001を挙げていたが、これに限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図31に示す画像処理部2030とシステム制御部2070は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部2030の機能とシステム制御部2070の機能を担う。 In the tenth embodiment described above, the digital camera 2001 is used as an example of an electronic device, but the electronic device is not limited to this, and may be configured by a device such as a smartphone, a mobile phone, or a personal computer equipped with an imaging function. good too. Also, the image processing unit 2030 and the system control unit 2070 shown in FIG. 31 may be integrated. In this case, the system control unit having one body-side CPU performs the functions of the image processing unit 2030 and the system control unit 2070 by executing processing based on the control program.

<第11実施形態>
上記した第10実施形態では、検出部2031が主要被写体を検出した場合と主要被写体を検出していない場合とで非主要被写体領域が変化していなかった。一方、第11実施形態では、検出部2031が主要被写体を検出した場合と主要被写体を検出していない場合とで非主要被写体領域が変化する。
<Eleventh Embodiment>
In the tenth embodiment described above, the non-main subject area does not change between when the main subject is detected by the detection unit 2031 and when the main subject is not detected. On the other hand, in the eleventh embodiment, the non-main subject area changes depending on whether the detection unit 2031 detects the main subject or not.

図37は、第11実施形態における領域の設定処理(図32のステップS2005、図33のステップS2025を説明するためのフローチャートである。図32のステップS2005又は図33のステップS2025における領域の設定処理において、設定部2071は、検出部2031が主要被写体を検出したか否かを判定する(ステップS2041)。設定部2071は、検出部2031が主要被写体を検出したと判定した場合は、検出部2031からの主要被写体の位置及びサイズを示す信号に基づいて、画素領域(撮像領域)113Aにおいて主要被写体領域と非主要被写体領域とを設定する(ステップS2042)。また、設定部2071は、検出部2031からの主要被写体の一部分の位置及びサイズを示す信号に基づいて、主要被写体領域内に部分領域を設定する(ステップS2043)。このようなステップS2041からステップS2043の処理は、第10実施形態で説明した処理と同様である。 FIG. 37 is a flowchart for explaining the area setting process (step S2005 in FIG. 32 and step S2025 in FIG. 33) in the eleventh embodiment. , the setting unit 2071 determines whether or not the detection unit 2031 has detected the main subject (step S2041).If the setting unit 2071 determines that the detection unit 2031 has detected the main subject, A main subject area and a non-main subject area are set in the pixel area (imaging area) 113A based on the signal indicating the position and size of the main subject from the detection unit 2031 (step S2042). A partial area is set within the main subject area based on a signal indicating the position and size of a part of the main subject from (step S2043) Such processing from steps S2041 to S2043 will be described in the tenth embodiment. It is the same as the processing that was done.

設定部2071は、検出部2031が主要被写体を検出していないと判定した場合は、画素領域(撮像領域)113AにおいてAF領域とAE領域とを設定する(ステップS2044)。AF領域は、AF処理部2074がAF処理(ステップS2007、S2013,S2027)を実行する際に参照する画像(被写体)を撮像する領域である。AE領域は、AE処理部2075がAE処理(ステップS2008,S2014,S2028)を実行する際に参照する画像(被写体)を撮像する領域である。 When the detection unit 2031 determines that the main subject is not detected, the setting unit 2071 sets the AF area and the AE area in the pixel area (imaging area) 113A (step S2044). The AF area is an area where an image (object) to be referred to when the AF processing unit 2074 executes AF processing (steps S2007, S2013, S2027) is captured. The AE area is an area where an image (object) to be referred to when the AE processing unit 2075 executes AE processing (steps S2008, S2014, S2028) is captured.

図38は、第11実施形態に係るAF領域2114とAE領域2115との配列パターンを示す図である。図38に示す配列パターンは、画素領域113AがAF領域2114とAE領域2115とに2分割される配列パターンである。この配列パターンでは、画素領域113Aにおいて、奇数の列(2m-1)における奇数の行(2n-1)のブロックと、偶数の列(2m)における偶数の行(2n)のブロックとでAF領域2114が構成されている。また、偶数の列(2m)における奇数の行(2n-1)のブロックと、奇数の列(2m-1)における偶数の行(2n)のブロックとでAE領域2115が構成されている。すなわち、画素領域113Aにおける各ブロックが市松模様となるように分割されている。m及びnは正の整数(m=1,2,3,・・・、n=1,2,3,・・・)である。このような構成では、撮像素子2100の画素領域113A全面においてAF領域2114とAE領域2115とが分散的に配置されているので、撮像素子2100はAF領域2114とAE領域2115とにおいて同時に撮像することができる。 FIG. 38 is a diagram showing an arrangement pattern of AF areas 2114 and AE areas 2115 according to the eleventh embodiment. The array pattern shown in FIG. 38 is an array pattern in which the pixel area 113A is divided into two areas, the AF area 2114 and the AE area 2115. The array pattern shown in FIG. In this arrangement pattern, in the pixel region 113A, the AF area is composed of a block of an odd row (2n−1) in an odd column (2m−1) and a block of an even row (2n) in an even column (2m). 2114 is configured. Also, an AE area 2115 is composed of blocks in odd rows (2n−1) in even columns (2m) and blocks in even rows (2n) in odd columns (2m−1). That is, each block in the pixel region 113A is divided into a checkered pattern. m and n are positive integers (m = 1, 2, 3, ..., n = 1, 2, 3, ...). In such a configuration, since the AF area 2114 and the AE area 2115 are dispersedly arranged over the entire pixel area 113A of the image sensor 2100, the image sensor 2100 can simultaneously capture images in the AF area 2114 and the AE area 2115. can be done.

なお、図38において、ブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックが設定されているが、図38に示すブロックの数よりも多い数のブロックが画素領域113Aに設定されてもよい。 In FIG. 38, a small number of blocks are set in the pixel region 113A in order to make the arrangement of the blocks easier to see, but a larger number of blocks than those shown in FIG. 38 are set in the pixel region 113A. may be

図39は、検出部2031により主要被写体が検出されなかった場合の非主要被写体領域2213を示す図である。図39に示すように、検出部2031が主要被写体(例えば図34に示した人物O110)を検出しなかった場合は、設定部2071は、画素領域113Aの全面(すなわち非主要被写体領域2213)においてAF領域2114とAE領域2115とを設定する(ステップS2044参照)。この場合、設定部2071は、撮像条件として、AF領域2114に対してAE領域2115よりも高いフレームレートかつ高いゲインを設定する(ステップS2006,S2026参照)。 FIG. 39 is a diagram showing a non-main subject area 2213 when the main subject is not detected by the detection unit 2031. FIG. As shown in FIG. 39, when the detection unit 2031 does not detect the main subject (for example, the person O110 shown in FIG. 34), the setting unit 2071 detects the An AF area 2114 and an AE area 2115 are set (see step S2044). In this case, the setting unit 2071 sets a higher frame rate and higher gain for the AF area 2114 than for the AE area 2115 as the imaging conditions (see steps S2006 and S2026).

また、AF処理(ステップS2007,S2013,S2027参照)では、AF処理部2074は、AF領域2114で撮像された背景の被写体O120,O130の像のコントラストを表すコントラスト信号を画像処理部2030から取得する。そして、AF処理部2074は、フォーカシング用レンズ11cを移動させながら、画像処理部2030からのコントラスト信号に基づいて、被写体O120,O130の像のコントラストが最も高くなるフォーカシング用レンズ11cの位置を焦点位置として検出する。AF処理部2074は、検出した焦点位置にフォーカシング用レンズ11cを移動させるように、制御信号をレンズ駆動制御装置15に送信する。 In the AF processing (see steps S2007, S2013, and S2027), the AF processing unit 2074 acquires from the image processing unit 2030 a contrast signal representing the contrast of the images of the background subjects O120 and O130 captured in the AF area 2114. . Then, while moving the focusing lens 11c, the AF processing unit 2074, based on the contrast signal from the image processing unit 2030, sets the position of the focusing lens 11c at which the contrast of the images of the objects O120 and O130 is the highest. Detect as The AF processing unit 2074 transmits a control signal to the lens driving control device 15 so as to move the focusing lens 11c to the detected focal position.

また、AE処理(ステップS2008,S2014,S2028参照)では、AE処理部2075は、AE領域2115で撮像された背景の被写体O120,O130の画像データの輝度分布を示す輝度分布データを画像処理部2030から取得する。そして、AE処理部2075は、輝度分布データに基づいて、適正露出となるような撮像条件(フレームレート、シャッター速度、及びゲインなど)と絞り値とを決定する。AE処理部2075は、決定した適正露出に応じた絞り値を示す制御情報をレンズ駆動制御装置15に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、AE処理部2075は、適正露出に応じた撮像条件(フレームレート、シャッター速度、及びゲインなど)を指示する指示信号を駆動部2021に出力する。駆動部2021は、指示信号により指示された撮像条件を設定する。 In the AE processing (see steps S2008, S2014, and S2028), the AE processing unit 2075 sends luminance distribution data representing the luminance distribution of the image data of the background subjects O120 and O130 captured in the AE area 2115 to the image processing unit 2035. Get from Based on the brightness distribution data, the AE processing unit 2075 then determines imaging conditions (frame rate, shutter speed, gain, etc.) and aperture value that provide proper exposure. The AE processing unit 2075 causes drive control for adjusting the aperture diameter of the diaphragm 14 to be executed by transmitting control information indicating the aperture value corresponding to the determined appropriate exposure to the lens drive control device 15 . The AE processing unit 2075 also outputs an instruction signal to the driving unit 2021 to instruct imaging conditions (frame rate, shutter speed, gain, etc.) according to proper exposure. The drive unit 2021 sets the imaging conditions instructed by the instruction signal.

このように、検出部2031が主要被写体を検出しなかった場合に、設定部2071は、画素領域113AにおいてAF領域2114とAE領域2115とを設定し、また、AF領域2114においてAE領域2115よりも高いフレームレートかつ高いゲインを設定する。このような構成の場合は、画像処理部2030は非主要被写体領域2213における被写体O120,O130の像のコントラストの評価値を素早く算出することができる。その結果、AF処理部2074は、AF処理において素早く焦点位置の検出を行うことができる。一方、AE処理部2075がAE処理で測光を行うために用いる画像データは、高いフレームレートや高いゲインである必要はない。従って、AE領域2115のフレームレートをAF領域2114よりも低くし、AE領域2115のゲインをAF領域2114よりも低くすることにより、消費電力を抑制し、AE領域2115の画像データのノイズを低減している。 In this way, when the detection unit 2031 does not detect the main subject, the setting unit 2071 sets the AF area 2114 and the AE area 2115 in the pixel area 113A. Set a high frame rate and high gain. With such a configuration, the image processing unit 2030 can quickly calculate the contrast evaluation value of the images of the subjects O120 and O130 in the non-main subject area 2213 . As a result, the AF processing unit 2074 can quickly detect the focal position in AF processing. On the other hand, the image data used by the AE processing unit 2075 to perform photometry in AE processing does not need to have a high frame rate or high gain. Therefore, by setting the frame rate of the AE area 2115 lower than that of the AF area 2114 and setting the gain of the AE area 2115 lower than that of the AF area 2114, the power consumption is suppressed and the noise of the image data of the AE area 2115 is reduced. ing.

以上に説明したように、第11実施形態では、設定部2071は、検出部2031が主要被写体を検出していない場合に、撮像領域113Aにおいて、第3領域(例えばAF領域2114)を分散的に配置するとともに第3領域とは異なる第4領域(例えばAE領域2115)を分散的に配置し、制御部2072は、第3領域を焦点検出に関する撮像条件で撮像させ、第4領域を露出検出に関する撮像条件で撮像させる。このような構成によれば、焦点検出部2074が素早く焦点位置の検出を行うことができる。 As described above, in the eleventh embodiment, when the detection unit 2031 has not detected the main subject, the setting unit 2071 dispersively sets the third area (for example, the AF area 2114) in the imaging area 113A. A fourth area (for example, the AE area 2115) different from the third area is dispersively arranged, and the control unit 2072 causes the third area to be imaged under the imaging conditions related to focus detection, and the fourth area to be related to exposure detection. Take an image under the imaging conditions. With such a configuration, the focus detection section 2074 can quickly detect the focus position.

次に、第11実施形態の変形例について説明する。図40は、検出部2031により主要被写体が検出された場合の主要被写体領域2211と部分領域2212と非主要被写体領域2213とを示す図である。上記した第11実施形態では、設定部2071は、検出部2031が主要被写体を検出しなかった場合に(図37のステップS2041のNO参照)、画素領域113AにおいてAF領域2114とAE領域2115とを設定していた(図37のステップS2044参照)。これに対して、第11実施形態の変形例では、設定部2071は、検出部2031が主要被写体を検出した場合に(図37のステップS2041のYES参照)、図40に示すように、非主要被写体領域2213においてAF領域2114とAE領域2115とを設定する。このように第11実施形態の変形例では、設定部2071は、検出部2031が主要被写体を検出した場合に、第2領域(例えば非主要被写体領域2213)において、第3領域(例えばAF領域2114)を分散的に配置するとともに第3領域とは異なる第4領域(例えばAE領域2115)を分散的に配置し、制御部2072は、第3領域を焦点検出に関する撮像条件で撮像させ、第4領域を露出検出に関する撮像条件で撮像させる。このような構成によれば、第2領域(非主要被写体領域2213)に新たに主要被写体(例えば人物O110とは異なる主要被写体)が入った場合に、画像処理部2030が第2領域(非主要被写体領域2213)における主要被写体の像のコントラストの評価値を素早く算出することができる。 Next, a modification of the eleventh embodiment will be described. FIG. 40 is a diagram showing a main subject area 2211, a partial area 2212, and a non-main subject area 2213 when the main subject is detected by the detection unit 2031. FIG. In the eleventh embodiment described above, when the detection unit 2031 does not detect the main subject (see NO in step S2041 in FIG. 37), the setting unit 2071 sets the AF area 2114 and the AE area 2115 in the pixel area 113A. has been set (see step S2044 in FIG. 37). On the other hand, in the modification of the eleventh embodiment, when the detection unit 2031 detects the main subject (see YES in step S2041 in FIG. 37), the setting unit 2071 sets the non-main subject as shown in FIG. An AF area 2114 and an AE area 2115 are set in the subject area 2213 . Thus, in the modification of the eleventh embodiment, when the detection unit 2031 detects the main subject, the setting unit 2071 sets the third area (for example, the AF area 2114) in the second area (for example, the non-main subject area 2213). ) are dispersively arranged and a fourth region (for example, the AE region 2115) different from the third region is dispersively arranged. The area is imaged under imaging conditions related to exposure detection. According to such a configuration, when a new main subject (for example, a main subject different from the person O110) enters the second area (non-main subject area 2213), the image processing unit 2030 detects the second area (non-main subject area 2213). It is possible to quickly calculate the contrast evaluation value of the image of the main subject in the subject area 2213).

図41は、第11実施形態に係るAF領域2116とAE領域2117との配列パターンの変形例を示す図である。上記した第11実施形態では、図38に示したように、配列パターンは画素領域113Aにおける各ブロックが市松模様となるように配置されていた。これに対して、第11実施形態の変形例では、図41に示すように、画素領域113Aにおいて、複数のAF領域2116が離散的かつ均等に形成されている。AF領域2116は、複数の小さい方形状の領域として形成されている。また、画素領域113Aにおいて、AE領域2117はAF領域2116以外の領域である。図41に示す例では、AE領域2117の面積は、AF領域2116の面積よりも広くなっている。すなわち、AF領域2116とAE領域2117とで面積比率が異なる。 FIG. 41 is a diagram showing a modification of the arrangement pattern of AF areas 2116 and AE areas 2117 according to the eleventh embodiment. In the eleventh embodiment described above, as shown in FIG. 38, the array pattern is such that each block in the pixel region 113A is arranged in a checkered pattern. On the other hand, in the modification of the eleventh embodiment, as shown in FIG. 41, a plurality of AF regions 2116 are discretely and evenly formed in the pixel region 113A. The AF area 2116 is formed as a plurality of small rectangular areas. Also, in the pixel area 113A, the AE area 2117 is an area other than the AF area 2116. FIG. In the example shown in FIG. 41, the area of the AE area 2117 is wider than the area of the AF area 2116. In the example shown in FIG. That is, the AF area 2116 and the AE area 2117 have different area ratios.

なお、図41において、ブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックが設定されているが、図41に示すブロックの数よりも多い数のブロックが画素領域113Aに設定されてもよい。 In FIG. 41, a small number of blocks are set in the pixel region 113A in order to make the arrangement of the blocks easier to see, but a larger number of blocks than the blocks shown in FIG. 41 are set in the pixel region 113A. may be

このような構成によれば、AE処理部2075が広い範囲のAE領域2117で生成される画像データの輝度分布に基づいて測光を行うことができる。その結果、AE処理部2075による測光の精度が向上する。 With such a configuration, the AE processing unit 2075 can perform photometry based on the luminance distribution of image data generated in the AE area 2117 over a wide range. As a result, the accuracy of photometry by the AE processing unit 2075 is improved.

<第12実施形態>
上記した第11実施形態では、画素領域113AにおいてAF領域とAE領域とが設定されていた(図38及び図41参照)。これに対して、第12実施形態では、画素領域113Aにおいて静止画を撮像するための静止画領域と動画を撮像するための動画領域とが設定される。
<Twelfth Embodiment>
In the eleventh embodiment described above, the AF area and the AE area are set in the pixel area 113A (see FIGS. 38 and 41). In contrast, in the twelfth embodiment, a still image area for capturing a still image and a moving image area for capturing a moving image are set in the pixel area 113A.

図42は、第12実施形態のシステム制御部2070が実行する撮影モード設定処理を説明するためのフローチャートである。図42に示す撮影モード設定処理は、図32及び図33に示した撮影動作が行われる前に実行される。図42に示すように、まず、システム制御部2070は、使用者が操作部2055などの操作により設定した撮影モードを確認する(ステップS2051)。そして、システム制御部2070は、ステップS2051で確認した撮影モードが通常撮影モードであるか否かを判定する(ステップS2052)。ここで、通常撮影モードとは、設定部2071が画素領域(撮像領域)113Aを静止画領域と動画領域とに分割せずに、画素領域113Aを1つの領域として被写体の静止画又は動画を撮影する撮影モードをいう。この通常撮影モードは、一般的に行われている通常の静止画又は動画を撮影する撮影モードである。すなわち、第10実施形態及び第11実施形態で説明した静止画又は動画を撮影する撮影モードである。 FIG. 42 is a flowchart for explaining shooting mode setting processing executed by the system control unit 2070 of the twelfth embodiment. The shooting mode setting process shown in FIG. 42 is executed before the shooting operation shown in FIGS. 32 and 33 is performed. As shown in FIG. 42, first, the system control unit 2070 confirms the shooting mode set by the user by operating the operation unit 2055 (step S2051). Then, the system control unit 2070 determines whether or not the shooting mode confirmed in step S2051 is the normal shooting mode (step S2052). Here, the normal shooting mode means that the setting unit 2071 shoots a still image or a moving image of a subject using the pixel area 113A as one area without dividing the pixel area (imaging area) 113A into a still image area and a moving image area. shooting mode. This normal shooting mode is a shooting mode in which normal still images or moving images are generally shot. That is, it is a shooting mode for shooting still images or moving images described in the tenth and eleventh embodiments.

システム制御部2070は、ステップS2051で確認した撮影モードが通常撮影モードであると判定した場合は、撮影モードとして通常撮影モードに設定する(ステップS2053)。一方、システム制御部2070は、ステップS2051で確認した撮影モードが通常撮影モードでないと判定した場合は、撮影モードをミックスモードに設定する(ステップS2054)。ここで、ミックスモードとは、設定部2071が画素領域113Aを静止画領域と動画領域とに分割し、静止画領域において静止画を撮影し、動画領域において動画を撮影する撮影モードをいう。このミックスモードでは、静止画と動画とを同時に撮影することができる。なお、ライブビュー画像は静止画領域において撮影される。 If the system control unit 2070 determines that the shooting mode confirmed in step S2051 is the normal shooting mode, it sets the shooting mode to the normal shooting mode (step S2053). On the other hand, when the system control unit 2070 determines that the shooting mode confirmed in step S2051 is not the normal shooting mode, it sets the shooting mode to the mix mode (step S2054). Here, the mix mode is a shooting mode in which the setting unit 2071 divides the pixel area 113A into a still image area and a moving image area, shoots a still image in the still image area, and shoots a moving image in the moving image area. In this mix mode, still images and moving images can be shot at the same time. Note that the live view image is shot in the still image area.

図43は、第12実施形態に係る静止画領域2118と動画領域2119との配列パターンを示す図である。図43に示す静止画領域2118と動画領域2119との配列パターンは、図38に示したAF領域2114とAE領域2115との配列パターンと同様である。すなわち、画素領域113Aにおいて静止画領域2118と動画領域2119とが市松模様を構成するように配置されている。なお、図43において、ブロックの配置を見えやすくするために、画素領域113Aにおいて少ない数のブロックが設定されているが、図43に示すブロックの数よりも多い数のブロックが画素領域113Aに設定されてもよい。 FIG. 43 is a diagram showing an arrangement pattern of still image areas 2118 and moving image areas 2119 according to the twelfth embodiment. The arrangement pattern of still image areas 2118 and moving image areas 2119 shown in FIG. 43 is the same as the arrangement pattern of AF areas 2114 and AE areas 2115 shown in FIG. That is, the still image area 2118 and the moving image area 2119 are arranged in a checkered pattern in the pixel area 113A. In FIG. 43, a small number of blocks are set in the pixel region 113A in order to make the arrangement of the blocks easier to see, but a larger number of blocks than the blocks shown in FIG. 43 are set in the pixel region 113A. may be

図44は、第12実施形態の撮像素子2100の撮像領域113Aにおける主要被写体領域2221と部分領域2222と非主要被写体領域2223とを示す図である。図44に示すように、設定部2071は、検出部2031が検出した主要被写体である人物O110を含む主要被写体領域2221を設定する。また、設定部2071は、検出部2031が検出した主要被写体である人物O110の顔を含む部分領域2222を設定する。また、設定部2071は、画素領域113Aにおける主要被写体領域2221及び部分領域2222以外の領域を非主要被写体領域2223として設定する(ステップS2005参照)。なお、本実施形態では、表示制御部2073は、静止画領域2118で撮影された画像をライブビュー画像として表示部2050の表示面2051に表示する(ステップS2002参照)。また、検出部2031は、静止画領域2118で撮影された被写体の画像データに基づいて主要被写体(人物O110)の検出と主要被写体の一部分(人物O110の顔)の検出を行う(ステップS2003,S2004参照)。 FIG. 44 is a diagram showing a main subject area 2221, a partial area 2222, and a non-main subject area 2223 in the imaging area 113A of the image sensor 2100 of the twelfth embodiment. As shown in FIG. 44, the setting unit 2071 sets a main subject area 2221 including the person O110, which is the main subject detected by the detection unit 2031. As shown in FIG. The setting unit 2071 also sets a partial area 2222 including the face of the person O110, which is the main subject detected by the detection unit 2031. FIG. Also, the setting unit 2071 sets an area other than the main subject area 2221 and the partial area 2222 in the pixel area 113A as a non-main subject area 2223 (see step S2005). In this embodiment, the display control unit 2073 displays the image captured in the still image area 2118 as a live view image on the display surface 2051 of the display unit 2050 (see step S2002). Further, the detection unit 2031 detects the main subject (person O110) and a part of the main subject (person O110's face) based on the image data of the subject shot in the still image area 2118 (steps S2003 and S2004). reference).

設定部2071は、第10実施形態で説明した場合と同様に、主要被写体領域2221と部分領域2222と非主要被写体領域2223とで異なる撮像条件を設定する(ステップS2006参照)。具体的には、設定部2071は、主要被写体領域2221に対して非主要被写体領域2223よりも高いフレームレートかつ高いゲインを設定する。また、設定部2071は、部分領域2222に対して主要被写体領域2221よりも高いフレームレートかつ高いゲインを設定する。さらに、設定部2071は、主要被写体領域2221において、静止画領域2118に対して動画領域2119よりも低いフレームレートを設定する。同様に、設定部2071は、部分領域2222において、静止画領域2118に対して動画領域2119よりも低いフレームレートを設定する。同様に、設定部2071は、非主要被写体領域2223において、静止画領域2118に対して動画領域2119よりも低いフレームレートを設定する。このように、静止画領域2118のフレームレートを動画領域2119のフレームレートよりも低くするのは、ライブビュー画像は被写体の動きの滑らかな画像である必要がないためである。なお、設定部2071は、フレームレートやゲイン以外の撮像条件については、それぞれの領域の被写体に適した撮像条件を自動的に設定し、又は使用者の操作部2055などの操作に応じて設定する。 The setting unit 2071 sets different imaging conditions for the main subject area 2221, the partial area 2222, and the non-main subject area 2223, as described in the tenth embodiment (see step S2006). Specifically, the setting unit 2071 sets a higher frame rate and higher gain for the main subject area 2221 than for the non-main subject area 2223 . Also, the setting unit 2071 sets a higher frame rate and higher gain for the partial area 2222 than for the main subject area 2221 . Furthermore, the setting unit 2071 sets a lower frame rate for the still image area 2118 than for the moving image area 2119 in the main subject area 2221 . Similarly, the setting unit 2071 sets a lower frame rate for the still image area 2118 than for the moving image area 2119 in the partial area 2222 . Similarly, the setting unit 2071 sets a lower frame rate for the still image area 2118 than for the moving image area 2119 in the non-main subject area 2223 . The reason why the frame rate of the still image area 2118 is set lower than the frame rate of the moving image area 2119 is that the live view image does not need to be an image in which the subject moves smoothly. Note that the setting unit 2071 automatically sets the imaging conditions other than the frame rate and gain that are suitable for the subject in each region, or sets them according to the user's operation of the operation unit 2055 or the like. .

その後、AF処理部2074は、静止画領域2118で撮影された被写体の画像データに基づいてAF処理を実行する(ステップS2007参照)。また、AE処理部2075は、静止画領域2118で撮影された被写体の画像データに基づいてAE処理を実行する(ステップS2008参照)。 After that, the AF processing unit 2074 executes AF processing based on the image data of the subject captured in the still image area 2118 (see step S2007). Also, the AE processing unit 2075 executes AE processing based on the image data of the subject shot in the still image area 2118 (see step S2008).

その後、システム制御部2070は、使用者によるレリーズスイッチの半押し操作(ステップS2010)に応じて、図32に示したステップS2011からステップS2014の処理を静止画領域2118で生成された画像データに基づいて実行する。また、システム制御部2070は、使用者によるレリーズスイッチの全押し操作(ステップS2015)に応じて、図32に示したステップS2016,S2017の処理を静止画領域2118で生成された画像データに基づいて実行する。また、システム制御部2070は、使用者による動画スイッチの操作(ステップS2020)に応じて、図33に示したステップS2021からステップS2030の処理を動画領域2119で生成された画像データに基づいて実行する。 After that, the system control unit 2070 performs the processing from steps S2011 to S2014 shown in FIG. to run. Further, the system control unit 2070 performs the processing of steps S2016 and S2017 shown in FIG. Execute. Further, the system control unit 2070 executes the processing from steps S2021 to S2030 shown in FIG. 33 based on the image data generated in the moving image area 2119 in response to the user's operation of the moving image switch (step S2020). .

図45は、第12実施形態の表示部2050Aの第1表示例を示す図である。図45に示すように、第12実施形態の表示部2050Aは、静止画領域2118で撮影された静止画(静止画の撮影前はライブビュー画像)を表示するための第1表示領域2051Aと、動画領域2119で撮影された動画を表示するための第2表示領域2051Bとが形成されている。図45に示すように、第1表示領域2051Aでは、図35に示した表示例と同様に、主要被写体である人物O110を囲う枠2601と、人物O110の顔を囲う枠2602とが表示されている。このような構成によれば、使用者が静止画(又はライブビュー画像)と動画とを同時に確認することができる。 FIG. 45 is a diagram showing a first display example of the display section 2050A of the twelfth embodiment. As shown in FIG. 45, a display unit 2050A according to the twelfth embodiment includes a first display area 2051A for displaying a still image captured in a still image area 2118 (a live view image before capturing a still image), A second display area 2051B for displaying the moving image captured in the moving image area 2119 is formed. As shown in FIG. 45, in the first display area 2051A, similarly to the display example shown in FIG. there is With such a configuration, the user can simultaneously check a still image (or a live view image) and a moving image.

図46は、第12実施形態の表示部2050Bの第2表示例を示す図である。図46に示すように、第12実施形態の表示部2050Bは、静止画領域2118で撮影された静止画(静止画の撮影前はライブビュー画像)を表示するための第1表示領域2051Aと、動画領域2119で撮影された動画を表示するための第2表示領域2051Bと、主要被写体である人物O110(つまり主要被写体領域2511)を拡大表示するための第3表示領域2051Cと、主要被写体の一部分である人物O110の顔(つまり部分領域2512)を拡大表示するための第4表示領域2051Dとが形成されている。図46に示すように、第1表示領域2051A及び第3表示領域2051Cでは、図35に示した表示例と同様に、主要被写体である人物O110を囲う枠2601と、人物O110の顔を囲う枠2602とが表示されている。また、第4表示領域2051Dでは、人物O110の顔を囲う枠2602が表示されている。このような構成によれば、使用者が静止画(又はライブビュー画像)と動画とを同時に確認することができる。また、使用者が人物O110及びその顔(顔の表情)を容易に確認することができる。 FIG. 46 is a diagram showing a second display example of the display section 2050B of the twelfth embodiment. As shown in FIG. 46, the display unit 2050B of the twelfth embodiment includes a first display area 2051A for displaying a still image captured in the still image area 2118 (a live view image before capturing the still image), A second display area 2051B for displaying a moving image captured in the moving image area 2119, a third display area 2051C for displaying an enlarged view of the person O110 (that is, the main subject area 2511) as the main subject, and a portion of the main subject. A fourth display area 2051D is formed to enlarge and display the face of the person O110 (that is, the partial area 2512). As shown in FIG. 46, in the first display area 2051A and the third display area 2051C, similarly to the display example shown in FIG. 2602 are displayed. A frame 2602 surrounding the face of the person O110 is displayed in the fourth display area 2051D. With such a configuration, the user can simultaneously check a still image (or a live view image) and a moving image. In addition, the user can easily confirm the person O110 and his face (facial expression).

以上に説明したように、第12実施形態では、設定部2071は、撮像領域113Aにおいて、静止画を撮像するための第5領域(例えば静止画領域2118)と、動画を撮像するための第6領域(例えば動画領域2119)とを設定し、第5領域において、第1領域(例えば主要被写体領域2221)と第2領域(例えば非主要被写体領域2223)とを設定する。このような構成によれば、上記した第10実施形態の効果に加え、静止画と動画とを同時に撮像することが可能となる。 As described above, in the twelfth embodiment, the setting unit 2071 sets the fifth area (for example, the still image area 2118) for capturing a still image and the sixth area for capturing a moving image in the imaging area 113A. A region (eg, moving image region 2119) is set, and in the fifth region, a first region (eg, main subject region 2221) and a second region (eg, non-main subject region 2223) are set. According to such a configuration, in addition to the effects of the tenth embodiment described above, it is possible to simultaneously capture a still image and a moving image.

また、第12実施形態では、制御部2072は、第5領域(例えば静止画領域2118)と第6領域(例えば動画領域2119)とを異なる撮像条件で撮像を行わせる。このような構成によれば、静止画を撮像するために適した撮像条件で撮像することができるとともに、動画を撮像するために適した撮像条件で動画を撮像することができる。また、第12実施形態では、設定部2071は、撮像領域113Aにおいて、第5領域(例えば静止画領域2118)を分散的に配置するとともに第6領域(例えば動画領域2119)を分散的に配置する。このような構成によれば、同一の被写体(厳密には使用者にとって同一に見える被写体)について静止画と動画とを同時に撮像することができる。 Further, in the twelfth embodiment, the control unit 2072 causes the fifth area (eg, still image area 2118) and the sixth area (eg, moving image area 2119) to be imaged under different imaging conditions. According to such a configuration, it is possible to capture a still image under an imaging condition suitable for capturing a still image, and to capture a moving image under an imaging condition suitable for capturing a moving image. In the twelfth embodiment, the setting unit 2071 dispersively arranges the fifth area (for example, the still image area 2118) and dispersively arranges the sixth area (for example, the moving image area 2119) in the imaging area 113A. . According to such a configuration, it is possible to simultaneously capture a still image and a moving image of the same subject (strictly speaking, a subject that looks the same to the user).

なお、上記した第12実施形態では、静止画領域2118のフレームレートを動画領域2119のフレームレートよりも低くしていたが、静止画領域2118のフレームレートを動画領域2119のフレームレートよりも高くしてもよい。また、静止画の本撮像を行うときには(つまりステップS17の撮像処理を実行するときには)、制御部2072は静止画領域2118で撮像を行うのではなく画素領域113Aの全画素で撮像を行うようにしてもよい。また、図46において、検出部2031が主要被写体(人物O110)を検出していない場合には、表示部2050Bにおいて第1表示領域2051Aだけを大きく表示するようにしてもよい。また、静止画領域2118を構成する各ブロック内において例えば図41に示したAF領域とAE領域とを設定してもよい。また、動画領域2119を構成する各ブロック内において例えば図41に示したAF領域とAE領域とを設定してもよい。 In the twelfth embodiment described above, the frame rate of the still image area 2118 is lower than the frame rate of the moving image area 2119. may Further, when performing the main imaging of the still image (that is, when performing the imaging process of step S17), the control unit 2072 does not perform imaging in the still image area 2118, but performs imaging with all the pixels in the pixel area 113A. may Further, in FIG. 46, when the detection unit 2031 does not detect the main subject (person O110), only the first display area 2051A may be enlarged on the display unit 2050B. For example, the AF area and the AE area shown in FIG. 41 may be set in each block forming the still image area 2118 . For example, the AF area and the AE area shown in FIG. 41 may be set in each block forming the moving image area 2119 .

<第13実施形態>
第13実施形態では、上記した第10実施形態におけるデジタルカメラ2001を、撮像装置2001Aと電子機器2001Bとに分離した構成としている。
<Thirteenth Embodiment>
In the thirteenth embodiment, the digital camera 2001 in the tenth embodiment is separated into an imaging device 2001A and an electronic device 2001B.

図47は、第13実施形態に係る撮像装置2001A及び電子機器2001Bの構成を示すブロック図である。図47に示す構成において、撮像装置2001Aは、被写体の撮像を行う装置である。この撮像装置2001Aは、レンズ部2010、撮像部2020、画像処理部2030、ワークメモリ2040、操作部2055、記録部2060、及び第1システム制御部2070Aを備える。なお、撮像装置2001Aのうち、レンズ部2010、撮像部2020、画像処理部2030、ワークメモリ2040、操作部2055、及び記録部2060の構成は、図31に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 FIG. 47 is a block diagram showing configurations of an imaging device 2001A and an electronic device 2001B according to the thirteenth embodiment. In the configuration shown in FIG. 47, the imaging device 2001A is a device for imaging a subject. This imaging apparatus 2001A includes a lens unit 2010, an imaging unit 2020, an image processing unit 2030, a work memory 2040, an operation unit 2055, a recording unit 2060, and a first system control unit 2070A. The configuration of the lens unit 2010, the image capturing unit 2020, the image processing unit 2030, the work memory 2040, the operation unit 2055, and the recording unit 2060 in the imaging device 2001A is the same as the configuration shown in FIG. Therefore, the same configurations are denoted by the same reference numerals, and overlapping descriptions are omitted.

また、電子機器2001Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器2001Bは、表示部2050及び第2システム制御部2070Bを備える。なお、電子機器2001Bのうちの表示部2050の構成は、図31に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 The electronic device 2001B is a device that displays images (still images, moving images, live view images). This electronic device 2001B includes a display section 2050 and a second system control section 2070B. Note that the configuration of the display unit 2050 in the electronic device 2001B is the same as the configuration shown in FIG. Therefore, the same components are denoted by the same reference numerals, and overlapping descriptions are omitted.

第1システム制御部2070Aは、第1通信部2075Aを有している。また、第2システム制御部2070Bは、第2通信部2075Bを有している。第1通信部2075Aと第2通信部2075Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部2070Aは、第1通信部2075Aを介して画像データ(画像処理部2030が画像処理した画像データ、記録部2060に記録されている画像データ)を第2通信部2075Bに送信する。第2システム制御部2070Bは、第2通信部2075Bにおいて受信した画像データを表示部2050に表示させる。 The first system control section 2070A has a first communication section 2075A. Also, the second system control unit 2070B has a second communication unit 2075B. The first communication unit 2075A and the second communication unit 2075B transmit and receive signals to and from each other in a wired or wireless manner. In such a configuration, the first system control unit 2070A transfers image data (image data processed by the image processing unit 2030, image data recorded in the recording unit 2060) to the second system via the first communication unit 2075A. It is transmitted to the communication section 2075B. Second system control unit 2070B causes display unit 2050 to display the image data received by second communication unit 2075B.

図31に示す構成(設定部2071、制御部2072、表示制御部2073、AF処理部2074及びAE処理部2075)は、第1システム制御部2070Aと第2システム制御部2070Bのいずれに設けられてもよい。図31に示すすべての構成は、第1システム制御部2070A又は第2システム制御部2070Bに設けられてもよく、また図31に示す構成の一部が第1システム制御部2070Aに設けられ、図31に示す構成の一部以外の構成が第2システム制御部2070Bに設けられてもよい。 The configuration shown in FIG. 31 (the setting unit 2071, the control unit 2072, the display control unit 2073, the AF processing unit 2074, and the AE processing unit 2075) is provided in either the first system control unit 2070A or the second system control unit 2070B. good too. All the configuration shown in FIG. 31 may be provided in the first system control unit 2070A or the second system control unit 2070B, and part of the configuration shown in FIG. 31 may be provided in the first system control unit 2070A, 31 may be provided in the second system control section 2070B.

なお、撮像装置2001Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器2001Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。 Note that the imaging device 2001A is configured by, for example, a digital camera, smartphone, mobile phone, or personal computer having an imaging function and a communication function, and the electronic device 2001B is, for example, a smartphone, a mobile phone, or a portable personal It consists of portable terminals such as computers.

図47に示す第1システム制御部2070Aは、CPUが制御プログラムに基づいて処理を実行することにより実現される。また、図47に示す第2システム制御部2070Bは、CPUが制御プログラムに基づいて処理を実行することにより実現される。 The first system control unit 2070A shown in FIG. 47 is implemented by the CPU executing processing based on the control program. Also, the second system control unit 2070B shown in FIG. 47 is implemented by the CPU executing processing based on the control program.

以上に説明したように、第13実施形態では、第10実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置2001Aで撮像されている画像を電子機器2001Bの表示部2050に表示させることができる。 As described above, in the thirteenth embodiment, in addition to the effects described in the tenth embodiment, an image captured by the imaging device 2001A using a mobile terminal such as a smartphone is displayed on the display unit 2050 of the electronic device 2001B. can be displayed.

なお、図47に示す構成において、画像処理部2030と第1システム制御部2070Aとは一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部2030の機能と第1システム制御部2070Aの機能を担う。 In the configuration shown in FIG. 47, image processing section 2030 and first system control section 2070A may be integrated. In this case, a system control unit having one CPU performs processing based on a control program to perform the function of the image processing unit 2030 and the function of the first system control unit 2070A.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various modifications and improvements can be made to the above embodiments without departing from the scope of the present invention. Also, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omissions are also included in the technical scope of the present invention. Moreover, it is also possible to appropriately combine the configurations of the above-described embodiments and modifications and apply them.

例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。 For example, although the arrangement of the color filters 102 is the Bayer arrangement in each of the above-described embodiments, an arrangement other than this arrangement may be used. Also, the number of pixels forming the unit group 131 should include at least one pixel. Also, it is sufficient that each block includes at least one pixel. Therefore, it is possible to perform imaging under different imaging conditions for each pixel.

また、上記した各実施形態において、駆動部2021は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部2030の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部2070の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。 Further, in each of the above-described embodiments, the drive unit 2021 may be partially or wholly mounted on the imaging chip 113 , or partially or wholly mounted on the signal processing chip 111 . Also, part of the configuration of the image processing unit 2030 may be mounted on the imaging chip 113 or the signal processing chip 111 . Also, part of the configuration of the system control unit 2070 may be mounted on the imaging chip 113 or the signal processing chip 111 .

また、図38に示した配列パターンでは、AF領域2114とAE領域2115とが市松模様となるように配置していたが、AF領域2114のラインとAE領域2115のラインとが行方向又は列方向に交互に配置されてもよい。また、図43に示した配列パターンでは、静止画領域2118と動画領域2119とが市松模様となるように配置されていたが、静止画領域2118のラインと動画領域2119のラインとが行方向又は列方向に交互に配置されてもよい。 In addition, in the arrangement pattern shown in FIG. 38, the AF regions 2114 and the AE regions 2115 are arranged in a checkered pattern, but the lines of the AF regions 2114 and the lines of the AE regions 2115 are arranged in the row direction or the column direction. may be alternately arranged. In addition, in the arrangement pattern shown in FIG. 43, the still image area 2118 and the moving image area 2119 are arranged in a checkered pattern. They may be arranged alternately in the column direction.

また、上記した第10実施形態において、検出部2031は、公知の顔検出機能を用いて主要被写体である人物や顔を検出していた。しかし、このような構成に限定されず、検出部2031は、画像処理部2030から時系列的に得られる複数の画像データ(フレーム)を比較して、移動する被写体(移動被写体)を主要被写体として検出してもよい。また、検出部2031は、画像データにおける明部と暗部のコントラストや色変化に基づいて主要被写体の境界を特定して主要被写体を検出してもよい。 Further, in the tenth embodiment described above, the detection unit 2031 detects a person or face, which is the main subject, using a known face detection function. However, it is not limited to such a configuration, and the detection unit 2031 compares a plurality of image data (frames) obtained in time series from the image processing unit 2030, and selects a moving subject (moving subject) as the main subject. may be detected. Further, the detection unit 2031 may detect the main subject by identifying the boundary of the main subject based on the contrast between the bright and dark areas in the image data and the color change.

また、上記した各実施形態では、設定部2071が所定領域において高フレームレート及び高ゲインを設定することにより、検出部2031が所定領域において高精度で主要被写体の検知を行い、AF処理部2074が所定領域において高速に焦点位置の検出を行うように構成していた。しかし、このような構成に限定されず、設定部2071が所定領域において高フレームレート及び高ゲインのいずれかを設定することにより、検出部2031が所定領域において高精度で主要被写体の検知を行い、AF処理部2074が所定領域において高速に焦点位置の検出を行うように構成してもよい。 Further, in each of the above-described embodiments, the setting unit 2071 sets a high frame rate and a high gain in a predetermined area, so that the detection unit 2031 detects the main subject with high accuracy in the predetermined area, and the AF processing unit 2074 It is configured to detect the focal position at high speed in a predetermined area. However, it is not limited to such a configuration, and the setting unit 2071 sets either a high frame rate or a high gain in a predetermined area so that the detection unit 2031 detects the main subject with high accuracy in the predetermined area, The AF processing unit 2074 may be configured to detect the focal position at high speed in a predetermined area.

また、図35に示したサブ画面2051Sは、表示面2051の右上に配置していたが、このような位置に限定されない。例えば、検出部2031が検出した主要被写体の近傍の任意の位置に配置してもよい。ただし、サブ画面2051Sは主要被写体と重複しない位置であることを望ましい。また、サブ画面2051Sは、固定であってもよく、また使用者の操作(例えば使用者によるタッチパネル2052の操作)に応じて移動可能であってもよい。また、サブ画面2051Sのサイズも、固定であってもよく、また使用者の操作(例えば使用者によるタッチパネル2052の操作)に応じて変更可能であってもよい。なお、使用者の操作に応じてサブ画面2051Sのサイズが変更された場合に、サブ画面2051S内に表示されている画像のサイズもサブ画面2051Sのサイズの変更に合わせて変更してもよく、またサブ画面2051S内に表示されている画像のサイズはサブ画面2051Sのサイズの変更にかかわらず固定であってもよい。 Further, although the sub-screen 2051S shown in FIG. 35 is arranged on the upper right of the display surface 2051, it is not limited to such a position. For example, it may be arranged at an arbitrary position near the main subject detected by the detection unit 2031 . However, it is desirable that the sub-screen 2051S be positioned so as not to overlap the main subject. Also, the sub-screen 2051S may be fixed, or may be movable according to the user's operation (for example, the user's operation of the touch panel 2052). Also, the size of the sub-screen 2051S may be fixed, or may be changeable according to the user's operation (for example, the user's operation of the touch panel 2052). Note that when the size of the sub-screen 2051S is changed according to the user's operation, the size of the image displayed in the sub-screen 2051S may also be changed in accordance with the change in the size of the sub-screen 2051S. Also, the size of the image displayed in the sub-screen 2051S may be fixed regardless of the change in the size of the sub-screen 2051S.

また、図37に示した構成では、設定部2071は、検出部2031が主要被写体を検出したことに基づいて、画素領域113Aにおいて、AF領域2114とAE領域2115とが設定された状態と、AF領域2114とAE領域2115とが設定されていない状態とを切り替えるように構成していた。すなわち、被写体の状態変化を検出する検出部2031と、検出部2031が検出する状態変化(主要被写体の検出)を契機として、撮像素子2100の撮像領域113Aにおいて、被写体の焦点位置の検出を行うための領域(例えばAF領域2114)と露出検出を行うための領域(例えばAE領域2115)とが設定された第1設定状態と、第1設定状態とは異なる第2設定状態(AF領域2114とAE領域2115とが設定されていない状態)とを切り替える切替部(設定部2071)と、を備える構成であった。しかし、切替部(設定部2071)は、検出部2031が主要被写体(ターゲット)を検出したことを契機として、第1設定状態と第2設定状態とを切り替える場合に限らず、例えば、AF処理部2074が検出した焦点位置が変化したことなどを契機として、第1設定状態と第2設定状態とを切り替える構成であってもよい。 In the configuration shown in FIG. 37, the setting unit 2071 sets the AF region 2114 and the AE region 2115 in the pixel region 113A based on the detection of the main subject by the detection unit 2031. It is configured to switch between a state in which the area 2114 and the AE area 2115 are not set. That is, the detection unit 2031 detects a change in the state of the subject, and the state change detected by the detection unit 2031 (detection of the main subject) is used as a trigger to detect the focal position of the subject in the imaging region 113A of the image sensor 2100. A first setting state in which an area for performing exposure detection (for example, an AF area 2114) and an area for performing exposure detection (for example, an AE area 2115) are set, and a second setting state (AF area 2114 and AE and a switching unit (setting unit 2071) for switching between the state in which the area 2115 is not set). However, the switching unit (setting unit 2071) is not limited to switching between the first setting state and the second setting state when the detection unit 2031 detects the main subject (target). Triggered by a change in the focal position detected by 2074, the first setting state and the second setting state may be switched.

<第14実施形態>
図48は、第14実施形態に係るデジタルカメラ3001の構成を示すブロック図である。なお、図48において、電子機器の一例であるデジタルカメラ3001は図7のデジタルカメラ1に相当し、レンズ部3010は図7のレンズ部10に相当し、撮像部3020は図7の撮像部20に相当し、撮像素子3100は図7の撮像素子100に相当し、駆動部3021は図7の駆動部21に相当し、画像処理部3030は図7の画像処理部30に相当し、ワークメモリ3040は図7のワークメモリ40に相当し、表示部3050は図7の表示部50に相当し、表示パネル3051は図7の表示パネル51に相当し、タッチパネル3052は図7のタッチパネル52に相当し、操作部3055は図7の操作部55に相当し、記録部3060は図7の記憶部60に相当し、システム制御部3070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部3010、撮像部3020、撮像素子3100、駆動部3021、ワークメモリ3040、表示部3050、操作部3055、記録部3060の構成については説明を省略する。
<14th Embodiment>
FIG. 48 is a block diagram showing the configuration of a digital camera 3001 according to the fourteenth embodiment. 48, a digital camera 3001 as an example of electronic equipment corresponds to the digital camera 1 in FIG. 7, a lens unit 3010 corresponds to the lens unit 10 in FIG. 7, and an imaging unit 3020 corresponds to the imaging unit 20 in FIG. , the image sensor 3100 corresponds to the image sensor 100 in FIG. 7, the driving unit 3021 corresponds to the driving unit 21 in FIG. 7, the image processing unit 3030 corresponds to the image processing unit 30 in FIG. 7, the display unit 3050 corresponds to the display unit 50 in FIG. 7, the display panel 3051 corresponds to the display panel 51 in FIG. 7, and the touch panel 3052 corresponds to the touch panel 52 in FIG. 7, the recording unit 3060 corresponds to the storage unit 60 in FIG. 7, and the system control unit 3070 corresponds to the system control unit 70 in FIG. Of these configurations, the configuration of the lens unit 3010, imaging unit 3020, imaging device 3100, driving unit 3021, work memory 3040, display unit 3050, operation unit 3055, and recording unit 3060 will be omitted.

本実施形態では、画像処理部3030は、図7の画像処理部30が実行する処理のほかに、RAWデータの各画素の階調値に基づいて、被写体像の輝度分布を表す輝度分布データを生成する。なお、輝度分布データのことを輝度マッピング情報ともいう。 In this embodiment, the image processing unit 3030 generates luminance distribution data representing the luminance distribution of the subject image based on the gradation value of each pixel of the RAW data, in addition to the processing executed by the image processing unit 30 in FIG. Generate. The brightness distribution data is also called brightness mapping information.

また、本実施形態では、画像処理部3030は、図48に示すように変換部3031を備えている。変換部3031は、撮像素子3100の画像領域(撮像領域)113Aにおいて複数の領域ごとに異なる撮像条件(例えば、電荷蓄積時間、フレームレート、ゲイン)で撮像された場合に、RAWデータにおける各領域の輝度レベルを、各領域において同一又は略同一の撮像条件で撮像された場合の輝度レベルに変換する。画像処理部3030は、変換部3031で変換されたRAWデータに対して各種画像処理を実行する。 Moreover, in this embodiment, the image processing unit 3030 includes a conversion unit 3031 as shown in FIG. The conversion unit 3031 converts each region in the RAW data when images are captured under different imaging conditions (for example, charge accumulation time, frame rate, gain) for each of a plurality of regions in the image region (imaging region) 113A of the image sensor 3100. The luminance level is converted into a luminance level when each region is imaged under the same or substantially the same imaging conditions. An image processing unit 3030 performs various image processing on the RAW data converted by the conversion unit 3031 .

システム制御部3070は、デジタルカメラ3001の全体の処理及び動作を制御する。このシステム制御部3070はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部3070は、撮像素子3100(撮像チップ113)の撮像面(画素領域113A)を複数のブロックに分け、ブロック間において異なる電荷蓄積時間(又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部3070は、ブロックの位置、形状、範囲、及び各ブロック用の蓄積条件を駆動部3021に対して指示する。 A system control unit 3070 controls the overall processing and operation of the digital camera 3001 . This system control unit 3070 has a body-side CPU (Central Processing Unit). In this embodiment, the system control unit 3070 divides the imaging surface (pixel region 113A) of the imaging element 3100 (imaging chip 113) into a plurality of blocks, and sets different charge accumulation times (or charge accumulation times) and frame rates between the blocks. , to acquire an image with gain. For this reason, the system control unit 3070 instructs the driving unit 3021 on the position, shape, range of blocks, and accumulation conditions for each block.

また、システム制御部3070は、ブロック間で異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部3070は、各ブロック用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部3021に対して指示する。また、画像処理部3030は、ブロック間で異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部3070は、各ブロック用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部3030に指示する。 In addition, the system control unit 3070 acquires an image with a thinning rate that differs between blocks, the number of addition rows or addition columns for adding pixel signals, and the number of bits for digitization. Therefore, the system control unit 3070 instructs the driving unit 3021 about imaging conditions for each block (decimation rate, number of rows or columns to be added for adding pixel signals, and number of bits for digitization). Further, the image processing unit 3030 executes image processing under different imaging conditions (control parameters such as color signal processing, white balance adjustment, gradation adjustment, compression rate, etc.) between blocks. Therefore, the system control unit 3070 instructs the image processing unit 3030 on imaging conditions for each block (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate).

また、システム制御部3070は、画像処理部3030において生成された画像データを記録部3060に記録させる。また、システム制御部3070は、画像処理部3030において生成された画像データを表示部3050に出力させることにより、表示部3050に画像を表示させる。また、システム制御部3070は、記録部3060に記録されている画像データを読み出して表示部3050に出力させることにより、表示部3050に画像を表示させる。表示部3050に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。 Also, the system control unit 3070 causes the recording unit 3060 to record the image data generated by the image processing unit 3030 . Further, the system control unit 3070 causes the display unit 3050 to display an image by outputting the image data generated by the image processing unit 3030 to the display unit 3050 . Further, the system control unit 3070 reads the image data recorded in the recording unit 3060 and causes the display unit 3050 to output the image data, thereby causing the display unit 3050 to display an image. Images displayed on the display unit 3050 include still images, moving images, and live view images.

本実施形態では、システム制御部3070は、図48に示すように、領域分割部3071及び制御部3072を備えている。領域分割部3071は、画像処理部3030で生成された被写体像の輝度分布データを取得する。そして、領域分割部3071は、取得した輝度分布データに基づいて被写体像における各画素の輝度レベルを認識し、撮像素子3100の撮像領域113Aを輝度レベルに応じた複数の領域にブロック単位で分割する。 In this embodiment, the system control unit 3070 includes an area dividing unit 3071 and a control unit 3072, as shown in FIG. The area division unit 3071 acquires luminance distribution data of the subject image generated by the image processing unit 3030 . Then, the area division unit 3071 recognizes the luminance level of each pixel in the subject image based on the acquired luminance distribution data, and divides the imaging area 113A of the imaging element 3100 into a plurality of areas according to the luminance level in units of blocks. .

制御部3072は、領域分割部3071により分割された各領域の輝度レベルが特定範囲(例えば、撮像素子3100の飽和レベルの35%~80%の範囲;図51参照)内に入るように撮像素子3100の撮像条件(例えば、電荷蓄積時間、フレームレート、ゲイン)を各領域ごとに設定する。また、制御部3072は、各領域ごとに設定した撮像条件で撮像を行わせるように撮像素子3100の駆動制御を行う。また、制御部3072は、画像処理部3030で生成された静止画及び動画の画像データを記録部3060に記録する制御を行う。制御部3072は、画像処理部3030で生成された画像データを表示部3050に出力させて、表示部3050の表示画面3051に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。 The control unit 3072 controls the image sensor so that the luminance level of each region divided by the region dividing unit 3071 falls within a specific range (for example, a range of 35% to 80% of the saturation level of the image sensor 3100; see FIG. 51). 3100 imaging conditions (for example, charge accumulation time, frame rate, gain) are set for each region. Further, the control unit 3072 controls the driving of the imaging device 3100 so as to perform imaging under imaging conditions set for each region. Further, the control unit 3072 performs control to record image data of still images and moving images generated by the image processing unit 3030 in the recording unit 3060 . The control unit 3072 outputs the image data generated by the image processing unit 3030 to the display unit 3050 and controls the display screen 3051 of the display unit 3050 to display an image (live view image, still image, moving image).

なお、システム制御部3070において、領域分割部3071及び制御部3072は、それぞれ、ボディ側CPUが制御プログラムに基づいて実行する処理及び制御に相当する。 In the system control unit 3070, the area dividing unit 3071 and the control unit 3072 respectively correspond to processing and control executed by the body side CPU based on the control program.

次に、第14実施形態に係るデジタルカメラ3001の撮影動作について説明する。図49は、第14実施形態のシステム制御部3070が実行する撮影動作を説明するためのフローチャートである。図49に示す処理において、デジタルカメラ3001に電源が投入された後、使用者が撮影を開始するために操作部3055などの操作を行うと、制御部3072は、ライブビュー画像の撮影を開始する(ステップS3001)。すなわち、制御部3072は、駆動部3021に対して指示信号を出力することにより撮像素子3100の駆動制御を実行させる。このとき、制御部3072は、撮像素子3100の画素領域113Aの全面において同一のライブビュー画像用の撮像条件(例えば予め定められた初期設定の撮像条件)で撮像を行わせる。また、制御部3072は、撮像素子3100で撮像されたライブビュー画像を表示部3050の表示画面3051に表示する(ステップS3002)。 Next, the photographing operation of the digital camera 3001 according to the fourteenth embodiment will be described. FIG. 49 is a flow chart for explaining the imaging operation executed by the system control unit 3070 of the fourteenth embodiment. In the processing shown in FIG. 49, when the user operates the operation unit 3055 or the like to start shooting after the digital camera 3001 is powered on, the control unit 3072 starts shooting a live view image. (Step S3001). That is, the control unit 3072 outputs an instruction signal to the driving unit 3021 to execute drive control of the imaging device 3100 . At this time, the control unit 3072 causes the entire surface of the pixel region 113A of the image sensor 3100 to perform imaging under the same live view image imaging conditions (for example, predetermined initial imaging conditions). Also, the control unit 3072 displays the live view image captured by the imaging device 3100 on the display screen 3051 of the display unit 3050 (step S3002).

図50は、輝度レベルに応じた複数の領域a11,a12,a21,a22,a31,a41からなる画像3500の表示例を示す図である。例えば、図50に示すような画像3500がステップS3001において撮像され、ステップS3002において表示部3050の表示画面3051にライブビュー画像として表示されるものとする。 FIG. 50 is a diagram showing a display example of an image 3500 consisting of a plurality of areas a11, a12, a21, a22, a31, and a41 corresponding to luminance levels. For example, assume that an image 3500 as shown in FIG. 50 is captured in step S3001 and displayed as a live view image on the display screen 3051 of the display unit 3050 in step S3002.

図50に示す画像3500では、被写体として、家O210、地面O220、空O230、及び太陽O240が写っている。図50に示すように、画像3500において、太陽O240からの光が当たっていない家O210の側面の領域a11は、輝度レベルが最も低い領域である。この領域a11の平均的な輝度レベルをレベル(1)という。また、家O210の屋根の領域a12は、レベル(1)よりも輝度レベルが高い。この領域a12の平均的な輝度レベルをレベル(2)という。 An image 3500 shown in FIG. 50 includes a house O210, the ground O220, the sky O230, and the sun O240 as subjects. As shown in FIG. 50, in the image 3500, the area a11 on the side of the house O210 that is not exposed to the light from the sun O240 is the area with the lowest luminance level. The average luminance level of this area a11 is called level (1). Also, the area a12 of the roof of the house O210 has a luminance level higher than level (1). The average luminance level of this area a12 is called level (2).

また、地面O220における家O210の影の領域a21は、領域a11と同じような輝度レベル(つまりレベル(1))となっている。また、地面O220における領域a21以外の領域a22(地面O220における太陽O240からの光が当たっている領域)も、領域a21と同じような輝度レベル(つまりレベル(2))となっている。また、空O230の領域a31は、レベル(2)よりも輝度レベルが高い。この領域a31の平均的な輝度レベルをレベル(3)という。また、太陽O240及び太陽O240の周りの領域a41は、輝度レベルが最も高い領域である。この領域a41の平均的な輝度レベルをレベル(4)という。なお、図50において、領域a12における点A1と領域a22における点A2とを結ぶ線は、領域a12と領域a22との境界線と直角な法線方向の線を示している。 Also, the region a21 of the shadow of the house O210 on the ground O220 has the same luminance level (that is, level (1)) as the region a11. An area a22 on the ground O220 other than the area a21 (an area on the ground O220 illuminated by the sun O240) also has the same brightness level as the area a21 (that is, level (2)). Also, the area a31 of the sky O230 has a luminance level higher than the level (2). The average luminance level of this area a31 is called level (3). Also, the sun O240 and the area a41 around the sun O240 are areas with the highest luminance level. The average luminance level of this area a41 is called level (4). In FIG. 50, the line connecting the point A1 in the area a12 and the point A2 in the area a22 indicates a normal line perpendicular to the boundary line between the areas a12 and a22.

その後、システム制御部3070は、レリーズスイッチの半押し操作(SW1の操作)が行われたか否かを判定する(ステップS3003)。システム制御部3070は、レリーズスイッチの半押し操作が行われていないと判定した場合は、上記のステップS3001及びS3002の処理を繰り返し実行する。 Thereafter, the system control unit 3070 determines whether or not the release switch has been half-pressed (operation of SW1) (step S3003). If the system control unit 3070 determines that the release switch has not been half-pressed, it repeats the processes of steps S3001 and S3002 described above.

システム制御部3070は、レリーズスイッチの半押し操作が行われたと判定した場合は(ステップS3003のYES)、AF処理などの撮影準備処理を実行する。また、領域分割部3071は、画像処理部3030で生成される輝度分布データを取得する(ステップS3004)。具体的には、領域分割部3071は、画像処理部3030に対して輝度分布データの生成を指示する指示信号を出力する。画像処理部3030は、画像処理部3030からの指示信号を受け取ると、ライブビュー画像のRAWデータにおける各画素の階調値に基づいて、各画素の輝度値(輝度レベル)の分布を表す輝度分布データを生成する。例えば、画像処理部3030は、RAWデータにおける各画素のRGBそれぞれの階調値(例えば0~255の値)を所定の変換式に基づいて各画素の輝度値に変換して輝度分布データを生成する。この輝度分布データにおいては、各画素の輝度値が等高線のように表される。そして、画像処理部3030は、生成した輝度分布データをシステム制御部3070に出力する。領域分割部3071は、画像処理部3030から出力された輝度分布データを取得する。 When the system control unit 3070 determines that the release switch has been half-pressed (YES in step S3003), the system control unit 3070 executes shooting preparation processing such as AF processing. Also, the area dividing unit 3071 acquires the luminance distribution data generated by the image processing unit 3030 (step S3004). Specifically, the region division unit 3071 outputs an instruction signal to the image processing unit 3030 to instruct generation of luminance distribution data. When the image processing unit 3030 receives the instruction signal from the image processing unit 3030, the image processing unit 3030 generates a luminance distribution representing the distribution of luminance values (luminance levels) of each pixel based on the gradation value of each pixel in the RAW data of the live view image. Generate data. For example, the image processing unit 3030 converts the RGB gradation values (for example, values of 0 to 255) of each pixel in the RAW data into luminance values of each pixel based on a predetermined conversion formula to generate luminance distribution data. do. In this luminance distribution data, the luminance value of each pixel is expressed like a contour line. Image processing section 3030 then outputs the generated brightness distribution data to system control section 3070 . The area division unit 3071 acquires the luminance distribution data output from the image processing unit 3030. FIG.

次に、領域分割部3071は、取得した輝度分布データに基づいて被写体像における各画素の輝度レベルを認識し、輝度レベルの閾値に基づいて撮像素子3100の撮像領域113Aを輝度レベルに応じた複数の領域にブロック単位で分割する(ステップS3005)。 Next, the area dividing unit 3071 recognizes the luminance level of each pixel in the subject image based on the acquired luminance distribution data, and divides the imaging area 113A of the image sensor 3100 into a plurality of pixels according to the luminance level based on the luminance level threshold. area in units of blocks (step S3005).

図51は、図50に示す被写体O210~O240の明るさと撮像素子3100の輝度レベルとの関係を示すグラフである。図51において、横軸は、図50に示す画像3500における各被写体O210~O240の実際の明るさを示している。また、縦軸は、撮像素子3100が各被写体O210~O240の実際の明るさに応じて出力する画像信号の輝度レベル(つまり画像信号の出力レベル)を示している。 FIG. 51 is a graph showing the relationship between the brightness of subjects O210 to O240 shown in FIG. In FIG. 51, the horizontal axis indicates the actual brightness of each subject O210-O240 in the image 3500 shown in FIG. The vertical axis indicates the luminance level of the image signal output by the imaging device 3100 according to the actual brightness of each of the subjects O210 to O240 (that is, the output level of the image signal).

撮像素子3100では、被写体の明るさに応じて画像信号の輝度レベルが変化する。しかし、被写体の明るさがある明るさ以上になると画像信号の輝度レベルが上昇せず一定となる。このような画像信号の輝度レベルが飽和レベルである。画像信号の輝度レベルが飽和レベルを超えると画像において白飛びが発生する。また、被写体の明るさがある輝度レベル以下になると画像信号の出力レベルが低下せずに一定となる。この場合は、画像において黒つぶれが発生する。撮像素子3100において、白飛びが発生せず、かつ黒つぶれが発生しない輝度レベルの範囲を許容範囲という。 In the imaging device 3100, the brightness level of the image signal changes according to the brightness of the subject. However, when the brightness of the object exceeds a certain level, the brightness level of the image signal does not increase and remains constant. The luminance level of such an image signal is the saturation level. When the luminance level of the image signal exceeds the saturation level, overexposure occurs in the image. Further, when the brightness of the subject falls below a certain luminance level, the output level of the image signal does not decrease and becomes constant. In this case, blackout occurs in the image. In the image sensor 3100, the range of luminance levels in which neither blown-out highlights nor blocked-up shadows occur is called an allowable range.

図51に示す例では、領域a41(太陽O240及び太陽O240の周囲)の実際の明るさが、ある明るさl2以上であり、撮像素子3100の画像信号の輝度レベルが飽和レベルとなっている。従って、領域a41の画像は白飛びが発生している。また、領域a11,a12(家O210の側面及び家O210の影の部分)の実際の明るさが、ある明るさl1以下であり、領域a11,a12の画像は黒つぶれが発生している。 In the example shown in FIG. 51, the actual brightness of the area a41 (the sun O240 and the surroundings of the sun O240) is a certain brightness l2 or higher, and the brightness level of the image signal of the image sensor 3100 is the saturation level. Therefore, the image of the area a41 has whiteout. Also, the actual brightness of the areas a11 and a12 (the sides of the house O210 and the shadow of the house O210) is less than or equal to a certain brightness l1, and the images of the areas a11 and a12 have blocked up shadows.

また、撮像素子3100では、輝度レベルの許容範囲のすべてにおいて被写体の明るさの上昇に比例して撮像素子3100の画像信号の輝度レベルが上昇するわけではない。撮像素子3100では、輝度レベルの許容範囲のうちのある範囲において被写体の明るさの変化と輝度レベルの変化との間に線形性があり、それ以外の範囲においては被写体の明るさの変化と輝度レベルの変化との間に線形性がない。このように被写体の明るさの変化と輝度レベルの変化との間に線形性がある輝度レベルの範囲を特定範囲という。本実施形態においては、図51に示すように、特定範囲は、撮像素子3100の飽和レベルを100%とした場合に、その飽和レベルの35%~80%の輝度レベルの範囲となっている。 In addition, in the image pickup device 3100, the brightness level of the image signal of the image pickup device 3100 does not rise in proportion to the increase in the brightness of the object in all the allowable ranges of the brightness level. In the image pickup device 3100, there is linearity between changes in the brightness of the object and changes in the brightness level within a certain range of the allowable range of the brightness level, and in other ranges, changes in the brightness and the brightness of the object are linear. No linearity with level changes. A luminance level range in which there is linearity between a change in brightness of an object and a change in luminance level is called a specific range. In this embodiment, as shown in FIG. 51, when the saturation level of the imaging element 3100 is 100%, the specific range is a luminance level range of 35% to 80% of the saturation level.

本実施形態では、図51に示すように、輝度レベルの閾値として、飽和レベルの35%の輝度レベルを閾値t11とし、飽和レベルの80%の輝度レベルを閾値t12とし、飽和レベル(100%)を閾値t13としている。また、図51に示すように、領域a11,a12の輝度レベル(レベル(1))は閾値t11未満であり、領域a21,a22の輝度レベル(レベル(2))は閾値t11以上で閾値t12未満であり、領域a31の輝度レベル(レベル(3))は閾値t12以上で閾値t13未満であり、領域a41の輝度レベル(レベル(3))は閾値t13以上である。従って、ステップS3005において、領域分割部3071は、輝度レベルの閾値t11,t12,t13に基づいて、撮像素子3100の画素領域113Aを、輝度レベルが閾値t11未満の領域a11,a12と、輝度レベルが閾値t11以上で閾値t12未満の領域a21,22と、輝度レベルが閾値t12以上で閾値t13未満の領域a31と、輝度レベルが閾値t13以上の領域a41とに分割する。なお、このように領域分割部3071が閾値を設定したことにより、特定範囲は閾値t11から閾値t12までの範囲となっている。 In the present embodiment, as shown in FIG. 51, as the luminance level thresholds, a luminance level of 35% of the saturation level is set as a threshold t11, a luminance level of 80% of the saturation level is set as a threshold t12, and a saturation level (100%) is set. is set as the threshold value t13. Further, as shown in FIG. 51, the luminance levels (level (1)) of the areas a11 and a12 are less than the threshold t11, and the luminance levels (level (2)) of the areas a21 and a22 are equal to or greater than the threshold t11 and less than the threshold t12. , the luminance level (level (3)) of the area a31 is greater than or equal to the threshold t12 and less than the threshold t13, and the luminance level (level (3)) of the area a41 is greater than or equal to the threshold t13. Therefore, in step S3005, the region dividing unit 3071 divides the pixel region 113A of the image sensor 3100 into regions a11 and a12 whose luminance level is less than the threshold value t11, and regions a11 and a12 whose luminance level is less than the threshold value t11, based on the luminance level thresholds t11, t12, and t13. The area is divided into areas a21 and 22 having a luminance level equal to or higher than the threshold t11 and less than the threshold t12, an area a31 having a luminance level equal to or higher than the threshold t12 and less than the threshold t13, and an area a41 having a luminance level equal to or higher than the threshold t13. Note that the specific range is the range from the threshold t11 to the threshold t12 as a result of the region dividing unit 3071 setting the threshold in this way.

次に、制御部3072は、領域分割部3071が分割した各領域の輝度レベルが特定範囲内に属するように撮像素子3100の撮像条件を各領域ごとに設定する(ステップS3006)。例えば、制御部3072は、領域a11,a12におけるゲインを高くしたり、電荷蓄積時間を長くすることにより、領域a11,a12の輝度レベルを高くする。また、制御部3072は、領域a31及び領域a41の電荷蓄積時間を短くすることにより、領域a31及び領域a41の輝度レベルをそれぞれ低くする。 Next, the control unit 3072 sets the imaging conditions of the image sensor 3100 for each region such that the luminance level of each region divided by the region division unit 3071 falls within a specific range (step S3006). For example, the control unit 3072 raises the luminance levels of the regions a11 and a12 by increasing the gain in the regions a11 and a12 and lengthening the charge accumulation time. Also, the control unit 3072 reduces the luminance levels of the areas a31 and a41 by shortening the charge accumulation times of the areas a31 and a41.

ステップS3006において、制御部3072が各領域ごとに撮像条件を設定しても、明るい部分と暗い部分との差が大きいような場合には、各領域の輝度レベルが特定範囲に属さないことが生じ得る。例えば、制御部3072が領域a12の輝度レベルが特定範囲に属するように領域a12のゲインを高くすると、領域a12と領域a22との境界付近の輝度レベルが高くなりすぎて特定範囲に属さなくなる。また、制御部3072が領域a41の輝度レベルが特定範囲に属するように領域a41の電荷蓄積時間を短くすると、領域a41と領域a31との境界付近の輝度レベルが低くなりすぎて特定範囲に属さなくなる。 Even if the control unit 3072 sets the imaging conditions for each region in step S3006, if the difference between the bright portion and the dark portion is large, the luminance level of each region may not belong to the specific range. obtain. For example, if the control unit 3072 increases the gain of the area a12 so that the luminance level of the area a12 falls within the specific range, the luminance level near the boundary between the areas a12 and a22 becomes too high and does not belong to the specific range. If the control unit 3072 shortens the charge accumulation time of the area a41 so that the luminance level of the area a41 falls within the specific range, the luminance level near the boundary between the areas a41 and a31 becomes too low and does not belong to the specific range. .

そこで、制御部3072は、ステップS3006において撮像条件を設定した後の各領域の輝度レベルが特定範囲に属しているか否かを判定する(ステップS3007)。そして、制御部3072が未だ輝度レベルが特定範囲に属していないと判定した場合は、領域分割部3071は、特定範囲に属していない部分(領域)について再び領域分割を実行する(ステップS3005)。また、制御部3072は、領域分割部3071により領域分割された各領域の輝度レベルが特定範囲に属するように、各領域に対する撮像条件の設定を実行する(ステップS3006)。領域分割部3071及び制御部3072は、撮像素子3100のすべての画素領域113Aの輝度レベルが特定範囲に属するまで、上記のようなステップS3005~S3007の処理を繰り返し実行する。 Therefore, the control unit 3072 determines whether or not the luminance level of each region after setting the imaging conditions in step S3006 belongs to the specific range (step S3007). Then, if the control unit 3072 determines that the luminance level does not belong to the specific range yet, the region dividing unit 3071 again performs region division for the portion (region) that does not belong to the specific range (step S3005). Also, the control unit 3072 sets the imaging condition for each area so that the brightness level of each area divided by the area division unit 3071 belongs to the specific range (step S3006). The region division unit 3071 and the control unit 3072 repeatedly execute the processing of steps S3005 to S3007 as described above until the luminance levels of all the pixel regions 113A of the image sensor 3100 belong to the specific range.

図52は、図50の点A1と点A2との間における輝度レベルの変化を示す波形図である。図52において、横軸は点A1と点A2との間の距離を示し、縦軸は領域a12及び領域a22の輝度レベルを示している。上述したように、点A1は領域a12に存在し、点A2は領域a22に存在する。また、点A1と点A2とを結ぶ線は、領域a12と領域a22との境界線と直角な法線方向の線である。 FIG. 52 is a waveform diagram showing changes in luminance level between points A1 and A2 in FIG. In FIG. 52, the horizontal axis indicates the distance between points A1 and A2, and the vertical axis indicates the luminance levels of areas a12 and a22. As described above, point A1 exists in area a12 and point A2 exists in area a22. Also, the line connecting the points A1 and A2 is a normal line perpendicular to the boundary line between the areas a12 and a22.

図52に示すように、領域a12と領域a22との境界付近では、領域a22の輝度レベル(レベル(2))が領域a12の輝度レベル(レベル(1))まで急激に低下している。領域a22の輝度レベルと領域a12の輝度レベルとの間には閾値t11が存在している。本実施形態では、輝度レベルの閾値t11の地点から領域a12の輝度レベルに到達する地点までの領域を境界領域r10という。なお、図52においては、領域a12及び領域a22のゲインは1倍(例えばISO感度が100)とされているものとする。 As shown in FIG. 52, in the vicinity of the boundary between the areas a12 and a22, the brightness level (level (2)) of the area a22 sharply drops to the brightness level (level (1)) of the area a12. A threshold t11 exists between the luminance level of the area a22 and the luminance level of the area a12. In the present embodiment, a boundary region r10 is defined as a region extending from the brightness level threshold t11 to the brightness level of the region a12. In FIG. 52, it is assumed that the gain of the area a12 and the area a22 is 1 (for example, the ISO sensitivity is 100).

図53は、図52に示す輝度レベルが特定範囲内に入るように領域分割と撮像条件の設定とが行われた場合の輝度レベルを示す波形図である。図53において、横軸は点A1と点A2との間の距離を示し、縦軸は領域a12、領域a22、及び境界領域r10の輝度レベルを示している。ステップS3006において、制御部3072は、境界領域r10及び領域a12の輝度レベルを閾値t12より少し下の輝度レベルまで上昇させるように、境界領域r10及び領域a12のゲインを高くする。例えば、制御部3072は、境界領域r10及び領域a12のゲインを2倍に設定する。この場合、図53(A)に示すように、境界領域r10及び領域a12の輝度レベルが2倍上昇する。 FIG. 53 is a waveform diagram showing luminance levels when the area division and imaging conditions are set so that the luminance levels shown in FIG. 52 fall within a specific range. In FIG. 53, the horizontal axis indicates the distance between the points A1 and A2, and the vertical axis indicates the brightness levels of the area a12, the area a22, and the boundary area r10. In step S3006, the control unit 3072 increases the gain of the boundary region r10 and the region a12 so that the luminance level of the boundary region r10 and the region a12 is increased to a luminance level slightly below the threshold value t12. For example, the controller 3072 doubles the gains of the boundary region r10 and the region a12. In this case, as shown in FIG. 53A, the brightness levels of the boundary region r10 and the region a12 are doubled.

ステップS3007において、制御部3072は、図53(A)に示すように、境界領域r10及び領域a12の輝度レベルが未だ特定範囲(閾値t11から閾値t12までの範囲)に属していないと判定する。この場合、ステップS3005において、領域分割部3071は、境界領域r10を、閾値t11よりも輝度レベルが高い境界領域r11と、閾値t11よりも輝度レベルが低い境界領域r12とに分割する。そして、ステップS3006において、制御部3072は、境界領域r12及び領域a12の輝度レベルを閾値t12より少し下の輝度レベルまで上昇させるように、境界領域r12及び領域a12のゲインを上昇させる。例えば、制御部3072は、境界領域r12及び領域a12のゲインを領域a22のゲインの4倍(境界領域r11のゲインの2倍)に設定する。この場合、図53(B)に示すように、境界領域r12及び領域a12の輝度レベルが領域a22のゲインの4倍上昇する。ステップS3007において、制御部3072は、図53(B)に示すように、境界領域r12及び領域a12の輝度レベルが特定範囲に属していると判定する。 In step S3007, as shown in FIG. 53A, the control unit 3072 determines that the luminance levels of the boundary region r10 and region a12 do not yet belong to the specific range (range from threshold t11 to threshold t12). In this case, in step S3005, the region dividing unit 3071 divides the boundary region r10 into a boundary region r11 with a luminance level higher than the threshold t11 and a boundary region r12 with a luminance level lower than the threshold t11. Then, in step S3006, the control unit 3072 increases the gains of the boundary region r12 and the region a12 so that the luminance level of the boundary region r12 and the region a12 is increased to a luminance level slightly below the threshold value t12. For example, the control unit 3072 sets the gains of the boundary regions r12 and a12 to four times the gain of the region a22 (twice the gain of the boundary region r11). In this case, as shown in FIG. 53B, the brightness levels of the boundary region r12 and the region a12 increase by four times the gain of the region a22. In step S3007, the control unit 3072 determines that the luminance levels of the boundary area r12 and the area a12 belong to the specific range, as shown in FIG. 53(B).

図54は、レベル(1)の領域a12とレベル(2)の領域a22との境界に設定される帯状の境界領域r11,r12を示す図である。上述したように、領域分割部3071及び制御部3072がステップS3005~S3007の処理を実行することにより、図54に示すように、隣り合う領域a12と領域a22との間に帯状の複数の境界領域r11,r12が設定される。なお、隣り合う領域間における明るい部分と暗い部分との差が大きいほど、帯状の境界領域の数が多くなる。 FIG. 54 is a diagram showing strip-shaped boundary areas r11 and r12 set at the boundary between the level (1) area a12 and the level (2) area a22. As described above, the region division unit 3071 and the control unit 3072 execute the processes of steps S3005 to S3007, thereby forming a plurality of strip-shaped boundary regions between the adjacent regions a12 and a22 as shown in FIG. r11 and r12 are set. Note that the larger the difference between the bright portion and the dark portion between adjacent regions, the greater the number of strip-shaped boundary regions.

図55は、図50に示すレベル(3)の領域a31とレベル(4)の領域a41とを示す部分拡大図である。図55において、点D1は領域a31に存在し、点D2は領域a41に存在している。また、領域a31における点D1と領域a41における点D2とを結ぶ線は、領域a31と領域a41との境界線と直角な法線方向の線である。 FIG. 55 is a partially enlarged view showing the level (3) area a31 and the level (4) area a41 shown in FIG. In FIG. 55, the point D1 exists in the area a31 and the point D2 exists in the area a41. Also, the line connecting the point D1 in the area a31 and the point D2 in the area a41 is a normal line perpendicular to the boundary line between the areas a31 and a41.

図56は、図55の点D1と点D2との間における輝度レベルの変化を示す波形図である。図56において、横軸は点D1と点D2との間の距離を示し、縦軸は領域a31及び領域a41の輝度レベルを示している。なお、撮像素子3100は領域a41の輝度レベルとして飽和レベルの画像信号を出力するが、図56に示すように、実際の領域a41(太陽O240及びその周囲)の輝度レベルは撮像素子3100の飽和レベルよりも高い輝度レベルである。本実施形態では、図56に示すように、領域a41の輝度レベルが低下し始める地点から領域a31の輝度レベルに到達する地点までの領域を境界領域r20という。なお、図56においては、領域a31及び領域a41の電荷蓄積時間(シャッター速度)は1/100秒とされているものとする。 FIG. 56 is a waveform diagram showing changes in luminance level between points D1 and D2 in FIG. In FIG. 56, the horizontal axis indicates the distance between the points D1 and D2, and the vertical axis indicates the luminance levels of the areas a31 and a41. Note that the image sensor 3100 outputs an image signal having a saturation level as the luminance level of the area a41, but as shown in FIG. is a higher luminance level than In this embodiment, as shown in FIG. 56, the area from the point where the brightness level of area a41 starts to decrease to the point where the brightness level of area a31 is reached is called boundary area r20. In FIG. 56, it is assumed that the charge accumulation time (shutter speed) of the areas a31 and a41 is 1/100 seconds.

図57は、図56に示す輝度レベルが特定範囲内に入るように領域分割と撮像条件の設定とが行われた場合の輝度レベルを示す波形図である。図57において、横軸は点D1と点D2との間の距離を示し、縦軸は領域a31、境界領域r20、及び領域a41の輝度レベルを示している。ステップS3006において、制御部3072は、領域a31、境界領域r20、及び領域a41の輝度レベルを閾値t12より少し下の輝度レベルまで低下させるように、領域a31、境界領域r20、及び領域a41の電荷蓄積時間を短くする。例えば、制御部3072は、領域a31、境界領域r20、及び領域a41の電荷蓄積時間をそれぞれ1/10(1/1000秒)に設定する。この場合、領域a31、境界領域r20、及び領域a41の輝度レベルが1/10に低下する。 FIG. 57 is a waveform diagram showing luminance levels when area division and imaging condition setting are performed so that the luminance levels shown in FIG. 56 fall within a specific range. In FIG. 57, the horizontal axis indicates the distance between the points D1 and D2, and the vertical axis indicates the brightness levels of the area a31, the boundary area r20, and the area a41. In step S3006, the control unit 3072 accumulates charges in the area a31, the boundary area r20, and the area a41 so as to lower the luminance levels of the area a31, the boundary area r20, and the area a41 to a luminance level slightly lower than the threshold value t12. shorten the time. For example, the control unit 3072 sets the charge accumulation times of the area a31, the boundary area r20, and the area a41 to 1/10 (1/1000 second). In this case, the brightness levels of the area a31, the boundary area r20, and the area a41 are reduced to 1/10.

ステップS3007において、制御部3072は、領域a31及び境界領域r20の輝度レベルが未だ特定範囲(閾値t11から閾値t12までの範囲)に属していないと判定する。この場合、ステップS3005において、領域分割部3071は、境界領域r20を、閾値t11よりも輝度レベルが高い境界領域r21と閾値t11よりも輝度レベルが低い境界領域r22とに分割する。そして、ステップS3006において、制御部3072は、境界領域r22及び領域a31の輝度レベルを閾値t12より少し下の輝度レベルまで上昇させるように、境界領域r22及び領域a31の電荷蓄積時間を長くする。例えば、制御部3072は、境界領域r22及び領域a31の電荷蓄積時間を2倍(1/500秒)に設定する。この場合、境界領域r22及び領域a31の輝度レベルが2倍に上昇する。 In step S3007, the control unit 3072 determines that the luminance levels of the area a31 and the boundary area r20 do not yet belong to the specific range (range from threshold t11 to threshold t12). In this case, in step S3005, the region dividing unit 3071 divides the boundary region r20 into a boundary region r21 with a luminance level higher than the threshold t11 and a boundary region r22 with a luminance level lower than the threshold t11. Then, in step S3006, the control unit 3072 lengthens the charge accumulation time of the boundary region r22 and the region a31 so as to increase the luminance level of the boundary region r22 and the region a31 to a luminance level slightly below the threshold value t12. For example, the control unit 3072 sets the charge accumulation time of the boundary region r22 and the region a31 to double (1/500 second). In this case, the brightness levels of the boundary region r22 and the region a31 are doubled.

ステップS3007において、制御部3072は、境界領域r22及び領域a31の輝度レベルが未だ特定範囲(閾値t11から閾値t12までの範囲)に属していないと判定する。この場合、ステップS3005において、領域分割部3071は、境界領域r22を、閾値t11よりも輝度レベルが高い境界領域r22aと閾値t11よりも輝度レベルが低い境界領域r22bとに分割する。そして、ステップS3006において、制御部3072は、境界領域r22b及び領域a31の輝度レベルを閾値t12より少し下の輝度レベルまで上昇させるように、境界領域r22b及び領域a31の電荷蓄積時間を長くする。例えば、制御部3072は、境界領域r22b及び領域a31の電荷蓄積時間を2倍(1/250秒)に設定する。この場合、境界領域r22b及び領域a31の輝度レベルが2倍に上昇する。ステップS3007において、制御部3072は、図57に示すように、境界領域r22b及び領域a31の輝度レベルが特定範囲に属していると判定する。 In step S3007, the control unit 3072 determines that the luminance levels of the boundary region r22 and the region a31 do not yet belong to the specific range (range from threshold t11 to threshold t12). In this case, in step S3005, the region dividing unit 3071 divides the boundary region r22 into a boundary region r22a with a luminance level higher than the threshold t11 and a boundary region r22b with a luminance level lower than the threshold t11. Then, in step S3006, the control unit 3072 lengthens the charge accumulation time of the boundary region r22b and the region a31 so as to raise the luminance level of the boundary region r22b and the region a31 to a luminance level slightly below the threshold value t12. For example, the control unit 3072 sets the charge accumulation time of the boundary region r22b and the region a31 to double (1/250 second). In this case, the brightness levels of the boundary region r22b and the region a31 are doubled. In step S3007, the control unit 3072 determines that the luminance levels of the boundary region r22b and the region a31 belong to the specific range, as shown in FIG.

なお、図52及び図53では、点A1と点A2との間を結ぶ線上における領域分割と撮像条件の設定(ステップS3005~S3007の処理)とを説明し、また、図56及び図57では、点D1と点D2とを結ぶ線上における領域分割と撮像条件の設定(ステップS3005~S3007の処理)とを説明していた。しかし、システム制御部3070(領域分割部3071及び制御部3072)は、隣り合う領域間の境界に対するすべての法線方向の直線上において領域分割と撮像条件の設定(ステップS3005~S3007の処理)とを実行する。 Note that FIG. 52 and FIG. 53 describe the area division on the line connecting the points A1 and A2 and the setting of the imaging conditions (processing of steps S3005 to S3007). The region division on the line connecting the points D1 and D2 and the setting of the imaging conditions (processing of steps S3005 to S3007) have been described. However, the system control unit 3070 (region dividing unit 3071 and control unit 3072) divides regions and sets imaging conditions (processing in steps S3005 to S3007) on all straight lines in the normal direction to the boundary between adjacent regions. to run.

図49の説明に戻り、システム制御部3070は、ステップS3007において輝度レベルが特定範囲内に属していると判定した場合は、使用者によりレリーズスイッチの全押し操作(SW2の操作)が行われたか否かを判定する(ステップS3008)。システム制御部3070がレリーズスイッチの全押し操作が行われていないと判定した場合は(ステップS3008のNO)、上記したステップS3001からステップS3007までの処理を繰り返し実行する。 Returning to the description of FIG. 49, when the system control unit 3070 determines in step S3007 that the luminance level belongs to the specific range, whether the user has fully pressed the release switch (operation of SW2). It is determined whether or not (step S3008). When the system control unit 3070 determines that the release switch has not been fully pressed (NO in step S3008), the processes from steps S3001 to S3007 are repeated.

システム制御部3070がレリーズスイッチの全押し操作が行われたと判定した場合は(ステップS3008のYES)、制御部3072は、静止画の撮像処理を実行する(ステップS3009)。すなわち、制御部3072は、ステップS3006で各領域ごとに設定した撮像条件(電荷蓄積時間、ゲインなど)で撮像を行わせるように撮像素子3100の駆動制御を行う。具体的には、制御部3072は、ステップS3005で設定した複数の領域をブロック単位での設定を指示する指示信号を駆動部3021に出力する。また、制御部3072は、ステップS3006で各領域ごとに設定した撮像条件を指示する指示信号を駆動部3021に出力する。駆動部3021は、制御部3072からの指示信号に基づいて、各領域ごとの撮像条件で撮像を実行する。 When the system control unit 3070 determines that the release switch has been fully pressed (YES in step S3008), the control unit 3072 executes still image capturing processing (step S3009). That is, the control unit 3072 drives and controls the imaging element 3100 so as to perform imaging under the imaging conditions (charge accumulation time, gain, etc.) set for each region in step S3006. Specifically, the control unit 3072 outputs an instruction signal to the driving unit 3021 to instruct setting of the plurality of areas set in step S3005 in units of blocks. Further, the control unit 3072 outputs to the driving unit 3021 an instruction signal for instructing the imaging conditions set for each area in step S3006. The driving unit 3021 executes imaging under imaging conditions for each region based on the instruction signal from the control unit 3072 .

図58は、各領域a41,r21,r22a,r22b,a31における撮像タイミングを示すタイミングチャートである。図58に示すように、制御部3072は、ステップS3006において領域a41及び境界領域r21の電荷蓄積時間T1(例えば1/1000秒)を設定し、境界領域r22aの電荷蓄積時間T2(例えば、1/500秒)を設定し、境界領域r22b及び領域a31の電荷蓄積時間T3(例えば1/250秒)を設定したものとする。この場合、ステップS3009において、制御部3072は、領域a41及び境界領域r21について電荷蓄積時間T1で撮像を行い、境界領域r22aについて電荷蓄積時間T2で撮像を行い、境界領域r22b及び領域a31について電荷蓄積時間T3で撮像を行う。このように、制御部3072は、複数の領域ごとの撮像条件による撮像タイミングの一部が重複するように撮像素子3100を制御する。 FIG. 58 is a timing chart showing imaging timings in the regions a41, r21, r22a, r22b, and a31. As shown in FIG. 58, in step S3006, the control unit 3072 sets the charge accumulation time T1 (for example, 1/1000 second) for the region a41 and the boundary region r21, and sets the charge accumulation time T2 (for example, 1/100 second) for the boundary region r22a. 500 seconds) is set, and the charge accumulation time T3 (for example, 1/250 seconds) of the boundary region r22b and the region a31 is set. In this case, in step S3009, the control unit 3072 performs image capturing for the region a41 and the boundary region r21 for the charge accumulation time T1, image capturing for the boundary region r22a for the charge accumulation time T2, and charge accumulation for the boundary region r22b and the region a31. Imaging is performed at time T3. In this way, the control unit 3072 controls the image pickup device 3100 so that the image pickup timings based on the image pickup conditions for each of the plurality of areas partially overlap.

一般に、幅広いダイナミックレンジの画像を記録し表示するための画像合成技術として、HDR(High Dynamic Range)撮像が広く知られている。HDR撮像では、撮像条件(例えば露出)を変化させつつ複数枚の画像を撮像し、それらを合成することにより白飛びや黒つぶれの少ない画像を生成する。しかし、従来のHDRでは、例えば撮像条件の異なる2枚の画像を撮像する撮像時間が異なっているため、被写体が移動したり、使用者(撮影者)がデジタルカメラ3001を動かしたりしてしまうことがある。この場合、複数枚の画像は同一の被写体の画像ではないため、画像合成が困難である。これに対して、第14実施形態では、撮像条件の異なる複数枚の画像の撮像時間を同じ時刻(又は略同じ時刻)とすることができる(図58参照)。従って、第14実施形態の構成により従来のHDR撮像の問題点を解決することができる。画像処理部3030が領域毎の画像を合成することにより、ダイナミックレンジの広い画像を生成することができる。 Generally, HDR (High Dynamic Range) imaging is widely known as an image synthesizing technique for recording and displaying images with a wide dynamic range. In HDR imaging, a plurality of images are captured while changing imaging conditions (for example, exposure), and an image with little blown-out highlights or blocked-up shadows is generated by synthesizing the images. However, in the conventional HDR, for example, since the imaging times for capturing two images with different imaging conditions are different, the subject may move or the user (photographer) may move the digital camera 3001. There is In this case, since the multiple images are not images of the same subject, it is difficult to synthesize the images. On the other hand, in the fourteenth embodiment, the imaging time of a plurality of images with different imaging conditions can be the same time (or substantially the same time) (see FIG. 58). Therefore, the configuration of the fourteenth embodiment can solve the problems of conventional HDR imaging. An image with a wide dynamic range can be generated by the image processing unit 3030 synthesizing the images for each region.

次に、画像処理部3030による画像処理について説明する。図59は、第14実施形態の画像処理部3030が実行する画像処理を説明するためのフローチャートである。画像処理部3030は、画像処理部3030が撮像素子3100から出力されるRAWデータを入力すると、図59に示す画像処理を実行する。図59に示す処理において、変換部3031は、撮像素子3100の画像領域113Aにおいて複数の領域ごとに異なる撮像条件(電荷蓄積時間、ゲインなど)で撮像が行われた場合には、RAWデータにおける各領域の輝度レベルを、各領域において同一又は略同一の撮像条件(例えば適正露出となるような電荷蓄積時間やゲインなどの撮像条件)で撮像が行われた場合の輝度レベルに変換する(ステップS3011)。 Next, image processing by the image processing unit 3030 will be described. FIG. 59 is a flowchart for explaining image processing executed by the image processing unit 3030 of the fourteenth embodiment. When the image processing unit 3030 receives the RAW data output from the image sensor 3100, the image processing unit 3030 executes the image processing shown in FIG. In the process shown in FIG. 59, the conversion unit 3031 performs the imaging conditions (charge accumulation time, gain, etc.) that are different for each of a plurality of areas in the image area 113A of the imaging device 3100. The luminance level of the region is converted into a luminance level when imaging is performed under the same or substantially the same imaging conditions (for example, imaging conditions such as charge accumulation time and gain that provide proper exposure) in each region (step S3011). ).

具体的には、図49のステップS3006において、制御部3072が各領域ごとに異なるゲイン(例えば、領域a12のISO感度が100、境界領域r11のISO感度が200、境界領域r12及び領域a22のISO感度が400)を設定したものとする。この場合には、ステップS3011において、変換部3031は、各領域の輝度レベルを、適正露出となるようなゲイン(例えばISO感度が150)で撮像が行われた場合の輝度レベルに変換する。また、図49のステップS3006において、制御部3072が各領域ごとに異なる電荷蓄積時間(例えば、領域a41及び境界領域r21の電荷蓄積時間が1/1000秒、境界領域r22aの電荷蓄積時間が1/500秒、境界領域r22b及び領域a31の電荷蓄積時間が1/250秒)を設定したものとする。この場合には、ステップS3011において、変換部3031は、各領域の輝度レベルを、適正露出となるような電荷蓄積時間(例えば1/300秒)で撮像が行われた場合の輝度レベルに変換する。 Specifically, in step S3006 of FIG. 49, the control unit 3072 sets different gains for each area (for example, the ISO sensitivity of the area a12 is 100, the ISO sensitivity of the boundary area r11 is 200, and the ISO sensitivity of the boundary area r12 and the area a22 is It is assumed that the sensitivity is set to 400). In this case, in step S3011, the conversion unit 3031 converts the brightness level of each region into a brightness level when the image is captured with a gain (for example, ISO sensitivity of 150) that provides proper exposure. Further, in step S3006 of FIG. 49, the control unit 3072 sets the charge accumulation time different for each region (for example, the charge accumulation time of the region a41 and the boundary region r21 is 1/1000 second, the charge accumulation time of the boundary region r22a is 1/1000 second). 500 seconds, and the charge accumulation time of the boundary region r22b and the region a31 is 1/250 seconds). In this case, in step S3011, the conversion unit 3031 converts the luminance level of each region into a luminance level when imaging is performed with a charge accumulation time (for example, 1/300 second) that provides proper exposure. .

変換部3031が上記のような各領域の輝度レベルの変換処理を行うことにより、各領域の輝度レベルを適正露出となるような輝度レベルに戻す(揃える)ことができる。ただし、画像処理部3030は、変換部3031が変換処理を行う前のRAWデータをワークメモリ3040や記録部3060に記録しておく。 The conversion unit 3031 performs conversion processing of the luminance level of each area as described above, so that the luminance level of each area can be returned (aligned) to a luminance level that provides proper exposure. However, the image processing unit 3030 records the RAW data before the conversion processing by the conversion unit 3031 in the work memory 3040 and the recording unit 3060 .

次に、画像処理部3030は、変換部3031がステップS3011で輝度レベルを変換した各領域のRAWデータを合成する(ステップS3012)。そして、画像処理部3030は、ステップS3012で合成したRAWデータに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を行う(ステップS3013)。このとき、画像処理部3030は、ステップS3012で合成したRAWデータだけでなく、変換部3031が変換処理を行う前のRAWデータも用いて各種画像処理を行うことで、明るい被写体(例えば太陽O240)に適した輝度レベルの画像データや、暗い被写体(例えば家O210の側面)に適した輝度レベルの画像データなどを生成した場合でも、画像データの輝度分解能が担保される。そして、画像処理部3030は、画像データをJPEGなどの所定のフォーマットの画像データに変換する。 Next, the image processing unit 3030 synthesizes the RAW data of each area whose luminance level has been converted in step S3011 by the conversion unit 3031 (step S3012). Then, the image processing unit 3030 performs various image processing such as color signal processing (color tone correction), white balance adjustment, sharpness adjustment, gamma correction, and gradation adjustment on the RAW data synthesized in step S3012 (step S3013). ). At this time, the image processing unit 3030 performs various image processing using not only the RAW data synthesized in step S3012, but also the RAW data before the conversion processing by the conversion unit 3031, so that a bright subject (for example, the sun O240) Even when image data with a brightness level suitable for the subject or image data with a brightness level suitable for a dark subject (for example, the side of the house O210) is generated, the brightness resolution of the image data is ensured. The image processing unit 3030 then converts the image data into image data in a predetermined format such as JPEG.

その後、制御部3072は、画像処理部3030で生成された静止画の画像データを記録部3060に記録する制御を行う。また、制御部3072は、画像処理部3030で生成された画像データを表示部3050に出力させて、表示部3050の表示画面3051に静止画を表示させる。 After that, the control unit 3072 performs control to record the image data of the still image generated by the image processing unit 3030 in the recording unit 3060 . Further, the control unit 3072 causes the display unit 3050 to output the image data generated by the image processing unit 3030 and display a still image on the display screen 3051 of the display unit 3050 .

なお、上記した第14実施形態において、図49から図59を用いてデジタルカメラ3001が静止画を撮影する動作について説明したが、デジタルカメラ3001が使用者による動作スイッチの操作に基づく動画を撮影する動作についても第14実施形態の構成を適用することが可能である。ただし、この場合、ステップS3006において制御部3072が領域ごとに電荷蓄積時間を設定する構成に代えて、制御部3072が領域ごとにフレームレートを設定する。なお、フレームレートが増加するほど、1フレームあたりの電荷蓄積時間が短くなる。 In the fourteenth embodiment described above, the operation of the digital camera 3001 for capturing a still image has been described with reference to FIGS. The configuration of the 14th embodiment can also be applied to the operation. However, in this case, the control unit 3072 sets the frame rate for each region instead of setting the charge accumulation time for each region in step S3006. It should be noted that as the frame rate increases, the charge accumulation time per frame becomes shorter.

また、上記した第14実施形態において、制御部3072はステップS3006で領域ごとにゲイン又は電荷蓄積時間を設定して各領域の輝度レベルを変更するようにしていたが、ステップS3006で領域ごとにゲイン及び電荷蓄積時間のいずれも設定して各領域の輝度レベルを変更するようにしてもよい。また、動画の場合は、制御部3072は、ステップS3006で領域ごとにゲイン又はフレームレートを設定して各領域の輝度レベルを変更してもよく、またステップS3006でゲイン及びフレームレートのいずれも設定して各領域の輝度レベルを変更してもよい。 In the fourteenth embodiment described above, the control unit 3072 changes the luminance level of each region by setting the gain or the charge accumulation time for each region in step S3006. and the charge accumulation time may be set to change the brightness level of each area. In the case of moving images, the control unit 3072 may change the luminance level of each region by setting the gain or frame rate for each region in step S3006, and set both the gain and the frame rate in step S3006. may be used to change the brightness level of each region.

以上に説明したように、第14実施形態では、撮像素子3100で撮像された被写体像の輝度分布データに基づいて、撮像素子3100の撮像領域113Aを輝度レベルに応じた複数の領域に分割する領域分割部3071と、領域分割部3071により分割された各領域の輝度レベルが特定範囲内に入るように撮像素子3100の撮像条件を各領域ごとに設定する制御部3072と、を備える。このような構成によれば、撮像素子の撮像条件を複数の領域ごとに異ならせることでダイナミックレンジの広い画像を取得することができる。 As described above, in the fourteenth embodiment, the imaging region 113A of the imaging device 3100 is divided into a plurality of regions according to the luminance levels based on the luminance distribution data of the subject image captured by the imaging device 3100. A dividing unit 3071 and a control unit 3072 that sets the imaging conditions of the imaging device 3100 for each region so that the luminance level of each region divided by the region dividing unit 3071 falls within a specific range. According to such a configuration, it is possible to obtain an image with a wide dynamic range by varying the imaging conditions of the imaging element for each of the plurality of regions.

また、第14実施形態では、領域分割部3071は、輝度レベルの閾値(例えば図51に示す閾値t11,t12,t13)に基づいて撮像領域113Aを複数の領域に分割する。このような構成によれば、領域分割部3071は、撮像素子3100の許容範囲などに基づいて輝度レベルの閾値を設定することができる。従って、領域分割部3071は、撮像素子3100の性能などに応じた適切な輝度レベルの領域に分割することができる。また、領域分割部3071は、被写体の実際の明るさなどに基づいて輝度レベルの閾値を設定することができる。従って、領域分割部3071は、被写体に応じた適切な輝度レベルの領域に分割することができる。 Further, in the fourteenth embodiment, the area division unit 3071 divides the imaging area 113A into a plurality of areas based on luminance level thresholds (for example, thresholds t11, t12, and t13 shown in FIG. 51). According to such a configuration, the region dividing section 3071 can set the threshold value of the luminance level based on the allowable range of the imaging element 3100 and the like. Therefore, the region dividing unit 3071 can divide into regions having appropriate luminance levels according to the performance of the imaging element 3100 and the like. In addition, the area division unit 3071 can set the threshold value of the brightness level based on the actual brightness of the subject. Therefore, the area division unit 3071 can divide the area into areas having appropriate luminance levels according to the subject.

また、第14実施形態では、領域分割部3071は、制御部3072により撮像条件が設定されても、複数の領域のうちの所定領域の輝度レベルが特定範囲内に入らない場合、撮像条件の設定後における所定領域の輝度レベルの閾値に基づいて該所定領域をさらに複数の領域に分割する。このような構成によれば、被写体の輝度差に比べて撮像素子3100の特定範囲が狭い場合であっても、撮像素子3100のすべての撮像領域113Aの輝度レベルを特定範囲内に入るようにすることができる。 Further, in the fourteenth embodiment, even if the imaging conditions are set by the control unit 3072, if the brightness level of a predetermined area out of the plurality of areas does not fall within the specific range, the area division unit 3071 sets the imaging conditions. The predetermined area is further divided into a plurality of areas based on the threshold of the brightness level of the predetermined area later. According to such a configuration, even if the specific range of the imaging element 3100 is narrower than the luminance difference of the subject, the luminance levels of all the imaging areas 113A of the imaging element 3100 are kept within the specific range. be able to.

また、第14実施形態では、制御部3072は、撮像素子3100の飽和レベルに基づいて特定範囲を決定するので、撮像素子3100が飽和しない輝度レベルの範囲を特定範囲に決定することができるとともに、被写体からの光量の変化と輝度レベルの変化とが線形な範囲など様々な範囲を特定範囲と決定することもできる。また、第14実施形態では、制御部3072は、撮像条件として、ゲイン、露光時間、及びフレームレートの少なくとも1つを設定するので、制御部3072が各領域の輝度レベルが確実に特定範囲に入るように制御することができる。 In addition, in the fourteenth embodiment, the control unit 3072 determines the specific range based on the saturation level of the image sensor 3100. Therefore, the range of luminance levels in which the image sensor 3100 does not saturate can be determined as the specific range. Various ranges such as a range in which the change in the amount of light from the subject and the change in the luminance level are linear can also be determined as the specific range. Further, in the fourteenth embodiment, the control unit 3072 sets at least one of gain, exposure time, and frame rate as imaging conditions, so that the control unit 3072 ensures that the luminance level of each region falls within the specific range. can be controlled as follows.

また、第14実施形態では、複数の領域ごとの撮像条件に合わせて画像処理を実行する画像処理部3030を備えるので、明るい被写体に適した輝度レベルの画像データや、暗い被写体に適した輝度レベルの画像データなどを生成することでき、この場合において、画像データの輝度分解能が担保される。 Further, in the fourteenth embodiment, the image processing unit 3030 that executes image processing according to the imaging conditions for each of a plurality of areas is provided. , and in this case, the brightness resolution of the image data is ensured.

また、第14実施形態では、制御部3072が設定した撮像条件に基づいて、各領域の輝度レベルを該各領域において同一又は略同一の撮像条件で撮像された場合の輝度レベルに変換する変換部3031を備える。このような構成によれば、実際の被写体の明るさに合った画像に戻すことができる。また、第14実施形態では、制御部3072は、複数の領域ごとの撮像条件による撮像タイミングの一部が重複するように撮像素子3100を制御するので、画像処理部3030が容易に画像を合成することができ、ダイナミックレンジの広い画像を表示することができる。 Further, in the fourteenth embodiment, based on the imaging conditions set by the control unit 3072, the conversion unit converts the luminance level of each area into the luminance level when the area is imaged under the same or substantially the same imaging condition. 3031. With such a configuration, it is possible to restore an image that matches the actual brightness of the subject. In addition, in the fourteenth embodiment, the control unit 3072 controls the image sensor 3100 so that the image capturing timings based on the image capturing conditions for each of the plurality of areas partially overlap, so that the image processing unit 3030 can easily synthesize images. It is possible to display images with a wide dynamic range.

なお、上記した第14実施形態では、変換部3031は画像処理部に設けられていたが、撮像素子3100に設けられてもよい。例えば、撮像素子3100の演算回路416が各領域の輝度レベルを各領域において同一又は略同一の撮像条件で撮像された場合の輝度レベルに変換してもよい。 In addition, in the fourteenth embodiment described above, the conversion unit 3031 is provided in the image processing unit, but may be provided in the imaging device 3100 . For example, the arithmetic circuit 416 of the imaging element 3100 may convert the luminance level of each region into a luminance level when each region is imaged under the same or substantially the same imaging conditions.

また、上記した第14実施形態では、電子機器の一例としてデジタルカメラ3001を挙げていたが、これに限定されず、例えば撮像機能を備えたスマートフォン、携帯電話、パーソナルコンピュータなどの機器で構成されてもよい。また、図48に示す画像処理部3030とシステム制御部3070は一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部3030の機能とシステム制御部3070の機能を担う。 In addition, in the fourteenth embodiment described above, the digital camera 3001 was given as an example of an electronic device, but it is not limited to this. good too. Also, the image processing unit 3030 and the system control unit 3070 shown in FIG. 48 may be integrated. In this case, the system control unit having one body-side CPU performs the functions of the image processing unit 3030 and the system control unit 3070 by executing processing based on the control program.

<第15実施形態>
第15実施形態では、上記した第14実施形態におけるデジタルカメラ3001を、撮像装置3001Aと電子機器3001Bとに分離した構成としている。
<Fifteenth embodiment>
In the fifteenth embodiment, the digital camera 3001 in the fourteenth embodiment is separated into an imaging device 3001A and an electronic device 3001B.

図60は、第15実施形態に係る撮像装置3001A及び電子機器3001Bの構成を示すブロック図である。図60に示す構成において、撮像装置3001Aは、被写体の撮像を行う装置である。この撮像装置3001Aは、レンズ部3010、撮像部3020、画像処理部3030、ワークメモリ3040、操作部3055、記録部3060、及び第1システム制御部3070Aを備える。なお、撮像装置3001Aのうち、レンズ部3010、撮像部3020、画像処理部3030、ワークメモリ3040、操作部3055、及び記録部3060の構成は、図48に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 FIG. 60 is a block diagram showing configurations of an imaging device 3001A and an electronic device 3001B according to the fifteenth embodiment. In the configuration shown in FIG. 60, an imaging device 3001A is a device for imaging a subject. This imaging device 3001A includes a lens unit 3010, an imaging unit 3020, an image processing unit 3030, a work memory 3040, an operation unit 3055, a recording unit 3060, and a first system control unit 3070A. The configuration of the lens unit 3010, the image capturing unit 3020, the image processing unit 3030, the work memory 3040, the operation unit 3055, and the recording unit 3060 in the imaging device 3001A is the same as the configuration shown in FIG. Therefore, the same configurations are denoted by the same reference numerals, and overlapping descriptions are omitted.

また、電子機器3001Bは、画像(静止画、動画、ライブビュー画像)の表示を行う装置である。この電子機器3001Bは、表示部3050及び第2システム制御部3070Bを備える。なお、電子機器3001Bのうちの表示部3050の構成は、図48に示した構成と同様である。従って、同一構成には同一符号を付し、重複する説明を省略する。 The electronic device 3001B is a device that displays images (still images, moving images, live view images). This electronic device 3001B includes a display section 3050 and a second system control section 3070B. Note that the configuration of the display unit 3050 in the electronic device 3001B is the same as the configuration shown in FIG. Therefore, the same configurations are denoted by the same reference numerals, and overlapping descriptions are omitted.

第1システム制御部3070Aは、第1通信部3075Aを有している。また、第2システム制御部3070Bは、第2通信部3075Bを有している。第1通信部3075Aと第2通信部3075Bとは、互いに有線又は無線で信号を送受信する。このような構成において、第1システム制御部3070Aは、第1通信部3075Aを介して画像データ(画像処理部3030が画像処理した画像データ、記録部3060に記録されている画像データ)を第2通信部3075Bに送信する。第2システム制御部3070Bは、第2通信部3075Bにおいて受信した画像データを表示部3050に表示させる。 The first system control section 3070A has a first communication section 3075A. Also, the second system control unit 3070B has a second communication unit 3075B. The first communication unit 3075A and the second communication unit 3075B transmit and receive signals to and from each other in a wired or wireless manner. In such a configuration, the first system control unit 3070A transfers image data (image data processed by the image processing unit 3030, image data recorded in the recording unit 3060) to the second system via the first communication unit 3075A. It is transmitted to the communication section 3075B. Second system control unit 3070B causes display unit 3050 to display the image data received by second communication unit 3075B.

図48に示す構成(領域分割部3071及び制御部3072)は、第1システム制御部3070Aと第2システム制御部3070Bのいずれに設けられてもよい。図48に示すすべての構成は、第1システム制御部3070A又は第2システム制御部3070Bに設けられてもよく、また図48に示す構成の一部が第1システム制御部3070Aに設けられ、図48に示す構成の一部以外の構成が第2システム制御部3070Bに設けられてもよい。 The configuration shown in FIG. 48 (area dividing section 3071 and control section 3072) may be provided in either the first system control section 3070A or the second system control section 3070B. All the configuration shown in FIG. 48 may be provided in the first system control unit 3070A or the second system control unit 3070B, and part of the configuration shown in FIG. 48 may be provided in the first system control unit 3070A, A configuration other than a part of the configuration shown in 48 may be provided in the second system control section 3070B.

なお、撮像装置3001Aは、例えば撮像機能と通信機能を備えたデジタルカメラ、スマートフォン、携帯電話、パーソナルコンピュータなどで構成され、電子機器3001Bは、例えば通信機能を備えたスマートフォン、携帯電話、携帯型パーソナルコンピュータなどの携帯端末で構成される。 Note that the imaging device 3001A is configured by, for example, a digital camera, a smartphone, a mobile phone, or a personal computer having an imaging function and a communication function, and the electronic device 3001B is, for example, a smartphone, a mobile phone, or a portable personal It consists of portable terminals such as computers.

図60に示す第1システム制御部3070Aにおいて、CPUが制御プログラムに基づいて実行する処理が領域分割部3071や制御部3072に相当する。また、図60に示す第2システム制御部3070Bにおいて、CPUが制御プログラムに基づいて実行する処理が領域分割部3071や制御部3072に相当する。 In the first system control unit 3070A shown in FIG. 60, the processing executed by the CPU based on the control program corresponds to the area dividing unit 3071 and the control unit 3072. FIG. In addition, in the second system control unit 3070B shown in FIG. 60, the processing executed by the CPU based on the control program corresponds to the area dividing unit 3071 and the control unit 3072. FIG.

以上に説明したように、第15実施形態では、第14実施形態で説明した効果に加え、スマートフォンなどの携帯端末を用いて撮像装置3001Aで撮像されている画像を電子機器3001Bの表示部3050に表示させることができる。 As described above, in the fifteenth embodiment, in addition to the effects described in the fourteenth embodiment, an image captured by the imaging device 3001A using a mobile terminal such as a smartphone is displayed on the display unit 3050 of the electronic device 3001B. can be displayed.

なお、図60に示す構成において、画像処理部3030と第1システム制御部3070Aとは一体で構成されてもよい。この場合、1つのボディ側CPUを有するシステム制御部が制御プログラムに基づいて処理を行うことにより画像処理部3030の機能と第1システム制御部3070Aの機能を担う。 In the configuration shown in FIG. 60, image processing section 3030 and first system control section 3070A may be integrated. In this case, a system control unit having one body-side CPU performs processing based on a control program to perform the function of the image processing unit 3030 and the function of the first system control unit 3070A.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various modifications and improvements can be made to the above embodiments without departing from the scope of the present invention. Also, one or more of the requirements described in the above embodiments may be omitted. Such modifications, improvements, and omissions are also included in the technical scope of the present invention. Moreover, it is also possible to appropriately combine the configurations of the above-described embodiments and modifications and apply them.

例えば、上記した各実施形態において、カラーフィルタ102の配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。また、単位グループ131を形成する画素の数は、少なくとも1つの画素を含んでいればよい。また、ブロックも少なくとも1画素を含んでいればよい。従って、1画素ごとに異なる撮像条件で撮像を実行することも可能である。 For example, although the arrangement of the color filters 102 is the Bayer arrangement in each of the above-described embodiments, an arrangement other than this arrangement may be used. Also, the number of pixels forming the unit group 131 should include at least one pixel. Also, it is sufficient that each block includes at least one pixel. Therefore, it is possible to perform imaging under different imaging conditions for each pixel.

また、上記した各実施形態において、駆動部3021は、一部又はすべての構成が撮像チップ113に搭載されてもよいし、一部又はすべての構成が信号処理チップ111に搭載されてもよい。また、画像処理部3030の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。また、システム制御部3070の一部の構成が撮像チップ113又は信号処理チップ111に搭載されてもよい。 Further, in each of the above-described embodiments, the drive unit 3021 may be partially or wholly mounted on the imaging chip 113 , or partially or wholly mounted on the signal processing chip 111 . Also, part of the configuration of the image processing unit 3030 may be mounted on the imaging chip 113 or the signal processing chip 111 . Also, part of the configuration of the system control unit 3070 may be mounted on the imaging chip 113 or the signal processing chip 111 .

また、上記した第14実施形態において、図49に示すステップS3004~S3007の処理は、使用者によるレリーズスイッチの半押し操作に基づいて実行されていたが、レリーズスイッチの半押し操作前に実行されてもよい。つまり、システム制御部3070が輝度分布データに基づいてライブビュー画像の領域分割と領域ごとの撮像条件の設定とを行うようにしてもよい。また、システム制御部3070は、レリーズスイッチの全押し操作に基づいてステップS3004~S3007の処理を実行してもよい。つまり、ステップS3009の撮像処理を行う直前にステップS3004~S3007の処理を実行してもよい。 In the fourteenth embodiment described above, the processing of steps S3004 to S3007 shown in FIG. 49 was executed based on the user's half-pressing of the release switch. may That is, the system control unit 3070 may divide the live view image into regions and set the imaging conditions for each region based on the luminance distribution data. Also, the system control unit 3070 may execute the processing of steps S3004 to S3007 based on the full-press operation of the release switch. In other words, the processing of steps S3004 to S3007 may be executed immediately before performing the imaging processing of step S3009.

また、上記した第14実施形態において、画像処理部3030は、RAWデータにおける各画素のRGBそれぞれの階調値に基づいて輝度値を算出して輝度分布データを生成していたが、RAWデータにおける各画素のRGBのいずれの階調値に基づいて輝度値を算出して輝度分布データを生成してもよい。 In the fourteenth embodiment described above, the image processing unit 3030 generates luminance distribution data by calculating luminance values based on the RGB tone values of each pixel in the RAW data. The luminance distribution data may be generated by calculating the luminance value based on any of the RGB gradation values of each pixel.

また、上記した第14実施形態において、システム制御部3070(領域分割部3071及び制御部3072)は、隣り合う領域間の境界に対するすべての法線方向の直線上において領域分割及び撮像条件の設定(ステップS3005~S3007の処理)を実行していた。すなわち、システム制御部3070は、隣り合う領域間におけるすべての境界領域において領域分割及び撮像条件の設定を実行していた。しかし、このような構成に限定されず、隣り合う領域間におけるある部分の境界領域において領域分割及び撮像条件の設定を実行し、隣り合う領域間における他の部分の境界領域においては、ある部分の境界領域で実行した領域分割及び撮像条件の設定と同じように領域分割及び撮像条件の設定を実行するようにしてもよい。このような構成によれば、システム制御部3070の処理負担を軽減することができる。 In the fourteenth embodiment described above, the system control unit 3070 (region dividing unit 3071 and control unit 3072) divides regions and sets imaging conditions ( The processing of steps S3005 to S3007) was executed. That is, the system control unit 3070 executes area division and setting of imaging conditions in all boundary areas between adjacent areas. However, the present invention is not limited to such a configuration. Region division and imaging condition setting are executed in a certain boundary region between adjacent regions, and in another boundary region between adjacent regions, a certain portion of The area division and imaging condition setting may be performed in the same manner as the area division and imaging condition setting performed in the boundary area. With such a configuration, the processing load on the system control unit 3070 can be reduced.

また、上記した第14実施形態では、特定範囲を飽和レベルの35%~80%の範囲としていたが、このような範囲に限定されない。飽和レベルの35%~80%の範囲よりも広い範囲でも狭い範囲でもよい。例えば、特定範囲を許容範囲(飽和レベルの0%~100%の範囲)としてもよい。ただし、特定範囲はノイズの影響を受けにくい被写体の明るさと輝度レベルとが線形な関係にある範囲としてもよい。また、輝度レベルの閾値として、飽和レベルの35%の値、80%の値、100%の値としていたが、これらの値も一例であって、このような値に限定されない。また、輝度レベルの閾値を特定範囲の下限値及び上限値と一致させていたが、輝度レベルの閾値と特定範囲の下限値及び上限値とが一致していなくてもよい。 Further, in the fourteenth embodiment described above, the specific range is the range of 35% to 80% of the saturation level, but it is not limited to such a range. It may be wider or narrower than the range of 35% to 80% of the saturation level. For example, the specified range may be the allowable range (range of 0% to 100% of the saturation level). However, the specific range may be a range in which the brightness and luminance level of the subject, which is less susceptible to noise, have a linear relationship. Further, although the luminance level threshold values are set to 35%, 80%, and 100% of the saturation level, these values are also examples and are not limited to such values. Also, although the threshold value of the brightness level is matched with the lower limit value and the upper limit value of the specific range, the threshold value of the brightness level does not have to match the lower limit value and the upper limit value of the specific range.

また、上記した第14実施形態では、システム制御部3070が特定範囲に入るように高輝度レベルを低下させる場合と低輝度レベルを上昇させる場合とで同じ特定範囲(飽和レベルの35%~80%の範囲)としていた。しかし、システム制御部3070が特定範囲に入るように高輝度レベルを低下させる場合と低輝度レベルを上昇させる場合とで異なる特定範囲としてもよい。 In the fourteenth embodiment described above, the same specific range (35% to 80% of the saturation level) is used when the system control unit 3070 lowers the high luminance level so that it falls within the specific range and when it increases the low luminance level. range). However, the specific range may be different between when the system control unit 3070 lowers the high luminance level so as to enter the specific range and when the low luminance level is increased.

また、上記した第14実施形態では、制御部3072が設定する撮像条件として、電荷蓄積時間、フレームレート、ゲインのうちの少なくとも一つを変更すればよい。 In the fourteenth embodiment described above, at least one of the charge accumulation time, frame rate, and gain may be changed as the imaging condition set by the control unit 3072 .

<第16実施形態>
図61は、第16実施形態に係るデジタルカメラ4001の構成を示すブロック図である。なお、図61において、電子機器の一例であるデジタルカメラ4001は図7のデジタルカメラ1に相当し、レンズ部4010は図7のレンズ部10に相当し、撮像部4020は図7の撮像部20に相当し、撮像素子4100は図7の撮像素子100に相当し、駆動部4021は図7の駆動部21に相当し、画像処理部4030は図7の画像処理部30に相当し、ワークメモリ4040は図7のワークメモリ40に相当し、表示部4050は図7の表示部50に相当し、表示パネル4051は図7の表示パネル51に相当し、タッチパネル4052は図7のタッチパネル52に相当し、操作部4055は図7の操作部55に相当し、記録部4060は図7の記憶部60に相当し、システム制御部4070は図7のシステム制御部(制御部)70に相当する。これらの構成のうち、レンズ部4010、撮像部4020、撮像素子4100、駆動部4021、画像処理部4030、ワークメモリ4040、表示部4050、操作部4055、記録部4060の構成については説明を省略する。
<Sixteenth Embodiment>
FIG. 61 is a block diagram showing the configuration of a digital camera 4001 according to the sixteenth embodiment. 61, a digital camera 4001 as an example of electronic equipment corresponds to the digital camera 1 in FIG. 7, a lens unit 4010 corresponds to the lens unit 10 in FIG. 7, and an imaging unit 4020 corresponds to the imaging unit 20 in FIG. , the image pickup device 4100 corresponds to the image pickup device 100 in FIG. 7, the driving unit 4021 corresponds to the driving unit 21 in FIG. 7, the image processing unit 4030 corresponds to the image processing unit 30 in FIG. 7, the display unit 4050 corresponds to the display unit 50 in FIG. 7, the display panel 4051 corresponds to the display panel 51 in FIG. 7, and the touch panel 4052 corresponds to the touch panel 52 in FIG. 7, the recording unit 4060 corresponds to the storage unit 60 in FIG. 7, and the system control unit 4070 corresponds to the system control unit (control unit) 70 in FIG. Of these configurations, the lens unit 4010, imaging unit 4020, imaging element 4100, driving unit 4021, image processing unit 4030, work memory 4040, display unit 4050, operation unit 4055, and recording unit 4060 will not be described. .

システム制御部(制御部)4070は、デジタルカメラ4001の全体の処理及び動作を制御する。このシステム制御部4070はボディ側CPU(Central Processing Unit)を有する。本実施形態において、システム制御部4070は、撮像素子100(撮像チップ113)の撮像面(画素領域113A)を複数の領域(例えば図62の第1領域4200、第2領域4210、第3領域4220を参照)に分け、領域間において異なるシャッター速度(電荷蓄積時間又は電荷蓄積回数)、フレームレート、ゲインで画像を取得させる。このため、システム制御部4070は、各領域の位置、形状、範囲、及び各領域用の撮像条件を駆動部21に対して指示する。 A system control unit (control unit) 4070 controls the overall processing and operation of the digital camera 4001 . The system control unit 4070 has a body-side CPU (Central Processing Unit). In this embodiment, the system control unit 4070 divides the imaging surface (pixel region 113A) of the imaging device 100 (imaging chip 113) into a plurality of regions (for example, the first region 4200, the second region 4210, and the third region 4220 in FIG. 62). ), and acquire images with different shutter speeds (charge accumulation time or number of charge accumulations), frame rates, and gains between regions. Therefore, the system control unit 4070 instructs the driving unit 21 about the position, shape, range of each area, and imaging conditions for each area.

また、システム制御部4070は、領域ごとに異なる間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数で画像を取得させる。このため、システム制御部4070は、各領域用の撮像条件(間引き率、画素信号を加算する加算行数又は加算列数、及びデジタル化のビット数)を駆動部4021に対して指示する。また、画像処理部4030は、領域ごとに異なる撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行する。このため、システム制御部4070は、各領域用の撮像条件(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)を画像処理部4030に指示する。 In addition, the system control unit 4070 obtains an image with a thinning rate, the number of addition rows or addition columns for adding pixel signals, and the number of bits for digitization, which are different for each region. Therefore, the system control unit 4070 instructs the driving unit 4021 about imaging conditions for each region (thinning rate, number of rows or columns to be added for adding pixel signals, and number of bits for digitization). In addition, the image processing unit 4030 executes image processing under imaging conditions (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate) that differ for each region. Therefore, the system control unit 4070 instructs the image processing unit 4030 on imaging conditions for each area (control parameters such as color signal processing, white balance adjustment, gradation adjustment, and compression rate).

また、システム制御部4070は、画像処理部4030において生成された画像データを記録部4060に記録させる。また、システム制御部4070は、画像処理部4030において生成された画像データを表示部4050に出力させることにより、表示部4050に画像を表示させる。また、システム制御部4070は、記録部4060に記録されている画像データを読み出して表示部4050に出力させることにより、表示部4050に画像を表示させる。表示部4050に表示される画像としては、静止画、動画、ライブビュー画像が含まれる。 Also, the system control unit 4070 causes the recording unit 4060 to record the image data generated by the image processing unit 4030 . Further, the system control unit 4070 causes the display unit 4050 to display an image by outputting the image data generated by the image processing unit 4030 to the display unit 4050 . Further, the system control unit 4070 reads the image data recorded in the recording unit 4060 and causes the display unit 4050 to output the image data, thereby causing the display unit 4050 to display an image. Images displayed on the display unit 4050 include still images, moving images, and live view images.

また、システム制御部4070は、ライブビュー画像の撮影中において露出調節処理(AE処理)を実行する。また、システム制御部4070は、動画の撮影中においてもAE処理を実行する。さらに、レリーズスイッチの半押し操作が行われたことに基づいてAE処理を実行する。具体的には、システム制御部4070は、画像の輝度分布を示す輝度分布データを画像処理部4030から取得する。このとき、システム制御4070は、第1領域(図62の第1領域4200)に対応した画像の輝度分布データ、第2領域(図6の第2領域4210)に対応した画像の輝度分布データ、及び第3領域(図62の第3領域4220)に対応した画像の輝度分布データを取得する。そして、システム制御部4070は、これらの輝度分布データを用いて測光を行う。また、システム制御部4070は、測光した結果に基づいて撮像条件(シャッター速度(露光時間、電荷蓄積時間)、フレームレート、及びゲイン(ISO感度))と絞り値とを決定する。このとき、システム制御部4070は、撮像素子4100の撮像領域113Aにおける領域ごとに適正露出となるような撮像条件を決定することが可能である。なお、絞り値については、領域ごとに設定することはできず撮像領域113A全面に対して設定する。 In addition, the system control unit 4070 executes exposure adjustment processing (AE processing) during shooting of live view images. Also, the system control unit 4070 executes AE processing even during shooting of moving images. Furthermore, AE processing is executed based on the fact that the release switch is half-pressed. Specifically, the system control unit 4070 acquires luminance distribution data representing the luminance distribution of the image from the image processing unit 4030 . At this time, the system control 4070 controls the luminance distribution data of the image corresponding to the first area (first area 4200 in FIG. 62), the luminance distribution data of the image corresponding to the second area (second area 4210 in FIG. 6), and the luminance distribution data of the image corresponding to the third area (the third area 4220 in FIG. 62). Then, the system control unit 4070 performs photometry using these luminance distribution data. Also, the system control unit 4070 determines imaging conditions (shutter speed (exposure time, charge accumulation time), frame rate, and gain (ISO sensitivity)) and aperture value based on the results of photometry. At this time, the system control unit 4070 can determine imaging conditions that provide proper exposure for each region in the imaging region 113A of the imaging device 4100. FIG. Note that the aperture value cannot be set for each area, and is set for the entire imaging area 113A.

システム制御部4070は、適正露出に応じた絞り値を示す制御情報をレンズ駆動制御装置15に送信することにより、絞り14の開口径調節のための駆動制御を実行させる。また、システム制御部4070は、適正露出に応じたシャッター速度(電荷蓄積時間)、フレームレート、及びゲイン(ISO感度)を指示する指示信号を駆動部21に出力する。駆動部21は、指示信号により指示されたシャッター速度、フレームレート、及びゲインで撮像素子4100を駆動制御する。 The system control unit 4070 causes drive control for adjustment of the aperture diameter of the diaphragm 14 to be executed by transmitting control information indicating an aperture value corresponding to proper exposure to the lens drive control device 15 . The system control unit 4070 also outputs an instruction signal to the driving unit 21 to instruct the shutter speed (charge accumulation time), frame rate, and gain (ISO sensitivity) according to proper exposure. The driving unit 21 drives and controls the imaging element 4100 at the shutter speed, frame rate, and gain indicated by the instruction signal.

なお、システム制御部4070は、ボディ側CPUが制御プログラムに基づいて実行する処理や制御に相当する。 Note that the system control unit 4070 corresponds to processing and control executed by the body-side CPU based on the control program.

図62は、第16実施形態の撮像素子4100における第1領域4200と第2領域4210と第3領域4220とを示す図である。図62に示すように、第1領域4200、第2領域4210及び第3領域4220は、それぞれ、4つのブロック(縦横2つずつのブロック)からなる方形状の領域を1つの単位領域として形成され、複数の単位領域がそれぞれ均等に配置されている。また、第1領域4200、第2領域4210及び第3領域4220は、それらの面積の比が4:3:1となるように配置されている。ただし、第1領域4200、第2領域4210及び第3領域4220は、それぞれ、4つ未満のブロックからなる領域を1つの単位領域として形成してもよく、5つ以上のブロックからなる領域を1つの単位領域として形成してもよい。また、第1領域4200、第2領域4210及び第3領域4220は、画素領域113Aにおいてそれぞれ全面的に配置されていればよく、画素領域113Aにおいてそれぞれ均等に配置されていなくてもよい。また、第1領域4200、第2領域4210及び第3領域4220の面積の比も4:3:1でなくてもよく、例えばそれぞれ同じ面積であってもよい。 FIG. 62 is a diagram showing a first area 4200, a second area 4210, and a third area 4220 in an imaging device 4100 of the sixteenth embodiment. As shown in FIG. 62, each of the first region 4200, the second region 4210, and the third region 4220 is formed by using a rectangular region consisting of four blocks (two blocks each in length and width) as one unit region. , a plurality of unit areas are evenly arranged. Also, the first region 4200, the second region 4210 and the third region 4220 are arranged so that the ratio of their areas is 4:3:1. However, each of the first region 4200, the second region 4210, and the third region 4220 may be formed by forming a region consisting of less than four blocks as one unit region, and by forming a region consisting of five or more blocks as one unit region. It may be formed as one unit area. Also, the first region 4200, the second region 4210, and the third region 4220 may be arranged over the entire surface of the pixel region 113A, and may not be arranged uniformly in the pixel region 113A. Also, the ratio of the areas of the first region 4200, the second region 4210 and the third region 4220 does not have to be 4:3:1, and for example, they may have the same area.

システム制御部4070は、第1領域4200の撮像条件として、ライブビュー画像や動画を撮影するときの通常のフレームレート(例えば60fps)及び通常のシャッター速度(露光時間)を設定するとともに、ライブビュー画像や動画を撮影するときの通常のゲイン(ISO感度)を設定する。また、システム制御部4070は、第2領域4210の撮像条件として、上記した通常のフレームレート及び通常のシャッター速度を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。また、システム制御部4070は、第3領域4220の撮像条件として、上記した通常のフレームレート及び速いシャッター速度(つまり短い露光時間)を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。 The system control unit 4070 sets a normal frame rate (for example, 60 fps) and a normal shutter speed (exposure time) when shooting live view images and moving images as imaging conditions for the first area 4200, and also sets the normal shutter speed (exposure time) for the live view images. or set the normal gain (ISO sensitivity) for shooting movies. In addition, the system control unit 4070 sets the normal frame rate and normal shutter speed as imaging conditions for the second region 4210, and sets a gain lower than the normal gain set for the first region 4200. do. In addition, the system control unit 4070 sets the above-described normal frame rate and fast shutter speed (that is, short exposure time) as the imaging conditions for the third region 4220, and the normal gain set for the first region 4200. Set the gain too low.

図63は、第16実施形態におけるAE処理を説明するための図である。図63(A)及び(B)において、横軸はライブビュー画像や動画のフレームを示し、縦軸はライブビュー画像や動画のフレーム中の所定領域(ここでは高輝度被写体の領域)の輝度レベルを示している。なお、図63(A)は従来例におけるAE処理を示し、図63(B)は本実施形態におけるAE処理を示している。 FIG. 63 is a diagram for explaining AE processing in the sixteenth embodiment. In FIGS. 63A and 63B, the horizontal axis indicates the frame of the live view image or moving image, and the vertical axis indicates the brightness level of a predetermined area (here, the area of the high-brightness subject) in the frame of the live view image or moving image. is shown. FIG. 63A shows AE processing in the conventional example, and FIG. 63B shows AE processing in this embodiment.

図63(A)に示すように、システム制御部4070が通常のシャッター速度でかつ通常のゲインで太陽や照明などの高輝度被写体を撮影した場合、高輝度被写体の領域においては、輝度レベルが飽和レベル(白飛びした状態となる輝度レベル)を超えてしまう。この場合、システム制御部4070は、高輝度被写体の領域の輝度レベルが飽和レベルからどれぐらい高いかについて判断することができない。従って、システム制御部4070は、AE処理において、シャッター速度を速くしたりゲインを下げることにより高輝度被写体の領域の輝度レベルを段階的に適正レベル(適正露出のレベル)まで下げていく。図63(A)に示す例では、システム制御部4070は、5フレームを使って高輝度被写体の領域の輝度レベルを適正レベルまで下げている。 As shown in FIG. 63A, when the system control unit 4070 captures a high-brightness subject such as the sun or lighting with a normal shutter speed and a normal gain, the brightness level is saturated in the area of the high-brightness subject. level (brightness level at which whiteout occurs) is exceeded. In this case, the system control unit 4070 cannot determine how high the brightness level of the region of the high-brightness subject is above the saturation level. Therefore, in the AE process, the system control unit 4070 increases the shutter speed or lowers the gain to gradually lower the luminance level of the high-brightness object area to an appropriate level (appropriate exposure level). In the example shown in FIG. 63(A), the system control unit 4070 lowers the brightness level of the high-brightness subject area to the appropriate level using five frames.

図63(B)に示すように、システム制御部4070が第1領域4200の撮像条件(通常のシャッター速度、通常のゲイン)で太陽や照明などの高輝度被写体を撮影した場合、図63(A)の場合と同様に、高輝度被写体の領域においては輝度レベルが飽和レベルを超えてしまう。また、図63(B)に示すように、システム制御部4070が第2領域4210の撮像条件(通常のシャッター速度、低いゲイン)で高輝度被写体を撮影した場合も、高輝度被写体の領域においては輝度レベルが飽和レベルを超えてしまう。 As shown in FIG. 63B, when the system control unit 4070 captures an image of a bright subject such as the sun or lighting under the imaging conditions (normal shutter speed, normal gain) of the first area 4200, ), the brightness level exceeds the saturation level in the region of the high-brightness object. Further, as shown in FIG. 63B, even when the system control unit 4070 captures an image of a high-brightness subject under the imaging conditions of the second area 4210 (normal shutter speed, low gain), in the area of the high-brightness subject The brightness level exceeds the saturation level.

一方、システム制御部4070が第3領域4220の撮像条件(高速のシャッター速度、低いゲイン)で高輝度被写体を撮影した場合、高輝度被写体の領域においては輝度レベルが飽和レベルを超えていない。この場合、システム制御部4070は、AE処理において、飽和レベルを超えていない第3領域4220の輝度レベルから第1領域4200の輝度レベルを推定する。そして、システム制御部4070は、推定した第1領域4200の輝度レベルが適正レベルとなるようにシャッター速度及びゲインのいずれか一方又は双方を変更する。これにより、図63(B)に示すように、システム制御部4070は、1フレームで高輝度被写体の領域における第3領域4220の輝度レベルを適正レベルまで下げることができる。従って、AE処理においてオーバー露出から適正露出に短時間で行うことができる。図63(B)に示す例では、システム制御部4070は、第1領域4200の輝度レベルを適正レベルに変更する比率に合わせて、第2領域4210及び第3領域4220の輝度レベルも変更しているが、第2領域4210及び第3領域4220の輝度レベルも被写体に応じた適正レベルに変更してもよい。 On the other hand, when the system control unit 4070 captures the high-brightness subject under the imaging conditions of the third area 4220 (high shutter speed, low gain), the brightness level does not exceed the saturation level in the area of the high-brightness subject. In this case, system control section 4070 estimates the luminance level of first area 4200 from the luminance level of third area 4220 that does not exceed the saturation level in the AE process. Then, system control section 4070 changes either one or both of the shutter speed and the gain so that the estimated luminance level of first region 4200 becomes an appropriate level. As a result, as shown in FIG. 63B, the system control section 4070 can lower the brightness level of the third area 4220 in the high-brightness subject area to the appropriate level in one frame. Therefore, AE processing can be performed from overexposure to proper exposure in a short period of time. In the example shown in FIG. 63B, system control section 4070 also changes the luminance levels of second area 4210 and third area 4220 in accordance with the ratio of changing the luminance level of first area 4200 to the appropriate level. However, the luminance levels of the second area 4210 and the third area 4220 may also be changed to appropriate levels according to the subject.

なお、上記した第16実施形態では、各領域4200~4220のシャッター速度とゲインをそれぞれ異ならせることで、高輝度被写体の領域における第3領域4220の輝度レベルが飽和レベルを超えないようにしていたが、各領域4200~4220のフレームレート、シャッター速度及びゲインのいずれか1つ又は複数を異ならせることで、高輝度被写体の領域における各領域4200~4220のいずれかの輝度レベルが飽和レベルを超えないようにしてもよい。 In the sixteenth embodiment described above, the brightness level of the third region 4220 in the high-brightness subject region is prevented from exceeding the saturation level by varying the shutter speed and gain of each of the regions 4200 to 4220. However, by varying one or more of the frame rate, shutter speed, and gain of each of the areas 4200 to 4220, the brightness level of any of the areas 4200 to 4220 in the high-brightness subject area exceeds the saturation level. may be omitted.

<第17実施形態>
図64は、第17実施形態における第1領域4200が飽和した状態を示す図である。第17実施形態においても、第16実施形態で説明した場合と同様に、システム制御部4070は、第1領域4200の撮像条件として、ライブビュー画像や動画を撮影するときの通常のフレームレート(例えば60fps)及び通常のシャッター速度(露光時間)を設定するとともに、ライブビュー画像や動画を撮影するときの通常のゲイン(ISO感度)を設定する。また、システム制御部4070は、第2領域4210の撮像条件として、上記した通常のフレームレート及び通常のシャッター速度を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。また、システム制御部4070は、第3領域4220の撮像条件として、上記した通常のフレームレート及び速いシャッター速度(つまり短い露光時間)を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。
<Seventeenth Embodiment>
FIG. 64 is a diagram showing a saturated state of the first region 4200 in the seventeenth embodiment. In the seventeenth embodiment, similarly to the case described in the sixteenth embodiment, the system control unit 4070 sets the imaging condition of the first area 4200 to the normal frame rate (for example, 60 fps) and a normal shutter speed (exposure time), and a normal gain (ISO sensitivity) for capturing live view images and moving images. In addition, the system control unit 4070 sets the normal frame rate and normal shutter speed as imaging conditions for the second region 4210, and sets a gain lower than the normal gain set for the first region 4200. do. In addition, the system control unit 4070 sets the above-described normal frame rate and fast shutter speed (that is, short exposure time) as the imaging conditions for the third region 4220, and the normal gain set for the first region 4200. set a lower gain.

図64に示す例では、高輝度被写体の領域4300における第1領域4200(図64で白く塗りつぶしている領域)では、輝度レベルが飽和レベル(白飛びした状態となる輝度レベル)を超えている。しかし、高輝度被写体の領域4300における第2領域4210及び第3領域4220では、輝度レベルが飽和レベルを超えていない。すなわち、高輝度被写体の領域4300の画像すべてが白飛びした状態ではない。このように、システム制御部4070が各領域4200~4220の撮像条件を異ならせて撮像することにより、高輝度被写体の領域4300の画像すべてが白飛びしてしまうのを防止することができる。 In the example shown in FIG. 64, the luminance level exceeds the saturation level (the luminance level at which overexposed highlights occur) in the first area 4200 (white-filled area in FIG. 64) in the high-brightness subject area 4300 . However, in the second area 4210 and the third area 4220 in the high-brightness subject area 4300, the brightness level does not exceed the saturation level. In other words, the entire image of the high-brightness subject area 4300 is not overexposed. In this manner, the system control unit 4070 captures images with different imaging conditions for the areas 4200 to 4220, thereby preventing the entire image of the high-brightness subject area 4300 from being overexposed.

<第18実施形態>
図65は、第18実施形態における動画HDRを説明するための図である。第18実施形態においても、第16実施形態で説明した場合と同様に、システム制御部4070は、第1領域4200の撮像条件として、ライブビュー画像や動画を撮影するときの通常のフレームレート(例えば60fps)及び通常のシャッター速度(露光時間)を設定するとともに、ライブビュー画像や動画を撮影するときの通常のゲイン(ISO感度)を設定する。また、システム制御部4070は、第2領域4210の撮像条件として、上記した通常のフレームレート及び通常のシャッター速度を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。また、システム制御部4070は、第3領域4220の撮像条件として、上記した通常のフレームレート及び速いシャッター速度(つまり短い露光時間)を設定するとともに、第1領域4200に設定される通常のゲインよりも低いゲインを設定する。
<Eighteenth Embodiment>
FIG. 65 is a diagram for explaining moving image HDR in the eighteenth embodiment. In the eighteenth embodiment, as in the case of the sixteenth embodiment, the system control unit 4070 sets the imaging condition of the first area 4200 to the normal frame rate (for example, 60 fps) and a normal shutter speed (exposure time), and a normal gain (ISO sensitivity) for capturing live view images and moving images. In addition, the system control unit 4070 sets the normal frame rate and normal shutter speed as imaging conditions for the second region 4210, and sets a gain lower than the normal gain set for the first region 4200. do. In addition, the system control unit 4070 sets the above-described normal frame rate and fast shutter speed (that is, short exposure time) as the imaging conditions for the third region 4220, and the normal gain set for the first region 4200. set a lower gain.

図65に示す例では、高輝度被写体の領域4300における第1領域4200(図65で*を付している領域)では、輝度レベルが飽和レベル(白飛びした状態となる輝度レベル)を超えている。一方、高輝度被写体の領域4300における第2領域4210及び第3領域4220では、輝度レベルが飽和レベルを超えていない。この場合、システム制御部4070は、高輝度被写体の領域4300における第1領域4200のゲインを下げたりシャッター速度を速くすることで第1領域4200の輝度レベルを低くして、飽和レベルを超えないように制御する。そして、システム制御部4070は、第1領域4200の画像(動画)と第2領域4210の画像(動画)と第3領域4220の画像(動画)とを合成する。このような構成により、高輝度被写体を撮影した場合でも、白飛びのない動画を得ることができる。 In the example shown in FIG. 65, in the first area 4200 (the area marked with * in FIG. 65) in the high-brightness subject area 4300, the brightness level exceeds the saturation level (brightness level at which whiteout occurs). there is On the other hand, in the second area 4210 and the third area 4220 in the high-luminance subject area 4300, the luminance level does not exceed the saturation level. In this case, the system control unit 4070 lowers the brightness level of the first area 4200 by lowering the gain of the first area 4200 in the high-brightness subject area 4300 or increasing the shutter speed so as not to exceed the saturation level. to control. Then, system control section 4070 synthesizes the image (moving image) of first area 4200 , the image (moving image) of second area 4210 and the image (moving image) of third area 4220 . With such a configuration, it is possible to obtain a moving image without blown-out highlights even when shooting a high-brightness subject.

一般に、幅広いダイナミックレンジの画像を記録し表示するための画像合成技術として、HDR(High Dynamic Range)撮像が知られている。HDR撮像では、撮像条件(例えば露出)を変化させつつ複数枚の画像を撮像し、それらを合成することにより白飛びや黒つぶれの少ない画像を生成する。しかし、従来のHDRでは、例えば撮像条件の異なる2枚の画像を撮像する撮像時間が異なっているため、被写体が移動したり、使用者(撮影者)がデジタルカメラ4001を動かしたりしてしまうことがある。この場合、2枚の画像は同一の被写体の画像ではないため、画像合成が困難である。これに対して、第18実施形態では、撮像条件の異なる複数枚の画像の撮像時間を同じ時刻(又は略同じ時刻)とすることができる。従って、第18実施形態の構成により従来のHDR撮像の問題点を解決することができる。 HDR (High Dynamic Range) imaging is generally known as an image synthesis technique for recording and displaying images with a wide dynamic range. In HDR imaging, a plurality of images are captured while changing imaging conditions (for example, exposure), and an image with little blown-out highlights or blocked-up shadows is generated by synthesizing the images. However, in the conventional HDR, for example, since the imaging times for capturing two images with different imaging conditions are different, the subject may move or the user (photographer) may move the digital camera 4001. There is In this case, since the two images are not images of the same subject, it is difficult to synthesize the images. On the other hand, in the eighteenth embodiment, the imaging time of a plurality of images with different imaging conditions can be the same time (or substantially the same time). Therefore, the configuration of the eighteenth embodiment can solve the problems of conventional HDR imaging.

画像処理部4030は、時系列的に得られる複数の画像データから高輝度被写体の領域を検出する。そして、システム制御部4070は、画像処理部4030が検出した高輝度被写体の領域に基づいて、高輝度被写体の領域及びその周囲の領域におけるゲインやシャッター速度を決定する。このような構成によれば、ダイナミックレンジの広い動画を取得することができる。なお、上記した第18実施形態の構成は、動画の撮影だけでなく静止画の撮影にも適用することができる。 The image processing unit 4030 detects a high-brightness subject area from a plurality of image data obtained in time series. Based on the area of the high-brightness subject detected by the image processing unit 4030, the system control unit 4070 determines the gain and shutter speed in the area of the high-brightness subject and its surrounding area. With such a configuration, it is possible to acquire a moving image with a wide dynamic range. Note that the configuration of the eighteenth embodiment described above can be applied not only to shooting moving images but also to shooting still images.

<第19実施形態>
上記した第1実施形態では、分割部71が撮像素子100の領域を第1領域200と第2領域210とに分割し、明滅検知部74が撮像素子100の第2領域210から読み出される信号に基づいて光源Lの明滅を検知し、駆動制御部72が明滅検知部74により検知された光源Lの明滅に基づいて撮像開始のタイミングを変更していた。これに対し、第19実施形態では、システム制御部4070は、図62に示したように撮像素子4100の領域を第1領域4200と第2領域4210と第3領域4220とに分割する。そして、駆動制御部72は、第1領域4200のシャッター速度(露光時間)を50Hzの光源の明滅周期(1/100秒)の整数倍(例えば1倍)に設定し、第2領域4210のシャッター速度(露光時間)を60Hzの光源の明滅周期(1/120秒)の整数倍(例えば1倍)に設定し、第3領域4220のシャッター速度(露光時間)を高速のシャッター速度(短い露光時間)に設定する。そして、システム制御部4070は、各領域4200~4220において設定した撮像条件で動画を撮影するように撮像素子4100を駆動制御する。
<Nineteenth Embodiment>
In the above-described first embodiment, the division unit 71 divides the area of the image sensor 100 into the first area 200 and the second area 210, and the blink detection unit 74 detects the signal read from the second area 210 of the image sensor 100. The drive control unit 72 changes the imaging start timing based on the blinking of the light source L detected by the blinking detection unit 74 . On the other hand, in the nineteenth embodiment, the system control unit 4070 divides the area of the imaging device 4100 into a first area 4200, a second area 4210 and a third area 4220 as shown in FIG. Then, the drive control unit 72 sets the shutter speed (exposure time) of the first region 4200 to an integral multiple (eg, 1 time) of the blinking cycle (1/100 second) of the 50 Hz light source, and sets the shutter speed of the second region 4210. The speed (exposure time) is set to an integer multiple (for example, 1 time) of the blinking cycle (1/120 second) of the light source of 60 Hz, and the shutter speed (exposure time) of the third area 4220 is set to a high shutter speed (short exposure time ). Then, the system control unit 4070 drives and controls the imaging device 4100 so as to capture a moving image under the imaging conditions set in each of the areas 4200-4220.

このような構成によれば、自然光又は明滅のない光源の下では、各領域4200~4220のいずれにおいてもフリッカー現象が発生せず、各領域4200~4220において、ちらつきのない動画を撮影することができる。また、50Hzの光源の下では、第1領域4200のシャッター速度が50Hzの光源の明滅周期(1/100秒)の整数倍であるので、第1領域4200において、ちらつきのない動画を撮影することができる。また、60Hzの光源の下では、第2領域4210のシャッター速度が60Hzの光源の明滅周期(1/120秒)の整数倍であるので、第2領域4210において、ちらつきのない動画を撮影することができる。また、50Hzや60Hz以外の周波数の光源の下では、システム制御部4070が第2領域210から読み出される信号に基づいて光源の明滅周期を検知し、第1領域4200及び第2領域4210のいずれか一方又は双方のシャッター速度を、検知した光源の明滅周期の整数倍に設定する。これにより、第1領域4200及び第2領域4210のいずれか一方又は双方において、ちらつきのない動画を撮影することができる。また、上記した第1実施形態と同様に、システム制御部4070が検知した光源の明滅周期に基づいて静止画の撮像開始のタイミングを変更することにより、フリッカー現象の影響を受けずに静止画を撮影することができる。 According to such a configuration, under natural light or a non-blinking light source, no flicker phenomenon occurs in any of the areas 4200 to 4220, and flicker-free moving images can be captured in each of the areas 4200 to 4220. can. In addition, under the light source of 50 Hz, the shutter speed of the first area 4200 is an integer multiple of the flickering cycle (1/100 second) of the light source of 50 Hz, so it is possible to shoot a moving image without flickering in the first area 4200. can be done. In addition, under the light source of 60 Hz, the shutter speed of the second region 4210 is an integral multiple of the blinking cycle (1/120 second) of the light source of 60 Hz, so that moving images without flickering can be captured in the second region 4210. can be done. Further, under a light source with a frequency other than 50 Hz or 60 Hz, the system control unit 4070 detects the blinking period of the light source based on the signal read out from the second area 210, and either the first area 4200 or the second area 4210 One or both shutter speeds are set to integer multiples of the blinking period of the sensed light source. As a result, a flicker-free moving image can be captured in one or both of the first area 4200 and the second area 4210 . Further, as in the first embodiment described above, by changing the timing of starting to capture a still image based on the blinking period of the light source detected by the system control unit 4070, the still image can be captured without being affected by the flicker phenomenon. You can shoot.

なお、第2領域4210のシャッター速度が1/120秒とされるので、シャッター速度が1/100秒の第1領域4200よりも露光量が減少する。このため、システム制御部4070は、第2領域4210のゲインを第1領域4200のゲインの1.2倍に設定する。これにより、第1領域4200及び第2領域4210の露光量が均一化される。また、第3領域4220のシャッター速度が高速のシャッター速度とされるので、シャッター速度が1/100秒の第1領域4200よりも露光量が減少する。このため、システム制御部4070は、第3領域4220のゲインを第1領域4200のゲインよりも高く設定する。これにより、各領域4200~4220の露光量が均一化される。 Since the shutter speed of the second area 4210 is set to 1/120 second, the exposure amount is smaller than that of the first area 4200 whose shutter speed is 1/100 second. Therefore, system control section 4070 sets the gain of second region 4210 to 1.2 times the gain of first region 4200 . Thereby, the exposure amounts of the first region 4200 and the second region 4210 are made uniform. In addition, since the shutter speed of the third area 4220 is set to a high shutter speed, the exposure amount is smaller than that of the first area 4200 where the shutter speed is 1/100 second. Therefore, system control section 4070 sets the gain of third region 4220 higher than the gain of first region 4200 . As a result, the exposure amounts of the regions 4200 to 4220 are made uniform.

<第20実施形態>
図66は、第20実施形態に係るスマートフォン5001の構成を示すブロック図である。なお、図66において、電子機器の一例であるスマートフォン5001は図7のデジタルカメラ1に対応する構成である。また、レンズ部5010は図7のレンズ部10に相当し、撮像部5020は図7の撮像部20に相当し、撮像素子5100は図7の撮像素子100に相当し、駆動部5021は図7の駆動部21に相当し、画像処理部5030は図7の画像処理部30に相当し、ワークメモリ5040は図7のワークメモリ40に相当し、表示部5050は図7の表示部50に相当し、表示パネル5051は図7の表示パネル51に相当し、タッチパネル5052は図7のタッチパネル52に相当し、操作部5055は図7の操作部55に相当し、記録部5060は図7の記憶部60に相当し、システム制御部5070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部5010、撮像部5020、撮像素子5100、駆動部5021、画像処理部5030、ワークメモリ5040、表示部5050、操作部5055、記録部5060の構成については説明を省略する。なお、電子機器の一例をスマートフォン5001としているが、タブレット型端末、液晶パネル付デジタルカメラなどであってもよい。
<Twentieth Embodiment>
FIG. 66 is a block diagram showing the configuration of a smart phone 5001 according to the twentieth embodiment. Note that in FIG. 66, a smart phone 5001, which is an example of an electronic device, has a configuration corresponding to the digital camera 1 in FIG. A lens unit 5010 corresponds to the lens unit 10 in FIG. 7, an imaging unit 5020 corresponds to the imaging unit 20 in FIG. 7, an imaging device 5100 corresponds to the imaging device 100 in FIG. , the image processing unit 5030 corresponds to the image processing unit 30 in FIG. 7, the work memory 5040 corresponds to the work memory 40 in FIG. 7, and the display unit 5050 corresponds to the display unit 50 in FIG. A display panel 5051 corresponds to the display panel 51 in FIG. 7, a touch panel 5052 corresponds to the touch panel 52 in FIG. 7, an operation unit 5055 corresponds to the operation unit 55 in FIG. 60, and the system control unit 5070 corresponds to the system control unit 70 in FIG. Of these configurations, the lens unit 5010, imaging unit 5020, imaging element 5100, driving unit 5021, image processing unit 5030, work memory 5040, display unit 5050, operation unit 5055, and recording unit 5060 will not be described. . Note that the smartphone 5001 is used as an example of the electronic device, but a tablet terminal, a digital camera with a liquid crystal panel, or the like may also be used.

図66に示すように、システム制御部5070は、操作検出部5071及び駆動制御部5072を有している。操作検出部5071は、画像の拡大、縮小及び移動の少なくともいずれか一つの操作を検出する。駆動制御部5072は、撮像部5020に指示信号を出力することにより、撮像部5020に画像(静止画、動画、ライブビュー画像)を取得させる。また、駆動制御部5072は、操作検出部5071で検出された操作に応じて撮像素子5100を駆動制御する領域を選択する。また、駆動制御部5072は、表示部5050に表示されている画像に対応する撮像領域(画素領域)113A中の領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態(非アクティブ状態)に制御する。 As shown in FIG. 66, the system controller 5070 has an operation detector 5071 and a drive controller 5072 . The operation detection unit 5071 detects at least one operation of enlarging, reducing, and moving an image. The drive control unit 5072 outputs an instruction signal to the imaging unit 5020 to cause the imaging unit 5020 to acquire an image (still image, moving image, live view image). In addition, the drive control section 5072 selects a region to drive and control the imaging element 5100 according to the operation detected by the operation detection section 5071 . Further, the drive control unit 5072 controls the area in the imaging area (pixel area) 113A corresponding to the image displayed on the display unit 5050 to the active state, and puts the area other than the area into the sleep state (inactive state). to control.

ここで、「アクティブ状態」は、領域内の各画素が動作可能な状態(撮像可能な状態)であることを意味する。このアクティブ状態の領域においては、駆動部5021により各画素が駆動制御され、各画素から画素信号の読み出しが行われる。また、「スリープ状態」は、領域内の各画素が動作停止の状態(撮像停止の状態)であることを意味する。動作停止の状態としては、領域内の各画素において駆動部5021による駆動制御が行われていない状態を含む。すなわち、駆動部5021がリセットトランジスタ303、転送トランジスタ302、及び選択トランジスタ305にパルスを印加しない状態を含む。また、動作停止の状態としては、領域内の各画素から画素信号の読み出しを行わない状態を含む。すなわち、駆動部5021が選択トランジスタ305に対して選択パルスを印加しない状態を含む。また、動作停止の状態としては、領域内の各画素から画素信号を読み出すが、読み出した画素信号を使用しない状態を含む。例えば、信号処理チップ111などにおいて領域内の各画素から読み出した画素信号を廃棄する状態を含む。 Here, "active state" means that each pixel in the area is in an operable state (imaging possible state). In this active state region, each pixel is driven and controlled by the driving unit 5021, and a pixel signal is read out from each pixel. Also, the "sleep state" means that each pixel in the area is in a state of stopping operation (imaging stop state). The operation stop state includes a state in which drive control by the driving unit 5021 is not performed in each pixel in the region. In other words, it includes a state in which the drive unit 5021 does not apply pulses to the reset transistor 303 , the transfer transistor 302 , and the selection transistor 305 . In addition, the operation stop state includes a state in which pixel signals are not read from each pixel in the region. That is, it includes a state in which the driving unit 5021 does not apply a selection pulse to the selection transistor 305 . Further, the operation stop state includes a state in which pixel signals are read from each pixel in the region but the read pixel signals are not used. For example, it includes a state in which the signal processing chip 111 or the like discards the pixel signal read from each pixel in the area.

なお、操作検出部5071及び駆動制御部5072は、ボディ側CPUが制御プログラムに基づいて実行する処理や制御に相当する。 Note that the operation detection unit 5071 and the drive control unit 5072 correspond to processing and control executed by the body-side CPU based on the control program.

図67~図70を参照してシステム制御部5070の動作を説明する。図67は、第20実施形態の撮像素子5100における撮像領域113Aを示す図である。また、図68~図70は、スマートフォン5001の表示部5050の表示例を示す図である。 The operation of system control section 5070 will be described with reference to FIGS. 67 to 70. FIG. FIG. 67 is a diagram showing an imaging region 113A in the imaging element 5100 of the twentieth embodiment. 68 to 70 are diagrams showing display examples of the display unit 5050 of the smart phone 5001. FIG.

駆動制御部5072は、撮像部5020に指示信号を出力することにより、例えば図67に示すような画像(ここでは動画又はライブビュー画像)を撮像部5020に取得させる。図67に示す例では、撮像部5020で取得された画像には、被写体として人O310及び家O320が写っている。 The drive control unit 5072 outputs an instruction signal to the imaging unit 5020 to cause the imaging unit 5020 to acquire an image (here, a moving image or a live view image) as shown in FIG. 67, for example. In the example shown in FIG. 67, the image acquired by the imaging unit 5020 includes a person O310 and a house O320 as subjects.

図67に示す撮像領域113A内の領域5201は、表示部5050の表示パネル5051に表示される画像に対応する領域である(図68参照)。このとき、駆動制御部5072は、撮像領域113A内の領域5201をアクティブ状態に制御し、撮像領域113A内の領域5201以外の領域をスリープ状態に制御する。 A region 5201 within the imaging region 113A shown in FIG. 67 is a region corresponding to the image displayed on the display panel 5051 of the display unit 5050 (see FIG. 68). At this time, the drive control unit 5072 controls the area 5201 in the imaging area 113A to the active state, and controls the areas other than the area 5201 in the imaging area 113A to the sleep state.

次に、使用者は、図68に示すように、表示パネル5051を指でつまむようにした後に指を遠ざける操作(ピンチアウト操作)を行う。タッチパネル5052は、使用者によるピンチアウト操作に応じた検出信号をシステム制御部5070に出力する。操作検出部5071は、タッチパネル5052からの検出信号に基づいて、使用者による画像を拡大するピンチアウト操作を検出する。駆動制御部5072は、操作検出部5071により検出されたピンチアウト操作に応じて画像を拡大表示するように制御する(図69参照)。また、駆動制御部5072は、表示パネル5051に拡大表示された画像に対応する撮像領域113A内の領域5202をアクティブ状態に制御し、撮像領域113A内の領域5202以外の領域をスリープ状態に制御する。 Next, as shown in FIG. 68, the user performs an operation of pinching the display panel 5051 with the fingers and then moving the fingers away (pinch-out operation). Touch panel 5052 outputs a detection signal corresponding to the user's pinch-out operation to system control unit 5070 . Based on a detection signal from the touch panel 5052, the operation detection unit 5071 detects a user's pinch-out operation for enlarging an image. The drive control unit 5072 controls to enlarge and display an image according to the pinch-out operation detected by the operation detection unit 5071 (see FIG. 69). Further, the drive control unit 5072 controls the area 5202 within the imaging area 113A corresponding to the image enlarged and displayed on the display panel 5051 to the active state, and controls the area other than the area 5202 within the imaging area 113A to the sleep state. .

また、使用者は、図69に示すように、表示パネル5051上でピンチアウト操作を行う。タッチパネル5052は、使用者によるピンチアウト操作に応じた検出信号をシステム制御部5070に出力する。操作検出部5071は、タッチパネル5052からの検出信号に基づいて、使用者による画像を拡大するピンチアウト操作を検出する。駆動制御部5072は、操作検出部5071により検出されたピンチアウト操作に応じて画像を拡大表示するように制御する(図70参照)。また、駆動制御部5072は、表示パネル5051に拡大表示された画像に対応する撮像領域113A内の領域5203をアクティブ状態に制御し、撮像領域113A内の領域5203以外の領域をスリープ状態に制御する。 Also, the user performs a pinch-out operation on the display panel 5051, as shown in FIG. Touch panel 5052 outputs a detection signal corresponding to the user's pinch-out operation to system control unit 5070 . Based on a detection signal from the touch panel 5052, the operation detection unit 5071 detects a user's pinch-out operation for enlarging an image. The drive control unit 5072 controls to enlarge and display an image according to the pinch-out operation detected by the operation detection unit 5071 (see FIG. 70). Further, the drive control unit 5072 controls the area 5203 in the imaging area 113A corresponding to the image enlarged and displayed on the display panel 5051 to the active state, and controls the areas other than the area 5203 in the imaging area 113A to the sleep state. .

このような構成によれば、駆動制御部5072は、表示パネル5051に表示されている画像に対応する領域以外の領域をスリープ状態に制御するので、撮像素子5100を駆動する駆動部5021の消費電力を低減することができる。なお、上記の構成では、使用者のピンチアウト操作の場合について説明したが、使用者のピンチイン操作(表示パネル5051を指でつまむようにした後に指を近づける操作)やスクロール操作の場合にも適用可能である。すなわち、駆動制御部5072は、使用者のピンチイン操作に応じて表示パネル5051に縮小表示された画像に対応する撮像領域113A内の領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態に制御する。また、駆動制御部5072は、使用者のスクロール操作に応じて表示パネル5051に移動表示された画像に対応する撮像領域113A内の領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態に制御する。 With such a configuration, the drive control unit 5072 controls the region other than the region corresponding to the image displayed on the display panel 5051 to the sleep state. can be reduced. In the above configuration, the user's pinch-out operation has been described, but it is also applicable to the user's pinch-in operation (an operation of pinching the display panel 5051 with the fingers and then bringing the fingers closer together) or a scrolling operation. It is possible. That is, the drive control unit 5072 controls the area within the imaging area 113A corresponding to the image reduced and displayed on the display panel 5051 in accordance with the user's pinch-in operation to the active state, and places the area other than that area in the sleep state. Control. Further, the drive control unit 5072 controls the area within the imaging area 113A corresponding to the image moved and displayed on the display panel 5051 according to the user's scrolling operation to the active state, and puts the other areas to the sleep state. Control.

上記の構成では、駆動制御部5072は、表示部5050に表示されている画像の領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態に制御していた。しかし、駆動制御部5072は、表示部5050に表示されている画像の領域を含む領域をアクティブ状態に制御し、その領域以外の領域をスリープ状態に制御してもよい。このような構成によれば、スマートフォン5001が画像(動画又はライブビュー画像)の撮影中に手振れが生じた場合でも、スリープ状態の領域が表示部5050に表示されてしまうのを防止することができる。また、駆動制御部5072は、表示部5050に表示されている画像の領域を含む領域をアクティブ状態に制御しているので、手振れが生じた場合に手振れ補正を行うことができる。 In the above configuration, the drive control unit 5072 controls the area of the image displayed on the display unit 5050 to the active state, and controls other areas to the sleep state. However, the drive control unit 5072 may control an area including the image area displayed on the display unit 5050 to the active state, and control other areas to the sleep state. With such a configuration, it is possible to prevent the sleep state area from being displayed on the display unit 5050 even when camera shake occurs while the smartphone 5001 is shooting an image (moving image or live view image). . Further, since the drive control unit 5072 controls the area including the area of the image displayed on the display unit 5050 to the active state, it is possible to correct the camera shake when camera shake occurs.

また、駆動制御部5072は、操作検出部5071で検出された操作に応じて撮像素子5100を駆動制御する領域の間引き率を変更してもよい。具体的には、撮像素子5100の領域5201の画素数が縦2560画素×横1920画素であるとする。また、記録部5060の記録画素数(記録部5060に記録される画像(静止画、動画)の画素数)が予め縦640画素×横480画素に設定されているものとする。駆動制御部5072は、領域5201で撮像を行う場合、縦及び横いずれも間引き率3/4で信号の読み出しを行う。すなわち、駆動制御部5072は、領域5201内のすべての画素のうちの1/4の画素から信号の読み出しを行う。また、駆動制御部5072は、領域5202(この領域5202は領域5201の縦横1/2のサイズの領域であるものとする。)で撮像を行う場合、縦及び横いずれも間引き率1/2で信号の読み出しを行う。すなわち、駆動制御部5072は、領域5202内のすべての画素のうちの1/2の画素から信号の読み出しを行う。また、駆動制御部5072は、領域5203(この領域5203は領域5201の縦横1/4のサイズの領域であるものとする。)で撮像を行う場合、縦及び横いずれも間引き率0で信号の読み出しを行う。すなわち、駆動制御部5072は、領域5202内のすべての画素から信号の読み出しを行う。 Further, the drive control section 5072 may change the thinning rate of the area for driving and controlling the imaging element 5100 according to the operation detected by the operation detection section 5071 . Specifically, it is assumed that the number of pixels in the region 5201 of the image sensor 5100 is 2560 pixels in the vertical direction×1920 pixels in the horizontal direction. It is also assumed that the number of recording pixels of the recording unit 5060 (the number of pixels of an image (still image or moving image) recorded in the recording unit 5060) is set in advance to 640 vertical pixels×480 horizontal pixels. When capturing an image in the area 5201, the drive control unit 5072 reads signals at a thinning rate of 3/4 both vertically and horizontally. That is, the drive control unit 5072 reads out signals from ¼ of all the pixels in the region 5201 . Further, when imaging in the area 5202 (this area 5202 is assumed to be half the size of the area 5201 vertically and horizontally), the driving control unit 5072 sets the vertical and horizontal thinning rate to 1/2. Read out the signal. That is, the drive control unit 5072 reads out signals from half of all the pixels in the region 5202 . In addition, the drive control unit 5072, when imaging in the area 5203 (this area 5203 is assumed to be 1/4 of the size of the area 5201 vertically and horizontally), reduces the signal with a thinning rate of 0 both vertically and horizontally. Do a read. That is, the drive control unit 5072 reads signals from all pixels in the region 5202 .

このような構成によれば、予め設定された記録画素数に応じた領域内の画素からだけ信号の読み出しが行われるので、より一層、撮像素子5100を駆動する駆動部5021の消費電力を低減することができる。 According to such a configuration, signals are read out only from the pixels in the area corresponding to the preset number of recording pixels, so that the power consumption of the driving section 5021 that drives the imaging device 5100 is further reduced. be able to.

また、画像処理部5030は、記録部5060の記録画素数が撮像素子5100を駆動制御する領域の画素数を超えた場合、画像データの補間処理を行ってもよい。例えば、駆動制御部5072は、領域5203よりもサイズの小さい領域(領域5203の1/2のサイズの領域)で撮像を行う場合、その領域内のすべての画素から信号の読み出しを行う。そして、画像処理部5030は、領域内のすべての画素から読み出された信号(画像データ)に基づいて領域内の画素間の画像データを生成して記録部5060に記録する。このような構成によれば、撮像素子5100を駆動制御する領域のサイズに制限を設ける必要がなくなる。 Further, when the number of pixels recorded in the recording unit 5060 exceeds the number of pixels in the area in which the imaging device 5100 is driven and controlled, the image processing unit 5030 may perform interpolation processing of image data. For example, when capturing an image in a region smaller than the region 5203 (half the size of the region 5203), the drive control unit 5072 reads signals from all pixels in the region. Then, the image processing unit 5030 generates image data between pixels in the region based on the signals (image data) read out from all pixels in the region, and records it in the recording unit 5060 . With such a configuration, there is no need to limit the size of the region in which the imaging element 5100 is driven and controlled.

<第21実施形態>
図71は、第21実施形態の撮像素子における撮像領域113Aを示す図である。図71に示すように、撮像領域113Aは、方形状の単位領域A1~A16に16分割されている。単位領域A1~A16は、それぞれ、複数個のブロックから構成される領域である。なお、単位領域は、それぞれ、1個や数個のブロックで構成されてもよい。この場合、単位領域の数は図71に示す数よりも多くなる。
<21st embodiment>
FIG. 71 is a diagram showing an imaging region 113A in the imaging element of the twenty-first embodiment. As shown in FIG. 71, the imaging region 113A is divided into 16 rectangular unit regions A1 to A16. Each of the unit areas A1 to A16 is an area composed of a plurality of blocks. Note that each unit area may be composed of one or several blocks. In this case, the number of unit areas is greater than the number shown in FIG.

図72は、第21実施形態の撮像部6020、画像処理部6030及び記録部6060の構成を示すブロック図である。なお、図72において、撮像部6020は図7の撮像部20に相当し、画像処理部6030は図7の画像処理部30に相当し、記録部6060は図7の記録部60に相当する。 FIG. 72 is a block diagram showing the configuration of the imaging unit 6020, image processing unit 6030 and recording unit 6060 of the twenty-first embodiment. 72, an imaging unit 6020 corresponds to the imaging unit 20 in FIG. 7, an image processing unit 6030 corresponds to the image processing unit 30 in FIG. 7, and a recording unit 6060 corresponds to the recording unit 60 in FIG.

撮像部6020は、撮像領域113Aにおいて領域ごとに異なるフレームレートで撮像可能である。この撮像部6020は、撮像素子の撮像領域113A、撮像素子制御部6021、バッファ6022、及びセレクタ(選択部)6023を備えている。図72においては、撮像素子の撮像領域113Aにおける単位領域A1~A16は一列に横に配置されているが、実際は図71に示したような縦横に並んで配置されている。図72に示すように、各単位領域A1~A16で得られた画像データはセレクタ6023に出力される。 The imaging unit 6020 can capture an image at a different frame rate for each area in the imaging area 113A. The imaging unit 6020 includes an imaging area 113A of the imaging device, an imaging device control unit 6021, a buffer 6022, and a selector (selection unit) 6023. In FIG. 72, the unit areas A1 to A16 in the image pickup area 113A of the image sensor are arranged horizontally in a row, but actually they are arranged vertically and horizontally as shown in FIG. As shown in FIG. 72, the image data obtained from each of the unit areas A1 to A16 are output to the selector 6023.

撮像素子制御部6021は、画像処理部6030の読出制御部6031からの制御信号に基づいて、撮像領域113Aにおける各領域のフレームレートを設定するとともに、セレクタ6023に選択信号を出力することにより、単位領域A1~A16で得られた画像データを格納するバッファB1~B16を各領域のフレームレートに応じたバッファに切り替えさせる。バッファ6022(複数のバッファB1~B16)は、画像処理部6030に送信(転送)する画像データを一旦格納する格納領域である。バッファ6023(複数のバッファB1~B16)は、撮像領域113Aの複数の単位領域A1~A16に対応して設けられている。バッファ6023(複数のバッファB1~B16)は、それぞれ、複数本の伝送路(レーン)L1~L16で画像処理部6030のインターフェイス部6032と接続されている。本実施形態では、複数本の伝送路L1~L16は、それぞれ、画像データの転送能力(単位時間に転送可能な画像データ量)はフレームレートによって決められる。本実施形態では、各伝送路L1~L16における画像データの転送能力は例えば60fpsとなっている。セレクタ6023は、撮像素子制御部6021からの選択信号に基づいてスイッチングすることで、単位領域A1~A16で得られた画像データを格納するバッファB1~B16を切り替える。 The image pickup device control unit 6021 sets the frame rate of each region in the image pickup region 113A based on the control signal from the readout control unit 6031 of the image processing unit 6030, and outputs a selection signal to the selector 6023, so that the unit The buffers B1 to B16 that store the image data obtained in the areas A1 to A16 are switched to buffers corresponding to the frame rate of each area. A buffer 6022 (a plurality of buffers B1 to B16) is a storage area for temporarily storing image data to be transmitted (transferred) to the image processing unit 6030. FIG. Buffers 6023 (a plurality of buffers B1 to B16) are provided corresponding to a plurality of unit areas A1 to A16 of the imaging area 113A. The buffers 6023 (a plurality of buffers B1 to B16) are connected to the interface section 6032 of the image processing section 6030 via a plurality of transmission lines (lanes) L1 to L16, respectively. In this embodiment, the image data transfer capability (the amount of image data that can be transferred per unit time) of each of the plurality of transmission lines L1 to L16 is determined by the frame rate. In this embodiment, the image data transfer capacity of each of the transmission lines L1 to L16 is, for example, 60 fps. The selector 6023 switches buffers B1 to B16 for storing the image data obtained from the unit areas A1 to A16 by switching based on the selection signal from the image sensor control unit 6021 .

画像処理部6030は、撮像部6020から送信された画像データを受け取り、受け取った画像データに対して画像処理を施す。この画像処理部6030は、読出制御部6031、インターフェイス部6032、及びメモリコントローラ6033を備えている。読出制御部6031は、センサ6050からの検出信号に基づいて、撮像領域113Aのいずれの領域を高フレームレート(動画やライブビュー画像の撮影時のフレームレートよりも高いフレームレート)に設定するかを判定するエリア・フレームレート判定処理を実行する。そして、読出制御部6031は、エリア・フレームレート判定処理の結果に基づいて、撮像領域113Aにおける各領域のフレームレートを指示する制御信号を撮像素子制御部6021に出力する。また、読出制御部6031は、エリア・フレームレート判定処理の結果に基づいて、インターフェイス部6032に格納された単位領域A1~A16ごとの画像データの並び替えを行う。 The image processing unit 6030 receives the image data transmitted from the imaging unit 6020 and performs image processing on the received image data. The image processing unit 6030 has a read control unit 6031 , an interface unit 6032 and a memory controller 6033 . Based on the detection signal from the sensor 6050, the readout control unit 6031 determines which area of the imaging area 113A should be set to a high frame rate (a frame rate higher than the frame rate when shooting moving images or live view images). Area/frame rate determination processing to be determined is executed. Then, the reading control unit 6031 outputs a control signal instructing the frame rate of each region in the imaging region 113A to the imaging element control unit 6021 based on the result of the area/frame rate determination processing. Further, the read control unit 6031 rearranges the image data for each of the unit areas A1 to A16 stored in the interface unit 6032 based on the result of the area/frame rate determination processing.

インターフェイス部6032は、複数本の伝送路L1~L16で複数のバッファB1~B16と接続され、各バッファB1~B16から送信される画像データを受信して記憶領域に格納する。メモリコントローラ6033は、インターフェイス部6032の記憶領域に格納されている画像データを読み出して記録部6060に出力する。センサ6050は、水平方向の加速度又は角加速度を検出する加速度センサである。記録部6060は、画像処理部6030から出力された画像データを記録するメモリである。 The interface unit 6032 is connected to a plurality of buffers B1 to B16 via a plurality of transmission lines L1 to L16, receives image data transmitted from each buffer B1 to B16, and stores the received image data in a storage area. The memory controller 6033 reads the image data stored in the storage area of the interface section 6032 and outputs it to the recording section 6060 . Sensor 6050 is an acceleration sensor that detects horizontal acceleration or angular acceleration. A recording unit 6060 is a memory that records image data output from the image processing unit 6030 .

図73は、撮像部6020から画像処理部6030への画像データの転送タイミングを示す図である。なお、単位領域A1~A16のフレームレートはすべて同一のフレームレートであって、高フレームレートではないものとする。図73に示すように、1番目のフレームにおける単位領域A1~A16で得られた画像データD1-1~D16-1は、それぞれ、同一のタイミングでセレクタ6023を介してバッファB1~B16に格納される。バッファB1~B16に格納された画像データD1-1~D16-1は、同一のタイミングで伝送路L1~L16を介して画像処理部6030に転送される。 FIG. 73 is a diagram showing transfer timing of image data from the imaging unit 6020 to the image processing unit 6030. As shown in FIG. It is assumed that the frame rates of the unit areas A1 to A16 are all the same frame rate and not a high frame rate. As shown in FIG. 73, the image data D1-1 to D16-1 obtained from the unit areas A1 to A16 in the first frame are respectively stored in the buffers B1 to B16 via the selector 6023 at the same timing. be. The image data D1-1 to D16-1 stored in the buffers B1 to B16 are transferred to the image processing section 6030 via the transmission lines L1 to L16 at the same timing.

2番目のフレームにおける単位領域A1~A16で得られた画像データD1-2~D16-2も、それぞれ、同一のタイミングでセレクタ6023を介してバッファB1~B16に格納される。バッファB1~B16に格納された画像データD1-2~D16-2は、同一のタイミングで伝送路L1~L16を介して画像処理部6030に転送される。3番目のフレームにおける単位領域A1~A16で得られた画像データD1-3~D16-3も、それぞれ、同一のタイミングでセレクタ6023を介してバッファB1~B16に格納される。バッファB1~B16に格納された画像データD1-3~D16-3は、同一のタイミングで伝送路L1~L16を介して画像処理部6030に転送される。 The image data D1-2 to D16-2 obtained from the unit areas A1 to A16 in the second frame are also stored in the buffers B1 to B16 via the selector 6023 at the same timing. The image data D1-2 to D16-2 stored in the buffers B1 to B16 are transferred to the image processing section 6030 via the transmission lines L1 to L16 at the same timing. The image data D1-3 to D16-3 obtained from the unit areas A1 to A16 in the third frame are also stored in the buffers B1 to B16 via the selector 6023 at the same timing. The image data D1-3 to D16-3 stored in the buffers B1 to B16 are transferred to the image processing section 6030 via the transmission lines L1 to L16 at the same timing.

図73に示すように1フレームの各単位領域A1~A16で得られた画像データが同一のタイミングで撮像部6020から画像処理部6030に転送される場合は、読出制御部6031は、インターフェイス部6032の記憶領域に格納された単位領域A1~A16ごとの画像データの並び替えを行わない。 As shown in FIG. 73, when the image data obtained in each of the unit areas A1 to A16 of one frame are transferred from the imaging unit 6020 to the image processing unit 6030 at the same timing, the reading control unit 6031 controls the interface unit 6032 is not rearranged for each of the unit areas A1 to A16 stored in the storage area of .

次に、撮像領域113Aにおける左半分の領域(単位領域A1,A2,A5,A6,A9,A10,A13,A14)から高フレームレートで画像データを読み出し、撮像領域113Aにおける右半分の領域(単位領域A3,A4,A7,A8,A11,A12,A15,A16)からは画像データを読み出さない場合について説明する。 Next, image data is read at a high frame rate from the left half areas (unit areas A1, A2, A5, A6, A9, A10, A13, A14) in the imaging area 113A, and the right half area (unit areas) in the imaging area 113A is read out. A case where image data is not read out from the areas A3, A4, A7, A8, A11, A12, A15 and A16 will be described.

図74は、左半分の領域(単位領域A1,A2,A5,A6,A9,A10,A13,A14)から高フレームレートで画像データを読み出し、右半分の領域(単位領域A3,A4,A7,A8,A11,A12,A15,A16)からは画像データを読み出さない場合における撮像部6020、画像処理部6030及び記録部6060の構成を示すブロック図である。また、図75は、左半分の領域(単位領域A1,A2,A5,A6,A9,A10,A13,A14)から高フレームレートで画像データを読み出し、右半分の領域(単位領域A3,A4,A7,A8,A11,A12,A15,A16)からは画像データを読み出さない場合における撮像部6020から画像処理部6030への画像データの転送タイミングを示す図である。 In FIG. 74, image data is read from the left half area (unit areas A1, A2, A5, A6, A9, A10, A13, A14) at a high frame rate, and the right half area (unit areas A3, A4, A7, A8, A11, A12, A15, A16) is a block diagram showing the configuration of the imaging unit 6020, the image processing unit 6030, and the recording unit 6060 when image data is not read out. Also, in FIG. 75, image data is read at a high frame rate from the left half area (unit areas A1, A2, A5, A6, A9, A10, A13, A14), and the right half area (unit areas A3, A4, A14) is read out. 60 is a diagram showing the transfer timing of image data from the imaging unit 6020 to the image processing unit 6030 when image data is not read from A7, A8, A11, A12, A15, A16).

この場合、読出制御部6031は、左半分の領域のフレームレートを高フレームレートとし、右半分の領域のフレームレートを0とする旨を指示する制御信号を撮像素子制御部6021に出力する。撮像素子制御部6021は、読出制御部6031からの制御信号に基づいて、左半分の領域のフレームレートを高フレームレートに設定し、右半分の領域のフレームレートを0に設定する。また、撮像素子制御部6021は、セレクタ6023に選択信号を出力することにより、単位領域A1~A16で得られた画像データを格納するバッファB1~B16を各領域のフレームレートに応じたバッファに切り替えさせる。 In this case, the readout control unit 6031 outputs a control signal to the imaging device control unit 6021 to set the frame rate of the left half area to the high frame rate and set the frame rate of the right half area to zero. Based on the control signal from the reading control unit 6031, the imaging device control unit 6021 sets the frame rate of the left half area to a high frame rate and sets the frame rate of the right half area to 0. In addition, the image sensor control unit 6021 outputs a selection signal to the selector 6023 to switch the buffers B1 to B16 storing the image data obtained in the unit areas A1 to A16 to buffers corresponding to the frame rate of each area. Let

具体的には、図74及び図75に示すように、1番目のフレームにおける単位領域A1,A2,A5,A6,A9,A10,A13,A14で得られた画像データD1-1,D2-1,D5-1,D6-1,D9-1,D10-1,D13-1,D14-1は、それぞれ、同一のタイミングでセレクタ6023を介してバッファB1,B2,B5,B6,B9,B10,B13,B14に格納される。バッファB1,B2,B5,B6,B9,B10,B13,B14に格納された画像データD1-1,D2-1,D5-1,D6-1,D9-1,D10-1,D13-1,D14-1は、同一のタイミングで伝送路L1,L2,L5,L6,L9,L10,L13,L14を介して画像処理部6030に転送される。 Specifically, as shown in FIGS. 74 and 75, image data D1-1 and D2-1 obtained from unit areas A1, A2, A5, A6, A9, A10, A13, and A14 in the first frame , D5-1, D6-1, D9-1, D10-1, D13-1, and D14-1 are supplied to buffers B1, B2, B5, B6, B9, B10, It is stored in B13 and B14. Image data D1-1, D2-1, D5-1, D6-1, D9-1, D10-1, D13-1, D10-1, D13-1, D14-1 is transferred to image processing section 6030 via transmission lines L1, L2, L5, L6, L9, L10, L13, and L14 at the same timing.

2番目のフレームにおける単位領域A1,A2,A5,A6,A9,A10,A13,A14で得られた画像データD1-2,D2-2,D5-2,D6-2,D9-2,D10-2,D13-2,D14-2は、それぞれ、同一のタイミングでセレクタ6023を介してバッファB3,B4,B7,B8,B11,B12,B15,B16に格納される。バッファB3,B4,B7,B8,B11,B12,B15,B16に格納された画像データD1-2,D2-2,D5-2,D6-2,D9-2,D10-2,D13-2,D14-2は、同一のタイミングで伝送路L3,L4,L7,L8,L11,L12,L15,L16を介して画像処理部6030に転送される。 Image data D1-2, D2-2, D5-2, D6-2, D9-2, D10- obtained in unit areas A1, A2, A5, A6, A9, A10, A13, A14 in the second frame 2, D13-2 and D14-2 are stored in buffers B3, B4, B7, B8, B11, B12, B15 and B16 at the same timing via selector 6023, respectively. Image data D1-2, D2-2, D5-2, D6-2, D9-2, D10-2, D13-2, D10-2, D13-2, D1-2, D2-2, D5-2, D6-2, D9-2, D14-2 is transferred to image processing section 6030 via transmission lines L3, L4, L7, L8, L11, L12, L15 and L16 at the same timing.

2番目のフレームの画像データD1-2,D2-2,D5-2,D6-2,D9-2,D10-2,D13-2,D14-2は、1番目のフレームの画像データD1-1,D2-1,D5-1,D6-1,D9-1,D10-1,D13-1,D14-1の転送が終了していない時点から転送が開始される。従って、左半分の領域のフレームレートが高フレームレートである場合でも、左半分の領域内の各単位領域に対応するバッファ及び伝送路と、右半分の領域内の各単位領域に対応するバッファ及び伝送路とを交互に利用することにより、各伝送路の転送能力を超えたフレームレートで画像データを転送することができる。 Image data D1-2, D2-2, D5-2, D6-2, D9-2, D10-2, D13-2, and D14-2 of the second frame are image data D1-1 of the first frame. , D2-1, D5-1, D6-1, D9-1, D10-1, D13-1, and D14-1 are not yet completed. Therefore, even if the frame rate of the left half area is high, the buffers and transmission paths corresponding to each unit area in the left half area and the buffers and transmission paths corresponding to each unit area in the right half area By alternately using the transmission lines, image data can be transferred at a frame rate exceeding the transfer capacity of each transmission line.

上記説明した例では、撮像部6020は、左半分の領域(単位領域A1,A2,A5,A6,A9,A10,A13,A14)から高フレームレートで画像データを読み出すことが可能であるが、右半分の領域(単位領域A3,A4,A7,A8,A11,A12,A15,A16)からは画像データを読み出すことができない。そこで、高フレームレートで画像データを読み出す領域(以下、この領域を第1領域という。)を撮像領域113A全体の1/x(x=3,4,5,・・・)とする。そして、撮像部6020は、第1領域からxフレームの画像データを読み出す毎に、撮像領域113Aにおける第1領域以外の領域(以下、この領域を第2領域という。)から1フレームの画像データを読み出す。これにより、撮像部6020は、撮像領域113A全体の画像を読み出すことができるとともに、各伝送路L1~L16の転送能力を超えることなく画像データの転送を行うことができる。 In the example described above, the imaging unit 6020 can read image data at a high frame rate from the left half areas (unit areas A1, A2, A5, A6, A9, A10, A13, and A14). Image data cannot be read from the right half areas (unit areas A3, A4, A7, A8, A11, A12, A15, and A16). Therefore, the area from which image data is read at a high frame rate (hereinafter referred to as the first area) is set to 1/x (x=3, 4, 5, . . . ) of the entire imaging area 113A. Then, every time x frames of image data are read from the first area, the imaging unit 6020 reads out one frame of image data from an area other than the first area in the imaging area 113A (hereinafter, this area is referred to as a second area). read out. As a result, the imaging unit 6020 can read out the image of the entire imaging region 113A, and transfer image data without exceeding the transfer capacity of each of the transmission lines L1 to L16.

次に、本実施形態の撮像装置の動作について説明する。なお、以下の説明においては、使用者(撮影者)が撮像装置を用いて自動車から前方の動画を撮影している状況であるものとする。図76は、第21実施形態の画像処理部6030における処理を示すフローチャートである。まず、読出制御部6031は、センサ6050からの検出信号に基づいて、撮像領域113Aのいずれの領域を高フレームレートに設定するかを判定するエリア・フレームレート判定処理を実行する(ステップS6001)。例えば、センサ6050が自動車が左に曲がっているときの加速度又は角加速度を検出した場合は、読出制御部6031は、センサ6050からの検出信号に基づいて、撮像領域113Aの左側の領域(第1領域)を高フレームレートに設定すると判定する。また、読出制御部6031は、センサ6050で検出された加速度又は角加速度の大きさに基づいて、高フレームレートに設定する領域(第1領域)の面積を判定する。 Next, the operation of the imaging device of this embodiment will be described. In the following description, it is assumed that the user (photographer) is shooting a moving image in front of the vehicle using the imaging device. FIG. 76 is a flow chart showing processing in the image processing unit 6030 of the twenty-first embodiment. First, based on the detection signal from the sensor 6050, the readout control unit 6031 executes area/frame rate determination processing to determine which region of the imaging region 113A is set to a high frame rate (step S6001). For example, when the sensor 6050 detects acceleration or angular acceleration when the automobile is turning to the left, the readout control unit 6031 controls the left area (first area) is set to a high frame rate. Also, based on the magnitude of the acceleration or angular acceleration detected by the sensor 6050, the read control unit 6031 determines the area of the region (first region) set to the high frame rate.

次に、読出制御部6031は、エリア・フレームレート判定処理の結果に基づいて、撮像領域113Aにおける各領域のフレームレートを指示する制御信号を撮像素子制御部6021に出力する(ステップS6002)。例えば、センサ6050が自動車が左に曲がっているときの加速度又は角加速度を検出した場合は、読出制御部6031は、撮像領域113Aの左側の所定面積の第1領域(単位領域で特定される領域)を高フレームレートに設定し、撮像領域113Aの第1領域以外の第2領域(単位領域で特定される領域)を低フレームレートに設定することを指示する制御信号を撮像素子制御部6021に出力する。 Next, the reading control unit 6031 outputs a control signal instructing the frame rate of each area in the imaging area 113A to the image sensor control unit 6021 based on the result of the area/frame rate determination processing (step S6002). For example, when the sensor 6050 detects the acceleration or angular acceleration when the automobile is turning to the left, the readout control unit 6031 detects the first area (the area specified by the unit area) on the left side of the imaging area 113A. ) is set to a high frame rate, and the second area (area specified by the unit area) of the imaging area 113A other than the first area is set to a low frame rate. Output.

その後、読出制御部6031は、撮像部6020から転送された画像データを受信してインターフェイス部6032の記憶領域に格納させる(ステップS6003)。そして、読出制御部6031は、エリア・フレームレート判定処理の結果に基づいて、インターフェイス部6032の記憶領域に格納された単位領域A1~A16ごとの画像データの並び替えを行う(ステップS6004)。例えば、読出制御部6031は、エリア・フレームレート判定処理で判定した第1領域及び第2領域の面積や、第1領域及び第2領域のフレームレートに基づいて、伝送路L1~L16を介して各々のタイミングで受信した画像データがどの単位領域の画像データであるかを特定する。そして、読出制御部6031は、特定した画像データの単位領域の位置に基づき、記憶領域における画像データのアドレスの位置が撮像領域113Aにおける単位領域の位置と合致するように画像データを並び替える。 After that, the read control unit 6031 receives the image data transferred from the imaging unit 6020 and stores it in the storage area of the interface unit 6032 (step S6003). Then, based on the result of the area/frame rate determination processing, the read control unit 6031 rearranges the image data for each of the unit areas A1 to A16 stored in the storage area of the interface unit 6032 (step S6004). For example, the read control unit 6031, based on the areas of the first region and the second region determined by the area/frame rate determination process and the frame rate of the first region and the second region, via the transmission paths L1 to L16 It identifies which unit area the image data received at each timing belongs to. Then, based on the position of the specified unit area of the image data, the read control unit 6031 rearranges the image data so that the position of the address of the image data in the storage area matches the position of the unit area in the imaging area 113A.

メモリコントローラ6033は、1つのフレーム中において更新されている画像データの領域が第1領域だけの場合は、第1領域の画像データだけを記録部6060に書き換えて記録させ、1つのフレーム中において更新されている画像データの領域が第1領域及び第2領域(つまり全体の領域)の場合は、第1領域及び第2領域の画像データを記録部6060に書き換えて記録させる(ステップS6005)。次に、読出制御部6031は、動画の撮影が終了したか否かを判定する(ステップS6006)。読出制御部6031は、動画の撮影が終了していないと判定した場合は(ステップS6006のNO)、ステップS6001の処理に移行する。読出制御部6031は、動画の撮影が終了したと判定した場合は(ステップS6006のYES)、処理を終了する。 When the area of the image data updated in one frame is only the first area, the memory controller 6033 causes the recording unit 6060 to rewrite and record only the image data in the first area, and updates the image data in one frame. If the image data areas are the first area and the second area (that is, the entire area), the image data of the first area and the second area are rewritten and recorded in the recording unit 6060 (step S6005). Next, the reading control unit 6031 determines whether or not the moving image shooting has ended (step S6006). When the reading control unit 6031 determines that the moving image shooting has not ended (NO in step S6006), the process proceeds to step S6001. If the read control unit 6031 determines that the moving image shooting has ended (YES in step S6006), the process ends.

図77は、第21実施形態の撮像部6020における処理を示すフローチャートである。図77に示す処理において、撮像素子制御部6021は、読出制御部6031から出力される制御信号に基づき、領域(第1領域、第2領域)ごとのフレームレートの設定と、セレクタ6023の切り替えとを行う(ステップS6011)。すなわち、撮像素子制御部6021は、読出制御部6031は、第1領域を高フレームレートに設定し、第2領域を低フレームレートに設定する。また、撮像素子制御部6021は、セレクタ6023に対して選択信号を出力して、単位領域A1~A16で得られた画像データを格納するバッファB1~B16を各領域のフレームレートに応じたバッファに切り替えさせる。 FIG. 77 is a flow chart showing processing in the imaging unit 6020 of the twenty-first embodiment. In the process shown in FIG. 77, the image sensor control unit 6021 sets the frame rate for each region (first region, second region) based on the control signal output from the read control unit 6031, and switches the selector 6023. (step S6011). That is, the image pickup device control unit 6021 sets the readout control unit 6031 to set the first area to a high frame rate and the second area to a low frame rate. In addition, the image sensor control unit 6021 outputs a selection signal to the selector 6023, and selects the buffers B1 to B16 for storing the image data obtained in the unit areas A1 to A16 according to the frame rate of each area. let me switch.

次に、撮像素子制御部6021は、単位領域A1~A16で得られた画像データをセレクタ6023を介してバッファB1~B16に格納させ(ステップS6012)、バッファB1~B16に格納された画像データを伝送路L1~L16を通じて画像処理部6030に送信させる(ステップS6013)。 Next, the image sensor control unit 6021 stores the image data obtained from the unit areas A1 to A16 in the buffers B1 to B16 via the selector 6023 (step S6012), and stores the image data stored in the buffers B1 to B16. The data is transmitted to the image processing unit 6030 through the transmission lines L1 to L16 (step S6013).

本実施形態においては、読出制御部6031は、エリア・フレームレート判定処理において、第1領域における高フレームレートと第2領域における低フレームレートの比が整数倍となるように、第1領域及び第2領域のフレームレートを決定する。第1領域からの画像データの読み出しタイミング(転送タイミング)と第2領域からの画像データの読み出しタイミング(転送タイミング)とを同期させるためである。また、上記した構成では、撮像領域113A全体を標準フレームレートで撮像した場合と、第1フレームレートを高フレームレートで撮像し、第2フレームレートを低いフレームレートで撮像した場合とで、消費電力を同一にすることが可能となる。 In the present embodiment, in the area/frame rate determination process, the read control unit 6031 controls the first area and the second area so that the ratio of the high frame rate in the first area and the low frame rate in the second area is an integer multiple. Determine the frame rate of the two regions. This is to synchronize the readout timing (transfer timing) of image data from the first area and the readout timing (transfer timing) of image data from the second area. Further, in the above configuration, when the entire imaging region 113A is imaged at the standard frame rate, and when the first frame rate is imaged at a high frame rate and the second frame rate is imaged at a low frame rate, the power consumption is can be made the same.

次に、第1領域及び第2領域の面積と、第1領域及び第2領域のフレームレートとの関係について説明する。図78は、フレームレートと領域5201,5202との関係を示す図である。図78の左図に示す例では、撮像部6020は、撮像領域113A全体から標準フレームレート(ここでは60fps)で画像データの読み出しを行っている。読出制御部6031が撮像領域113Aにおける左側の第1領域5201のフレームレートを高フレームレート(ここでは120fps)に設定し、撮像領域113Aにおける右側の第2領域5202のフレームレートを低フレームレート(ここでは30fps)に設定すると判定する場合は、第1領域5021は撮像領域113Aの1/3の面積となる。 Next, the relationship between the areas of the first and second regions and the frame rates of the first and second regions will be described. FIG. 78 is a diagram showing the relationship between the frame rate and areas 5201 and 5202. FIG. In the example shown in the left diagram of FIG. 78, the imaging unit 6020 reads image data from the entire imaging area 113A at a standard frame rate (here, 60 fps). The readout control unit 6031 sets the frame rate of the first region 5201 on the left side of the imaging region 113A to a high frame rate (here, 120 fps), and sets the frame rate of the second region 5202 on the right side of the imaging region 113A to a low frame rate (here, 120 fps). 30 fps), the area of the first area 5021 is ⅓ of the imaging area 113A.

具体的には、標準フレームレートをA(fps)とし、高フレームレートをB(fps)とし、低フレームレートをC(fps)とした場合、{(1/C)/(1/A)-1}/{(1/C)/(1/B)-1}の計算式により第1領域の面積を求めることができる。図78の左図の例では、{(1/30)/(1/60)-1}/{(1/30)/(1/120)-1}=1/3となり、第1領域5021の面積は撮像領域113Aの1/3の面積と求められる。 Specifically, when the standard frame rate is A (fps), the high frame rate is B (fps), and the low frame rate is C (fps), {(1/C)/(1/A)- 1}/{(1/C)/(1/B)-1}, the area of the first region can be obtained. In the example on the left side of FIG. 78, {(1/30)/(1/60)−1}/{(1/30)/(1/120)−1}=1/3, the first region 5021 is calculated to be 1/3 of the area of the imaging region 113A.

図78の右図に示す例では、撮像部6020は、撮像領域113A全体から標準フレームレート(ここでは60fps)で画像データの読み出しを行っている。読出制御部6031が撮像領域113Aにおける左側の第1領域5201のフレームレートを高フレームレート(ここでは120fps)に設定し、撮像領域113Aにおける右側の第2領域5202のフレームレートを低フレームレート(ここでは20fps)に設定すると判定する場合は、第1領域5021は撮像領域113Aの2/5の面積となる。すなわち、図78の右図の例では、{(1/20)/(1/60)-1}/{(1/20)/(1/120)-1}=2/5となり、第1領域5021の面積は撮像領域113Aの2/5の面積と求められる。 In the example shown in the right diagram of FIG. 78, the imaging unit 6020 reads image data from the entire imaging area 113A at a standard frame rate (here, 60 fps). The readout control unit 6031 sets the frame rate of the first region 5201 on the left side of the imaging region 113A to a high frame rate (here, 120 fps), and sets the frame rate of the second region 5202 on the right side of the imaging region 113A to a low frame rate (here, 120 fps). 20 fps), the area of the first area 5021 is 2/5 of the imaging area 113A. That is, in the example on the right side of FIG. 78, {(1/20)/(1/60)−1}/{(1/20)/(1/120)−1}=2/5, and The area of the region 5021 is calculated to be 2/5 of the area of the imaging region 113A.

以上に説明したように、第21実施形態では、撮像領域113Aの所定領域のフレームレートを高くした場合でも、所定領域以外のフレームレートを低くするとともに、画像データを転送するバッファや伝送路を切り替えることで、確実に撮像部6020から画像処理部6030へ画像データを転送することができる。 As described above, in the twenty-first embodiment, even when the frame rate of the predetermined area of the imaging area 113A is increased, the frame rate of areas other than the predetermined area is decreased, and the buffer and transmission path for transferring image data are switched. Accordingly, the image data can be reliably transferred from the imaging unit 6020 to the image processing unit 6030 .

上記した第21実施形態では、読出制御部6031は、加速度又は角加速度を検出するセンサ6050からの検出信号に基づいてエリア・フレームレート判定処理を実行していたが、風力計で検出される風の向き及び強さに基づいて自動車の進行方向やスピードなどを認識してエリア・フレームレート判定処理を実行してもよい。なお、上記した第21実施形態では、撮像装置を用いて自動車から撮影した場合を例として説明したが、自転車やスノーボードなどの部材に取り付けられた撮像装置で撮影した場合にも適用可能である。 In the twenty-first embodiment described above, the read control unit 6031 executes area/frame rate determination processing based on the detection signal from the sensor 6050 that detects acceleration or angular acceleration. The area/frame rate determination process may be executed by recognizing the traveling direction and speed of the automobile based on the direction and strength of the . In the twenty-first embodiment described above, a case in which an image is captured from an automobile using an imaging device has been described as an example, but it is also applicable to a case in which an image is captured by an imaging device attached to a member such as a bicycle or a snowboard.

<第22実施形態>
アクションカメラで撮影を行う場合、例えば、自転車やラジコンなどにデジタルカメラを取り付けて、臨場感のある動画の撮影を行う場合、動画の撮影を行っているときに画角内に不意に被写体が飛び込んでくることがある。このように画角内に不意に飛び込んでくる被写体を撮影したい場合、その被写体に対して撮影条件(露出条件:シャッター速度、ISO感度等。撮像条件ともいう。)が適正に設定されておらず、撮影者が所望した画像を撮影することができない。また、それとは逆に、被写体に対して撮影条件を設定できたとしても、不意に画角内に飛び込んでくる被写体を撮影したくない場合もあるため、被写体に対して適正な撮影条件を設定すべきでないことがある。そこで、第22実施形態では、撮像素子の領域を所定の撮影条件で撮影する領域とランダム(不規則)に撮影条件を変更して撮影する領域とに分けて、それぞれの領域で撮影を行う。
<22nd Embodiment>
When shooting with an action camera, for example, when attaching a digital camera to a bicycle or a radio-controller and shooting a moving image with a sense of realism, the subject suddenly jumps into the angle of view while shooting the moving image. Sometimes it comes. When you want to shoot a subject that suddenly jumps into the angle of view like this, the shooting conditions (exposure conditions: shutter speed, ISO sensitivity, etc., also called shooting conditions) are not properly set for that subject. , the image desired by the photographer cannot be captured. Conversely, even if you can set the shooting conditions for the subject, you may not want to shoot a subject that suddenly jumps into the angle of view, so set the appropriate shooting conditions for the subject. There are some things you shouldn't do. Therefore, in the 22nd embodiment, the area of the image sensor is divided into an area photographed under predetermined photographing conditions and an area photographed under randomly changed photographing conditions, and photographing is performed in each area.

図79は、第22実施形態に係る撮影システムの構成を示すブロック図である。図79に示す撮影システムは、撮影装置(被設定装置)7001、スマートフォン(設定装置、外部機器)7100、自転車(被設置装置)7200を備えている。撮影装置7001は、自転車7300に取り付けられる。この撮影装置7001は、レンズ部7010、撮像部7020、画像処理部7030、ワークメモリ7040、操作部7055、記録部7060、制御部7070、測位部7081、姿勢検出部7082、計測部7083、及び通信部7090を有する。 FIG. 79 is a block diagram showing the configuration of an imaging system according to the twenty-second embodiment. The imaging system shown in FIG. 79 includes an imaging device (device to be set) 7001 , a smartphone (setting device, external device) 7100 , and a bicycle (device to be installed) 7200 . A photographing device 7001 is attached to a bicycle 7300 . This imaging device 7001 includes a lens unit 7010, an imaging unit 7020, an image processing unit 7030, a work memory 7040, an operation unit 7055, a recording unit 7060, a control unit 7070, a positioning unit 7081, an orientation detection unit 7082, a measurement unit 7083, and a communication unit. 7090.

なお、図79において、撮影装置7001は図7のデジタルカメラ1に相当し、レンズ部7010は図7のレンズ部10に相当し、撮像部7020は図7の撮像部20に相当し、撮像素子7100は図7の撮像素子100に相当し、駆動部7021は図7の駆動部21に相当し、画像処理部7030は図7の画像処理部30に相当し、ワークメモリ7040は図7のワークメモリ40に相当し、操作部7055は図7の操作部55に相当し、記録部7060は図7の記憶部60に相当し、制御部7070は図7のシステム制御部70に相当する。これらの構成のうち、レンズ部7010、撮像部7020、撮像素子7100、駆動部7021、画像処理部7030、ワークメモリ7040、操作部7055、記録部7060の構成については説明を省略する。 79, an imaging device 7001 corresponds to the digital camera 1 in FIG. 7, a lens unit 7010 corresponds to the lens unit 10 in FIG. 7, an imaging unit 7020 corresponds to the imaging unit 20 in FIG. 7, a drive unit 7021 corresponds to the drive unit 21 in FIG. 7, an image processing unit 7030 corresponds to the image processing unit 30 in FIG. 7, and a work memory 7040 stores the work in FIG. 7, the recording unit 7060 corresponds to the storage unit 60 in FIG. 7, and the control unit 7070 corresponds to the system control unit 70 in FIG. Of these configurations, the configuration of the lens unit 7010, imaging unit 7020, imaging device 7100, driving unit 7021, image processing unit 7030, work memory 7040, operation unit 7055, and recording unit 7060 will be omitted.

制御部7070は、撮影装置7001の全体の処理及び動作を制御する。図79に示すように、制御部7070は、設定部7071を備えている。設定部7071は、例えば図29に示すように、撮像素子7100の領域を第1撮像領域と第2撮像領域とに分割する。また、設定部7071は、第1撮像領域の撮影条件(以下、第1撮影条件という。)として動画を撮影するときの通常の撮影条件を設定し、第2撮像領域の撮影条件(以下、第2撮影条件という。)としてシャッター速度やISO感度等が不規則に変化する撮影条件を設定する。 A control unit 7070 controls the overall processing and operation of the imaging device 7001 . As shown in FIG. 79 , the control section 7070 has a setting section 7071 . The setting unit 7071 divides the area of the imaging device 7100 into a first imaging area and a second imaging area, as shown in FIG. 29, for example. Further, the setting unit 7071 sets normal shooting conditions for shooting a moving image as shooting conditions for the first imaging area (hereinafter referred to as first shooting conditions), and sets shooting conditions for the second imaging area (hereinafter referred to as second shooting conditions). 2 photographing conditions) are set to photographing conditions in which the shutter speed, ISO sensitivity, etc., change irregularly.

測位部7081は、現在位置を測位するGPS(Global Positioning System)で構成されている。測位部7081は、測位した現在位置の情報を制御部7070に出力する。姿勢検出部7082は、互いに直交する3つの軸回りの回転ぶれと、3つの軸方向の並進ぶれとを検出するセンサである。例えば、姿勢検出部7082は、センサ自体の3軸回りの角加速度を検出する3軸ジャイロセンサと、センサ自体の3軸方向の並進加速度を検出する3軸加速度センサとで構成される。姿勢検出部7082は、検出した加速度(角加速度、直線加速度)を示す加速度情報を制御部7070に出力する。計測部7083は、自転車7300のギアの回転数等の被接地装置7300に関する情報を計測するセンサである。計測部7083は、計測したギアの回転数等を示す情報を制御部7070に出力する。通信部7090は、通信回線(無線回線)を通じてスマートフォン7200及び自転車7300と情報を送受信する。 The positioning unit 7081 is composed of a GPS (Global Positioning System) for positioning the current position. Positioning section 7081 outputs information on the measured current position to control section 7070 . The orientation detection unit 7082 is a sensor that detects rotational shake about three mutually orthogonal axes and translational shake in three axial directions. For example, the posture detection unit 7082 is composed of a 3-axis gyro sensor that detects angular acceleration around 3 axes of the sensor itself, and a 3-axis acceleration sensor that detects translational acceleration of the sensor itself in 3-axis directions. Posture detection section 7082 outputs acceleration information indicating the detected acceleration (angular acceleration, linear acceleration) to control section 7070 . The measurement unit 7083 is a sensor that measures information related to the grounded device 7300 such as the rotation speed of the gear of the bicycle 7300 . The measurement unit 7083 outputs information indicating the measured number of revolutions of the gear to the control unit 7070 . Communication unit 7090 transmits and receives information to and from smartphone 7200 and bicycle 7300 through a communication line (wireless line).

スマートフォン(設定装置)7200は、表示部7201、操作部7202、制御部7203、及び通信部7204を有している。表示部7201は、例えば液晶表示パネルで構成されている。操作部7202は、操作ボタンや表示部7201上に形成されたタッチパネルなどで構成されている。制御部7203は、スマートフォン7200の全体の処理及び動作を制御する。通信部7204は、通信回線(無線回線)を通じて撮影装置7001及び自転車7300と情報を送受信する。 A smartphone (setting device) 7200 has a display unit 7201 , an operation unit 7202 , a control unit 7203 , and a communication unit 7204 . The display unit 7201 is composed of, for example, a liquid crystal display panel. An operation unit 7202 includes operation buttons, a touch panel formed on the display unit 7201, and the like. A control unit 7203 controls the overall processing and operation of the smartphone 7200 . A communication unit 7204 transmits and receives information to and from the imaging device 7001 and the bicycle 7300 through a communication line (wireless line).

自転車(被設置装置)7300には、計測部7301、制御部7302、及び通信部7303が取り付けられている。計測部7301は、自転車7300のギアの回転数等を計測するセンサである。計測部7301は、計測したギアの回転数等を示す情報を制御部7302に出力する。制御部7302は、計測部7301及び通信部7303の動作を制御する。通信部7303は、通信回線(無線回線)を通じて撮影装置7001及びスマートフォン7200と情報を送受信する。 A measurement unit 7301 , a control unit 7302 , and a communication unit 7303 are attached to a bicycle (installed device) 7300 . The measurement unit 7301 is a sensor that measures the number of revolutions of gears of the bicycle 7300 and the like. The measurement unit 7301 outputs information indicating the measured number of revolutions of the gear to the control unit 7302 . The control unit 7302 controls operations of the measurement unit 7301 and the communication unit 7303 . A communication unit 7303 transmits and receives information to and from the imaging device 7001 and the smartphone 7200 through a communication line (wireless line).

各装置7001,7200,7300の通信部7090,7204,7303は、制御部7070,7203,7302の指示に応じて、各装置との通信を確立し様々な情報を授受する。情報とは、例えば撮影装置7001からスマートフォン7200へ送るライブビュー画像であり、スマートフォン7200から撮影装置7001へ送る操作部7202により設定された撮影条件や領域決定情報(第1撮像領域及び第2撮像領域の範囲などを示す情報)である。 The communication units 7090, 7204, 7303 of the devices 7001, 7200, 7300 establish communication with each device according to instructions from the control units 7070, 7203, 7302 and exchange various information. The information is, for example, a live view image sent from the imaging device 7001 to the smartphone 7200, and includes imaging conditions and region determination information (first imaging region and second imaging region) set by the operation unit 7202 sent from the smartphone 7200 to the imaging device 7001 information indicating the range of

撮影装置7001の制御部7070だけでなく、スマートフォン7200の制御部7203が、撮像素子7100の領域を第1撮像領域と第2撮像領域とに分割するように制御部7070に対して指示することも可能である。具体的な方法として、撮影装置7001の制御部7070は、通信部7090を介してライブビュー画像をスマートフォン7200に送信する。スマートフォン7200の制御部7203は、通信部7204を介して、撮影装置7001から送信されたらライブビュー画像を受信し、表示部7201にライブビュー画像を表示する。スマートフォン7200の制御部7203は、表示部7201に表示されたライブビュー画像に対して使用者の操作により領域が決定されると、領域決定情報を通信部7204を介して撮影装置7001に送信する。撮影装置7001の制御部7070は、スマートフォン7200から送信された領域決定情報に基づいて、撮像素子710の領域を分割する。領域決定情報とは、領域を特定するための撮像素子7100上の座標や、顔認識等により人物抽出をした情報などである。 Not only the control unit 7070 of the imaging device 7001 but also the control unit 7203 of the smartphone 7200 may instruct the control unit 7070 to divide the area of the image sensor 7100 into a first imaging area and a second imaging area. It is possible. As a specific method, the control unit 7070 of the imaging device 7001 transmits the live view image to the smartphone 7200 via the communication unit 7090. A control unit 7203 of the smartphone 7200 receives the live view image transmitted from the imaging device 7001 via the communication unit 7204 and displays the live view image on the display unit 7201 . When an area is determined by the user's operation on the live view image displayed on the display unit 7201 , the control unit 7203 of the smartphone 7200 transmits area determination information to the imaging device 7001 via the communication unit 7204 . The control unit 7070 of the imaging device 7001 divides the area of the image sensor 710 based on the area determination information transmitted from the smart phone 7200 . The area determination information includes coordinates on the imaging device 7100 for specifying an area, information obtained by extracting a person by face recognition or the like, and the like.

(1)不意に画角に飛び込んできた被写体を撮影する場合;
撮影装置7001の設定部7071は、撮像素子7100内の領域を所定の撮影条件で撮影する第1撮像領域とランダムに撮影条件を変更して撮影する第2撮像領域とに分割する。第1撮像領域では、使用者(撮影者)が撮影をしたい代表の撮影条件が設定される。第2撮像領域では、例えばフレームレート、シャッター速度、ゲイン、露出補正などの撮影条件をフレームごとにランダムに変更する。設定部7071は、第2撮像領域において撮影条件をランダムに変更することで、不特定の被写体が画角内に不意に飛び込んできたとしても、その被写体に適した撮影条件で撮影された画像(動画)を撮影することができる。
(1) When shooting a subject that suddenly jumps into the angle of view;
A setting unit 7071 of the imaging device 7001 divides the area in the imaging element 7100 into a first imaging area that is photographed under predetermined imaging conditions and a second imaging area that is photographed under randomly changed imaging conditions. In the first imaging area, representative imaging conditions that the user (photographer) wishes to photograph are set. In the second imaging area, shooting conditions such as frame rate, shutter speed, gain, and exposure compensation are randomly changed for each frame. By randomly changing the shooting conditions in the second imaging area, the setting unit 7071 can produce an image ( video) can be taken.

(2)日向と日陰を撮影する場合;
不意に画角に飛び込んでくる被写体として、太陽や影がある。撮影装置7001が設置された自転車7300が日向に入るか、撮影装置7001内の画角に太陽が入り込むと白飛びを起こし、撮影装置7001が設置された自転車7300が日陰に入ってしまうと、黒潰れが生じやすい。また、撮影装置7001が設置された非設置装置7300が日陰に入って、またすぐに日陰から抜けて、を繰り返すような撮影状況(例えば、晴れた日に木が生い茂った山の中での撮影)においては、設定部7071は、第2撮像領域の撮影条件をランダムに変更するのではなく、ランダムで撮影する領域の撮像結果を用いることで、撮影条件を頻繁に変更しすぎないように設定する。
(2) When shooting in the sun and shade;
The sun and shadows are subjects that suddenly pop into the angle of view. When the bicycle 7300 on which the imaging device 7001 is installed enters the sun or when the sun enters the angle of view within the imaging device 7001, whiteout occurs. Collapse is likely to occur. In addition, a photographing situation in which the non-installed device 7300 in which the photographing device 7001 is installed enters the shade and immediately exits from the shade is repeated (for example, photographing in a mountain overgrown with trees on a sunny day). ), the setting unit 7071 does not randomly change the imaging conditions of the second imaging area, but uses the imaging result of the area to be imaged at random, so that the imaging conditions are not changed too frequently. do.

また、制御部7070は、測位部701で測位された現在位置の情報や、外部装置(図示せず)から通信部7090を介して受信する情報(例えば天気予報や天気図)を取得する。また、撮影装置7001が自転車7300に取り付けられた場合は、制御部7070は、姿勢検出部7082により検出された加速度情報を取得する。また、撮影装置7001が自転車7300に取り付けられた場合は、制御部7070は、計測部7083により検出された自転車7300のギアの回転数を示す情報を取得する。また、制御部7070は、自転車7300の計測部7301により計測された自転車7300のギアの回転数を示す情報を通信部7090を介して取得する。 The control unit 7070 also acquires information on the current position measured by the positioning unit 701 and information (for example, weather forecast and weather map) received from an external device (not shown) via the communication unit 7090 . Also, when the photographing device 7001 is attached to the bicycle 7300 , the control section 7070 acquires acceleration information detected by the posture detection section 7082 . Also, when the photographing device 7001 is attached to the bicycle 7300 , the control unit 7070 acquires information indicating the rotation speed of the gear of the bicycle 7300 detected by the measurement unit 7083 . Control unit 7070 also acquires information indicating the number of rotations of the gears of bicycle 7300 measured by measurement unit 7301 of bicycle 7300 via communication unit 7090 .

制御部7070は、取得した情報に基づいて、太陽の位置(方角)や高度(地面からの角度)、影ができる方向などを推測する。また、制御部7070は、自転車7300における撮影装置7001の取り付け位置(又は/及び角度)、回転数等の情報に基づく自転車7300の移動距離、現在位置の情報に基づく建物の位置情報、太陽の位置や高度などから、何秒後に日陰に入るか、また何秒後に日陰から日向に移動するかを推測する。撮影装置が設置された自転車7300が日陰の中に入るとともに制御部7070によって急激に撮影条件を変更しようとすると撮像部7020内の駆動部7021への負担が大きい。そのため、制御部7070は、撮影装置が設置された自転車7300が日陰に入ることを事前に予測し、ランダムに撮影条件を変える第2撮像領において、日陰に入る前(直前)に撮影条件(例えばゲインを高め)に設定する。また、制御部7070は、日陰から抜ける瞬間、つまり日陰から日向へ移動するときに白飛びが発生するおそれがあるので、日陰から抜ける所定時間前から第2撮像領の撮影条件(例えばゲインを低め)に設定する。所定時間は、撮影装置7001の移動量や速度、日時、天気などから決定するようにしてもよい。 Based on the acquired information, the control unit 7070 estimates the position (orientation) and altitude (angle from the ground) of the sun, the direction of shadow formation, and the like. In addition, the control unit 7070 controls the mounting position (or/and angle) of the photographing device 7001 on the bicycle 7300, the movement distance of the bicycle 7300 based on information such as the number of revolutions, the location information of the building based on the information on the current location, the position of the sun, and so on. and altitude to estimate how many seconds it will take to enter the shade, and how many seconds it will take to move from the shade to the sun. When the bicycle 7300 on which the image capturing device is installed enters the shade and the control unit 7070 tries to change the image capturing conditions abruptly, the load on the driving unit 7021 in the image capturing unit 7020 is large. Therefore, the control unit 7070 predicts in advance that the bicycle 7300 on which the imaging device is installed will enter the shade, and in the second imaging region where the imaging conditions are randomly changed, before (immediately before) the imaging conditions (for example, (higher gain). In addition, the control unit 7070 sets the shooting conditions (for example, lowering the gain) for the second imaging area from a predetermined time before leaving the shade, because there is a risk that overexposure may occur the moment the shade leaves, that is, when moving from the shade to the sun. ). The predetermined time may be determined based on the movement amount and speed of the imaging device 7001, the date and time, the weather, and the like.

(3)撮影条件をリモートで設定する場合;
撮影装置(被設定装置)7001の制御部7070は、スマートフォン(設定装置)7200の制御部7203に対してそれぞれの通信部7090,7204を介して無線回線で接続する。スマートフォン7200の制御部7203は、使用者による操作部7202の操作に応じて、撮像領域を示す領域決定情報及びその領域における撮影条件を示す情報を制御部7070に送信する。その結果、使用者は、スマートフォン7200の表示部7201の画面から撮影装置7001で撮像した画像(ライブビュー画像)を用いて撮影条件を設定することができる。設定可能な撮影条件としては、フレームレート、シャッター速度、ゲイン、露出補正などがある。また、使用者は、操作部7202を操作することで、不意に画角内に飛び込んでくる被写体を撮影したいか否かを設定することも可能である。
(3) When setting the shooting conditions remotely;
The control unit 7070 of the imaging device (device to be set) 7001 connects to the control unit 7203 of the smartphone (setting device) 7200 via the communication units 7090 and 7204 via wireless lines. The control unit 7203 of the smart phone 7200 transmits area determination information indicating an imaging area and information indicating imaging conditions for that area to the control unit 7070 in response to the user's operation of the operation unit 7202 . As a result, the user can set imaging conditions using an image (live view image) captured by the imaging device 7001 from the screen of the display unit 7201 of the smartphone 7200 . Shooting conditions that can be set include frame rate, shutter speed, gain, and exposure compensation. By operating the operation unit 7202, the user can also set whether or not to shoot a subject that suddenly jumps into the angle of view.

このような構成によれば、画角に不意に飛び込んできた被写体を撮影することができ、又は画角に不意に飛び込んできた被写体を撮影しないようにすることもできる。 According to such a configuration, it is possible to photograph a subject that has unexpectedly entered the angle of view, or it is possible not to photograph a subject that has unexpectedly entered the angle of view.

<第23実施形態>
図80は、第23実施形態の第1撮像領域及び第2撮像領域の撮影条件の切替タイミングを示す図である。第22実施形態では、第1撮像領域を使用者(撮影者)が撮影をしたい代表の撮影条件が設定された領域、第2撮像領域を撮影条件がランダムに変更される領域とした。しかし、このような構成に限定されず、図80に示すように、制御部7070は、所定時間毎に、第1撮像領域の撮影条件と第2撮像領域の撮影条件とを交互に切り替えるように構成してもよい。すなわち、制御部7070は、第1撮像領域において使用者が撮影をしたい代表の撮影条件が設定された状態から撮影条件をランダムに変更する状態に変更するとともに、第2撮像領域において撮影条件をランダムに変更する状態から使用者が撮影をしたい代表の撮影条件が設定された状態に変更する。制御部7070は、所定時間経過後に、第2撮像領域において使用者が撮影をしたい代表の撮影条件が設定された状態から撮影条件をランダムに変更する状態に変更するとともに、第1撮像領域において撮影条件をランダムに変更する状態から使用者が撮影をしたい代表の撮影条件が設定された状態に変更する。このような撮影条件の切り替えを所定時間毎に行う。
<Twenty-third embodiment>
FIG. 80 is a diagram showing switching timings of imaging conditions of the first imaging region and the second imaging region in the twenty-third embodiment. In the twenty-second embodiment, the first imaging area is an area in which representative imaging conditions that the user (photographer) wants to shoot are set, and the second imaging area is an area in which the imaging conditions are randomly changed. However, the configuration is not limited to this, and as shown in FIG. 80, the control unit 7070 alternately switches between the imaging conditions for the first imaging region and the imaging conditions for the second imaging region at predetermined time intervals. may be configured. That is, the control unit 7070 changes the state in which the representative shooting conditions that the user wishes to shoot in the first imaging region is set to the state in which the shooting conditions are randomly changed, and also randomly changes the shooting conditions in the second imaging region. , to a state in which representative photographing conditions that the user wishes to photograph are set. After a predetermined period of time has passed, the control unit 7070 changes the state in which representative imaging conditions that the user wishes to photograph in the second imaging area are set to the state in which the imaging conditions are changed randomly, and also changes the imaging conditions in the first imaging area. The state in which the conditions are changed at random is changed to the state in which representative photographing conditions that the user wants to photograph are set. Such switching of imaging conditions is performed at predetermined time intervals.

撮影条件をランダムに変更する領域は、撮影条件を頻繁に変更するため、制御部7070や駆動部7021の負荷が多く、撮像素子7100における撮影条件をランダムに変更する領域に熱が溜まりやすい。これに対して、もう一方の領域(撮影条件をランダムに変更しない領域)は撮影条件が一定のため、ランダムに撮影条件を変更する領域と比較して制御部7070や駆動部7021の負荷は少なく、その領域にも熱が溜まりにくい。このように、制御部7070は、ランダムに撮影条件を変更する領域の切替えを適宜行うことで、撮像素子7100の一部の領域にのみ負荷が多くなることを防ぐことができる。また、上記した影から出たり入ったりする撮影状況の場合は、所定時間毎に切替えるのではなく、例えば日向での撮影のときは第1撮像領域を使用者(撮影者)が撮影をしたい代表の撮影条件が設定された領域、第2撮像領域を撮影条件がランダムに変更される領域とし、日陰での撮影のときには、第2撮像領域を使用者(撮影者)が撮影をしたい代表の撮影条件が設定された領域、第1撮像領域を撮影条件がランダムに変更される領域と変更するようにしてもよい。また、制御部7070は、所定時間毎にランダムに撮影条件を変更する領域の切替えを行うのではなく、駆動部7021の熱をモニタリングし、撮像素子7100が所定温度以上になったときに、ランダムに撮影条件を変更するように領域の切り替えを行うようにしてもよい。 In the area where the imaging conditions are randomly changed, the control unit 7070 and the driving unit 7021 are heavily loaded because the imaging conditions are frequently changed, and heat tends to accumulate in the area where the imaging conditions are randomly changed in the image sensor 7100 . On the other hand, since the other region (the region in which the imaging conditions are not randomly changed) has constant imaging conditions, the load on the control unit 7070 and the driving unit 7021 is less than in the region in which the imaging conditions are changed randomly. , heat is less likely to accumulate in that area. In this way, the control unit 7070 can prevent the load from increasing only in a partial area of the image sensor 7100 by appropriately switching the area where the imaging conditions are changed at random. In addition, in the case of shooting situations where the user (photographer) moves in and out of the shadow, instead of switching at predetermined time intervals, for example, when shooting in the sun, the first imaging area is the representative area that the user (photographer) wants to shoot. and the second imaging area is an area where the imaging conditions are randomly changed, and when shooting in the shade, the second imaging area is the representative shot that the user (photographer) wants to shoot. The area in which the conditions are set, the first imaging area, may be changed to an area in which the imaging conditions are randomly changed. In addition, the control unit 7070 monitors the heat of the driving unit 7021 instead of randomly switching the area for changing the imaging condition every predetermined time, and randomly changes the area when the image sensor 7100 reaches a predetermined temperature or higher. The regions may be switched so as to change the imaging conditions immediately.

上記した第22実施形態及び第23実施形態では、制御部7070(つまり設定部7071)は、ランダムに撮影条件を変更する領域の面積(画素数)を、代表の撮影条件が設定された領域の面積よりも小さくするように設定してもよい。また、制御部7070は、その面積比を変更するようにしてもよい。例えば、撮影条件を頻繁に変えるべき状況、例えば晴れた日に木が生い茂った山の中での撮影状況においては、制御部7070は、ランダムに撮影条件を変更する領域の面積を大きくするようにしてもよい。またランダムに撮影条件を変更する領域を、撮像素子7100の周辺に配置するようにしてもよい。これにより、不意に画角内に飛び込んでくる被写体を検出しやすくなる。また、スマートフォン7200を操作することにより、ランダムに撮影条件を変更する領域の位置を設定できるようにしてもよい。使用者(撮影者)が、撮影装置7001に対してどの方向から被写体が画角内に飛び込んでくるかを推測した場合、その方向の画素をランダムに撮影条件を変更する領域として設定したり、画素数を多くするようにしてもよい。 In the twenty-second and twenty-third embodiments described above, the control unit 7070 (that is, the setting unit 7071) sets the area (the number of pixels) of the area for which the imaging conditions are changed randomly to the area for which the representative imaging conditions are set. It may be set to be smaller than the area. Also, the control unit 7070 may change the area ratio. For example, in a situation where the shooting conditions should be changed frequently, for example, in a shooting situation in a forested mountain on a sunny day, the control unit 7070 randomly increases the area of the area where the shooting conditions are changed. may Alternatively, a region in which the imaging conditions are changed randomly may be arranged around the imaging device 7100 . This makes it easier to detect a subject that suddenly jumps into the angle of view. Further, by operating the smart phone 7200, the position of the area in which the imaging conditions are to be changed at random may be set. When the user (photographer) guesses from which direction the subject will come into the angle of view with respect to the photographing device 7001, pixels in that direction are randomly set as an area for changing the photographing conditions, The number of pixels may be increased.

また、第22実施形態及び第23実施形態では、所定の領域において撮影条件をランダムに変更する場合、例えば制御部7070が乱数発生器から乱数を抽出し、抽出した乱数に基づいて撮影条件を決定してもよい。また、第22実施形態及び第23実施形態では、1フレーム毎に撮影条件をランダムに変更していたが、数フレーム毎に撮影条件をランダムに変更してもよい。また、所定の領域において撮影条件をランダムに変更していたが、撮影条件を規則的に(所定の規則に従って)変更してもよい。また、被設置装置は自転車7300としていたがラジコンなどであってもよい。 Further, in the twenty-second and twenty-third embodiments, when the imaging conditions are randomly changed in a predetermined area, for example, the control unit 7070 extracts random numbers from the random number generator and determines the imaging conditions based on the extracted random numbers. You may Also, in the twenty-second and twenty-third embodiments, the shooting conditions are randomly changed every frame, but the shooting conditions may be changed randomly every several frames. Moreover, although the imaging conditions are randomly changed in a predetermined area, the imaging conditions may be changed regularly (according to a predetermined rule). Also, although the device to be installed is the bicycle 7300, it may be a radio control device.

また、第22実施形態及び第23実施形態において、制御部7070はランダムに変更する撮影条件を撮影状況に合わせて最適化してもよい。例えば、制御部7070は、所定時間撮影した画像に基づいて撮影状況を判定し、判定した撮影状況に基づいてランダムに変更する撮影条件の幅を狭くしてもよい。このような制御部7070に学習機能を持たせることにより、制御部7070や撮像部7020の処理負担を軽減させることができる。 Further, in the twenty-second and twenty-third embodiments, the control unit 7070 may optimize the randomly changed imaging conditions according to the imaging situation. For example, the control unit 7070 may determine the shooting conditions based on images captured for a predetermined period of time, and narrow the range of shooting conditions that are randomly changed based on the determined shooting conditions. By providing the control unit 7070 with a learning function, the processing load on the control unit 7070 and the imaging unit 7020 can be reduced.

1,1B…デジタルカメラ、1A…撮像装置、20…撮像部、30,30…画像処理部、50…表示部、70…システム制御部、70A…第1システム制御部、70B…第2システム制御部、71…分割部、72…駆動制御部、73…制御部、74…明滅検知部、100…撮像素子、113A…画素領域(撮像領域)、416…演算回路(信号処理部、ブロック判定部)、1001,1001B…電子機器、1001A…撮像装置、1020…撮像部、1030…画像処理部、1031…画像生成部、1032…検出部、1050…表示部、1051…表示パネル、1052…タッチパネル(選択部)、1070…システム制御部、1070A…第1システム制御部、1070B…第2システム制御部、1071…表示制御部、1072…設定部(フレームレート設定部)、1073…撮像制御部、1074…AF処理部、1100…撮像素子、2001,2001B…電子機器、2001A…撮像装置、2020…撮像部、2030…画像処理部、2031…検出部(態様検出部)、2050,2050A,2050B…表示部、2051…表示面、2052…タッチパネル、2070…システム制御部、2070A…第1システム制御部、2070B…第2システム制御部、2071…設定部、2072…制御部、2073…表示制御部、2074…AF処理部(焦点検出部)、2075…AE処理部、2100…撮像素子、3001,3001B…電子機器、3001A…撮像装置、3020…撮像部、3030…画像処理部、3031…変換部、3050…表示部、3051…表示画面、3052…タッチパネル、3070…システム制御部、3070A…第1システム制御部、3070B…第2システム制御部、3071…領域分割部、3072…制御部、3100…撮像素子、4001…デジタルカメラ(電子機器)、4100…撮像素子、4070…システム制御部(制御部)、5001…スマートフォン(電子機器)、5030…画像処理部、5070…システム制御部、5071…操作検出部、5072…駆動制御部、6020…撮像部、6030…画像処理部、6021…セレクタ(選択部)、6023…バッファ、6032…読出制御部(制御部)、6050…センサ、A1~A16…単位領域、L1~L16…伝送路、7001…撮影装置(被設定装置)、7020…撮像部、7070…制御部、7071…設定部、7200…スマートフォン(設定装置、外部機器)、7300…自転車(被設置装置)、7090…通信部 DESCRIPTION OF SYMBOLS 1, 1B... Digital camera 1A... Imaging device 20... Imaging part 30, 30... Image processing part 50... Display part 70... System control part 70A... First system control part 70B... Second system control Part 71... Division part 72... Drive control part 73... Control part 74... Blink detection part 100... Imaging element 113A... Pixel area (imaging area) 416... Arithmetic circuit (signal processing part, block determination part ), 1001, 1001B... Electronic equipment, 1001A... Imaging device, 1020... Imaging unit, 1030... Image processing unit, 1031... Image generating unit, 1032... Detecting unit, 1050... Display unit, 1051... Display panel, 1052... Touch panel ( selection unit), 1070... system control unit, 1070A... first system control unit, 1070B... second system control unit, 1071... display control unit, 1072... setting unit (frame rate setting unit), 1073... imaging control unit, 1074 AF processing unit 1100 image sensor 2001, 2001B electronic device 2001A imaging device 2020 imaging unit 2030 image processing unit 2031 detection unit (mode detection unit) 2050, 2050A, 2050B display Unit 2051 Display surface 2052 Touch panel 2070 System control unit 2070A First system control unit 2070B Second system control unit 2071 Setting unit 2072 Control unit 2073 Display control unit 2074 ... AF processing section (focus detection section) 2075 ... AE processing section 2100 ... imaging element 3001, 3001B ... electronic device 3001A ... imaging device 3020 ... imaging section 3030 ... image processing section 3031 ... conversion section 3050 Display unit 3051 Display screen 3052 Touch panel 3070 System control unit 3070A First system control unit 3070B Second system control unit 3071 Area division unit 3072 Control unit 3100 Image sensor , 4001...Digital camera (electronic device) 4100...Image sensor 4070...System control unit (control unit) 5001...Smartphone (electronic device) 5030...Image processing unit 5070...System control unit 5071...Operation detection unit , 5072 drive control unit 6020 imaging unit 6030 image processing unit 6021 selector (selection unit) 6023 buffer 6032 readout control unit (control unit) 6050 sensor A1 to A16 unit area , L1 to L16... transmission path, 7001... imaging device (device to be set), 7020... imaging unit, 7070... control unit, 7071... setting unit, 7200... smartphone (setting device, external device), 7300... bicycle (to be installed device), 7090...Communication unit

Claims (31)

積層された複数の半導体チップを備える撮像素子であって、
前記複数の半導体チップは、
光を電荷に変換する光電変換部と、前記光電変換部で変換された電荷を転送するための転送部とを有する複数の画素が行方向に並んで配置される第1半導体チップと、
前記複数の画素のうち、フリッカー検出に用いられる第1信号を出力する第1画素と、前記複数の画素のうち、被写体の画像生成に用いられる第2信号を出力する第2画素とを異なる撮像条件で駆動する駆動部を有する第2半導体チップと、
を有し、
前記第1画素が有する前記転送部は、前記第2半導体チップからの第1転送制御信号が出力される第1転送制御配線に接続され、
前記第2画素が有する前記転送部は、前記第2半導体チップからの第2転送制御信号が出力される第2転送制御配線に接続される撮像素子。
An imaging device comprising a plurality of stacked semiconductor chips,
The plurality of semiconductor chips are
a first semiconductor chip in which a plurality of pixels are arranged in a row direction and have a photoelectric conversion portion that converts light into an electric charge; and a transfer portion that transfers the electric charge converted by the photoelectric conversion portion;
A first pixel outputting a first signal used for flicker detection and a second pixel outputting a second signal used for generating an image of a subject among the plurality of pixels are imaged differently. a second semiconductor chip having a driving unit driven under a condition;
has
the transfer unit included in the first pixel is connected to a first transfer control wiring for outputting a first transfer control signal from the second semiconductor chip;
The transfer unit included in the second pixel is an imaging device connected to a second transfer control wiring through which a second transfer control signal is output from the second semiconductor chip.
請求項1に記載の撮像素子において、
前記複数の画素は、前記光電変換部で変換された電荷を排出するためのリセット部を有し、
前記第1画素が有する前記リセット部は、前記第2半導体チップからの第1リセット制御信号が出力される第1リセット制御配線に接続され、
前記第2画素が有する前記リセット部は、前記第2半導体チップからの第2リセット制御信号が出力される第2リセット制御配線に接続される撮像素子。
In the imaging device according to claim 1,
the plurality of pixels have a reset unit for discharging the charges converted by the photoelectric conversion unit;
the reset unit included in the first pixel is connected to a first reset control wiring for outputting a first reset control signal from the second semiconductor chip;
The reset section included in the second pixel is an imaging device connected to a second reset control wiring through which a second reset control signal is output from the second semiconductor chip.
請求項1に記載の撮像素子において、
前記駆動部は、前記第1画素と、前記複数の画素のうち、フリッカー検出に用いられる第3信号を出力する第3画素とを異なる撮像条件で駆動し、
前記第3画素が有する前記転送部は、前記第2半導体チップからの第3転送制御信号が出力される第3転送制御配線に接続される撮像素子。
In the imaging device according to claim 1,
The drive unit drives the first pixel and a third pixel among the plurality of pixels that outputs a third signal used for flicker detection under different imaging conditions,
The transfer unit included in the third pixel is an imaging device connected to a third transfer control wiring through which a third transfer control signal from the second semiconductor chip is output.
請求項3に記載の撮像素子において、
前記複数の画素は、前記光電変換部で変換された電荷を排出するためのリセット部を有し、
前記第1画素が有する前記リセット部は、前記第2半導体チップからの第1リセット制御信号が出力される第1リセット制御配線に接続され、
前記第2画素が有する前記リセット部は、前記第2半導体チップからの第2リセット制御信号が出力される第2リセット制御配線に接続され、
前記第3画素が有する前記リセット部は、前記第2半導体チップからの第3リセット制御信号が出力される第3リセット制御配線に接続される撮像素子。
In the imaging device according to claim 3,
the plurality of pixels have a reset unit for discharging the charges converted by the photoelectric conversion unit;
the reset unit included in the first pixel is connected to a first reset control wiring for outputting a first reset control signal from the second semiconductor chip;
the reset unit included in the second pixel is connected to a second reset control wiring for outputting a second reset control signal from the second semiconductor chip;
The reset section included in the third pixel is an imaging device connected to a third reset control wiring through which a third reset control signal from the second semiconductor chip is output.
請求項3又は請求項4に記載の撮像素子において、
前記第画素は、前記行方向において前記第1画素と前記第画素との間に配置される撮像素子。
In the imaging device according to claim 3 or claim 4,
A said 2nd pixel is an image pick-up element arrange|positioned between a said 1st pixel and a said 3rd pixel in the said row direction.
積層された複数の半導体チップを備える撮像素子であって、
前記複数の半導体チップは、
光を電荷に変換する光電変換部と、前記光電変換部で変換された電荷を排出するためのリセット部とを有する複数の画素が行方向に並んで配置される第1半導体チップと、
前記複数の画素のうち、フリッカー検出に用いられる第1信号を出力する第1画素と、前記複数の画素のうち、被写体の画像生成に用いられる第2信号を出力する第2画素とを異なる撮像条件で駆動する駆動部を有する第2半導体チップと、
を有し、
前記第1画素が有する前記リセット部は、前記第2半導体チップからの第1リセット制御信号が出力される第1リセット制御配線に接続され、
前記第2画素が有する前記リセット部は、前記第2半導体チップからの第2リセット制御信号が出力される第2リセット制御配線に接続される撮像素子。
An imaging device comprising a plurality of stacked semiconductor chips,
The plurality of semiconductor chips are
a first semiconductor chip in which a plurality of pixels are arranged in a row direction and have a photoelectric conversion unit that converts light into an electric charge; and a reset unit that discharges the electric charge converted by the photoelectric conversion unit;
A first pixel outputting a first signal used for flicker detection and a second pixel outputting a second signal used for generating an image of a subject among the plurality of pixels are imaged differently. a second semiconductor chip having a driving unit driven under a condition;
has
the reset unit included in the first pixel is connected to a first reset control wiring for outputting a first reset control signal from the second semiconductor chip;
The reset section included in the second pixel is an imaging device connected to a second reset control wiring through which a second reset control signal is output from the second semiconductor chip.
請求項6に記載の撮像素子において、
前記駆動部は、前記第1画素と、前記複数の画素のうち、フリッカー検出に用いられる第3信号を出力する第3画素とを異なる撮像条件で駆動し、
前記第3画素が有する前記リセット部は、前記第2半導体チップからの第3リセット制御信号が出力される第3リセット制御配線に接続される撮像素子。
In the imaging device according to claim 6,
The drive unit drives the first pixel and a third pixel among the plurality of pixels that outputs a third signal used for flicker detection under different imaging conditions,
The reset section included in the third pixel is an imaging device connected to a third reset control wiring through which a third reset control signal from the second semiconductor chip is output.
請求項7に記載の撮像素子において、
前記第画素は、前記行方向において前記第1画素と前記第画素との間に配置される撮像素子。
In the imaging device according to claim 7,
A said 2nd pixel is an image pick-up element arrange|positioned between a said 1st pixel and a said 3rd pixel in the said row direction.
請求項1から請求項8のいずれか一項に記載の撮像素子において、
前記駆動部は、前記第1画素と前記第2画素とを異なるフレームレートで信号読出が行われるように駆動する撮像素子。
In the imaging device according to any one of claims 1 to 8,
The driving section drives the first pixel and the second pixel such that signal readout is performed at different frame rates.
請求項9に記載の撮像素子において、
前記駆動部は、前記第1画素のフレームレートを、前記第2画素のフレームレートよりも高くなるように駆動する撮像素子。
In the imaging device according to claim 9,
The driving unit is an imaging device that drives the frame rate of the first pixels to be higher than the frame rate of the second pixels.
請求項1から請求項10のいずれか一項に記載の撮像素子において、
前記駆動部は、前記第1画素が有する前記光電変換部と、前記第2画素が有する前記光電変換部とを異なる電荷蓄積時間で電荷蓄積が行われるように駆動する撮像素子。
In the imaging device according to any one of claims 1 to 10,
The driving section drives the photoelectric conversion section of the first pixel and the photoelectric conversion section of the second pixel such that charge accumulation is performed in different charge accumulation times.
請求項11に記載の撮像素子において、
前記駆動部は、前記第1画素が有する前記光電変換部の電荷蓄積時間を、前記第2画素が有する前記光電変換部の電荷蓄積時間よりも短くなるように駆動する撮像素子。
In the imaging device according to claim 11,
The driving section drives the imaging device so that the charge accumulation time of the photoelectric conversion section of the first pixel is shorter than the charge accumulation time of the photoelectric conversion section of the second pixel.
請求項1から請求項12のいずれか一項に記載の撮像素子において、
前記第1画素は、前記第1半導体チップにおいて複数配置され、
前記第2画素は、前記第1半導体チップにおいて複数配置される撮像素子。
In the imaging device according to any one of claims 1 to 12,
A plurality of the first pixels are arranged in the first semiconductor chip,
Said 2nd pixel is an image pick-up element with which multiple arrangement|positioning is carried out at said 1st semiconductor chip.
請求項13に記載の撮像素子において、
前記第1画素の数は、前記第2画素の数よりも少ない撮像素子。
In the imaging device according to claim 13,
The imaging device, wherein the number of the first pixels is smaller than the number of the second pixels.
請求項13又は請求項14に記載の撮像素子において、
前記第2半導体チップは、複数の前記第1画素のうち、2以上の前記第1画素からそれぞれ出力された前記第1信号に平均化処理を行う演算回路を有する撮像素子。
In the imaging device according to claim 13 or 14,
The second semiconductor chip has an arithmetic circuit that performs an averaging process on the first signals output from two or more of the first pixels among the plurality of first pixels.
請求項15に記載の撮像素子において、
前記演算回路は、複数の前記第1画素のうち、選択された2以上の前記第1画素からそれぞれ出力された前記第1信号に前記平均化処理を行う撮像素子。
In the imaging device according to claim 15,
The arithmetic circuit performs the averaging process on the first signals output from two or more of the first pixels selected from among the plurality of first pixels.
請求項16に記載の撮像素子において、
前記演算回路は、複数の前記第1画素からそれぞれ出力された前記第1信号の信号値に基づいて前記平均化処理を行う前記第1信号を選択する撮像素子。
In the imaging device according to claim 16,
The arithmetic circuit selects the first signal to be subjected to the averaging process based on the signal values of the first signals output from the plurality of first pixels.
請求項15から請求項17のいずれか一項に記載の撮像素子において、
前記演算回路は、前記平均化処理が行われた信号に基づいてフリッカーを検出する撮像素子。
In the imaging device according to any one of claims 15 to 17,
The arithmetic circuit is an imaging device that detects flicker based on the signal subjected to the averaging process.
請求項18に記載の撮像素子において、
前記演算回路は、前記第2信号に基づいて生成された画像を表示部に表示しているときに、前記平均化処理が行われた信号に基づいてフリッカーを検出する撮像素子。
In the imaging device according to claim 18,
The arithmetic circuit detects flicker based on the averaged signal while the image generated based on the second signal is displayed on the display unit.
請求項18又は請求項19に記載の撮像素子において、
前記駆動部は、前記演算回路によるフリッカーの検出結果に基づいて、前記第2画素を駆動するタイミングを調整する撮像素子。
In the imaging device according to claim 18 or 19,
The driving unit is an imaging device that adjusts the timing of driving the second pixels based on the result of flicker detection by the arithmetic circuit.
請求項20に記載の撮像素子において、
前記駆動部は、前記演算回路によるフリッカーの検出結果に基づいて、前記第2画素のフレームレートを調整する撮像素子。
In the imaging device according to claim 20,
The drive section adjusts a frame rate of the second pixels based on a flicker detection result by the arithmetic circuit.
請求項20又は請求項21に記載の撮像素子において、
前記駆動部は、前記演算回路によるフリッカーの検出結果に基づいて、前記第2画素が有する前記光電変換部で変換された電荷の蓄積時間を調整する撮像素子。
In the imaging device according to claim 20 or 21,
The driving section adjusts the accumulation time of the electric charges converted by the photoelectric conversion section of the second pixel based on the result of flicker detection by the arithmetic circuit.
請求項13又は請求項14に記載の撮像素子において、
前記複数の半導体チップは、複数の前記第1画素のうち、2以上の前記第1画素からそれぞれ出力された前記第1信号に平均化処理を行う演算回路を有する第3半導体チップを有する撮像素子。
In the imaging device according to claim 13 or 14,
The plurality of semiconductor chips includes an imaging device having a third semiconductor chip having an arithmetic circuit for averaging the first signals output from two or more of the first pixels among the plurality of first pixels. .
請求項23に記載の撮像素子において、
前記演算回路は、複数の前記第1画素のうち、選択された2以上の前記第1画素からそれぞれ出力された前記第1信号に前記平均化処理を行う撮像素子。
24. The imaging device according to claim 23,
The arithmetic circuit performs the averaging process on the first signals output from two or more of the first pixels selected from among the plurality of first pixels.
請求項24に記載の撮像素子において、
前記演算回路は、複数の前記第1画素からそれぞれ出力された前記第1信号の信号値に基づいて前記平均化処理を行う前記第1信号を選択する撮像素子。
25. The imaging device according to claim 24,
The arithmetic circuit selects the first signal to be subjected to the averaging process based on the signal values of the first signals output from the plurality of first pixels.
請求項23から請求項25のいずれか一項に記載の撮像素子において、
前記演算回路は、前記平均化処理が行われた信号に基づいてフリッカーを検出する撮像素子。
In the imaging device according to any one of claims 23 to 25,
The arithmetic circuit is an imaging device that detects flicker based on the signal subjected to the averaging process.
請求項26に記載の撮像素子において、
前記演算回路は、前記第2信号に基づいて生成された画像を表示部に表示しているときに、前記平均化処理が行われた信号に基づいてフリッカーを検出する撮像素子。
The imaging device according to claim 26,
The arithmetic circuit detects flicker based on the averaged signal while the image generated based on the second signal is displayed on the display unit.
請求項26又は請求項27に記載の撮像素子において、
前記駆動部は、前記演算回路によるフリッカーの検出結果に基づいて、前記第2画素を駆動するタイミングを調整する撮像素子。
In the imaging device according to claim 26 or 27,
The driving unit is an imaging device that adjusts the timing of driving the second pixels based on the result of flicker detection by the arithmetic circuit.
請求項28に記載の撮像素子において、
前記駆動部は、前記演算回路によるフリッカーの検出結果に基づいて、前記第2画素のフレームレートを調整する撮像素子。
29. The imaging device according to claim 28,
The drive section adjusts a frame rate of the second pixels based on a flicker detection result by the arithmetic circuit.
請求項28又は請求項29に記載の撮像素子において、
前記駆動部は、前記演算回路によるフリッカーの検出結果に基づいて、前記第2画素が有する前記光電変換部で変換された電荷の蓄積時間を調整する撮像素子。
In the imaging device according to claim 28 or 29,
The driving section adjusts the accumulation time of the electric charges converted by the photoelectric conversion section of the second pixel based on the result of flicker detection by the arithmetic circuit.
請求項1から請求項30のいずれか一項に記載の撮像素子を備える電子機器。 An electronic device comprising the imaging device according to any one of claims 1 to 30.
JP2020213369A 2013-10-01 2020-12-23 Image sensor and electronic equipment Active JP7318631B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023116067A JP2023133358A (en) 2013-10-01 2023-07-14 Imaging element

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013206196 2013-10-01
JP2013206196 2013-10-01
JP2019116734A JP6816793B2 (en) 2013-10-01 2019-06-24 Electronics

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019116734A Division JP6816793B2 (en) 2013-10-01 2019-06-24 Electronics

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023116067A Division JP2023133358A (en) 2013-10-01 2023-07-14 Imaging element

Publications (3)

Publication Number Publication Date
JP2021064952A JP2021064952A (en) 2021-04-22
JP2021064952A5 JP2021064952A5 (en) 2022-02-16
JP7318631B2 true JP7318631B2 (en) 2023-08-01

Family

ID=53195585

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2014200650A Active JP6547266B2 (en) 2013-10-01 2014-09-30 Electronic device, control method of electronic device, and control program electronic device
JP2019116734A Active JP6816793B2 (en) 2013-10-01 2019-06-24 Electronics
JP2020213369A Active JP7318631B2 (en) 2013-10-01 2020-12-23 Image sensor and electronic equipment
JP2023116067A Pending JP2023133358A (en) 2013-10-01 2023-07-14 Imaging element

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2014200650A Active JP6547266B2 (en) 2013-10-01 2014-09-30 Electronic device, control method of electronic device, and control program electronic device
JP2019116734A Active JP6816793B2 (en) 2013-10-01 2019-06-24 Electronics

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023116067A Pending JP2023133358A (en) 2013-10-01 2023-07-14 Imaging element

Country Status (1)

Country Link
JP (4) JP6547266B2 (en)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017057267A1 (en) * 2015-09-30 2018-08-16 株式会社ニコン Imaging device and focus detection device
WO2017057268A1 (en) * 2015-09-30 2017-04-06 株式会社ニコン Imaging device and control device
WO2017057280A1 (en) * 2015-09-30 2017-04-06 株式会社ニコン Imaging device and subject detection device
JP6516014B2 (en) * 2015-09-30 2019-05-22 株式会社ニコン Imaging apparatus and image processing apparatus
JP6516015B2 (en) * 2015-09-30 2019-05-22 株式会社ニコン Imaging apparatus and image processing apparatus
CN112714252B (en) 2015-09-30 2023-04-07 株式会社尼康 Image pickup apparatus
JP6551533B2 (en) * 2015-09-30 2019-07-31 株式会社ニコン Imaging apparatus and image processing apparatus
WO2017057494A1 (en) * 2015-09-30 2017-04-06 株式会社ニコン Imaging device and image processing device
JPWO2017170725A1 (en) * 2016-03-31 2019-02-28 株式会社ニコン IMAGING DEVICE, SUBJECT DETECTING DEVICE, AND ELECTRONIC DEVICE
CN114928701A (en) 2016-03-31 2022-08-19 株式会社尼康 Image pickup apparatus
WO2017170716A1 (en) * 2016-03-31 2017-10-05 株式会社ニコン Image pickup device, image processing device, and electronic apparatus
WO2017170726A1 (en) * 2016-03-31 2017-10-05 株式会社ニコン Image pickup device and electronic apparatus
JPWO2017170724A1 (en) * 2016-03-31 2019-02-14 株式会社ニコン Imaging device, lens adjustment device, and electronic device
JP6571038B2 (en) 2016-04-08 2019-09-04 株式会社シマノ Bicycle photographing device and control device therefor
JP7058933B2 (en) * 2016-05-09 2022-04-25 株式会社ニコン Image sensor and image sensor using it
JP2018160830A (en) * 2017-03-23 2018-10-11 株式会社ニコン Imaging apparatus
US11082715B2 (en) * 2017-09-29 2021-08-03 Nikon Corporation Video compression apparatus, electronic apparatus, and video compression program
JP6965132B2 (en) * 2017-12-05 2021-11-10 キヤノン株式会社 Image processing equipment, imaging equipment, image processing methods and programs
JP7157529B2 (en) 2017-12-25 2022-10-20 キヤノン株式会社 Imaging device, imaging system, and imaging device driving method
JP7050486B2 (en) * 2017-12-27 2022-04-08 株式会社バンザイ Vehicle headlight tester
JP6950072B2 (en) * 2018-03-09 2021-10-13 富士フイルム株式会社 Imaging control device, imaging device, imaging control method, and imaging control program
JP6826733B2 (en) * 2018-03-26 2021-02-10 国立大学法人東北大学 Signal control device, signal control program, and signal control method
JP7204539B2 (en) * 2019-03-07 2023-01-16 キヤノン株式会社 IMAGING DEVICE AND CONTROL METHOD THEREOF, PROGRAM, STORAGE MEDIUM
JP7256661B2 (en) * 2019-03-19 2023-04-12 キヤノン株式会社 IMAGING DEVICE, CONTROL METHOD OF IMAGING MEANS, PROGRAM AND STORAGE MEDIUM
WO2020202413A1 (en) * 2019-03-29 2020-10-08 株式会社ニコン Image capture element and image capture device
WO2020202414A1 (en) * 2019-03-29 2020-10-08 株式会社ニコン Image capture device and control program
WO2021038692A1 (en) * 2019-08-26 2021-03-04 株式会社日立国際電気 Imaging device, imaging method, and video processing program
JP7379030B2 (en) * 2019-09-10 2023-11-14 キヤノン株式会社 Imaging device, control method, and program
JP2021182698A (en) 2020-05-19 2021-11-25 キヤノン株式会社 Imaging apparatus and method for controlling the same
JP7444958B1 (en) 2022-12-12 2024-03-06 レノボ・シンガポール・プライベート・リミテッド Information processing device and control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006049361A (en) 2004-07-30 2006-02-16 Sony Corp Semiconductor module and mos solid-state imaging device
JP2007174537A (en) 2005-12-26 2007-07-05 Victor Co Of Japan Ltd Imaging apparatus
JP2008048313A (en) 2006-08-21 2008-02-28 Sony Corp Physical quantity detector and drive method thereof, and imaging apparatus
JP2010114834A (en) 2008-11-10 2010-05-20 Olympus Imaging Corp Imaging apparatus
JP2012054876A (en) 2010-09-03 2012-03-15 Sony Corp Solid state image pickup element and camera system

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05268535A (en) * 1992-03-24 1993-10-15 Toshiba Corp Visual sensor
JPH07135592A (en) * 1993-11-11 1995-05-23 Canon Inc Image pickup device
JP2000224470A (en) * 1999-02-02 2000-08-11 Minolta Co Ltd Camera system
JP4172898B2 (en) * 2000-05-31 2008-10-29 Hoya株式会社 Electronic endoscope device
JP4257165B2 (en) * 2003-08-19 2009-04-22 株式会社日立製作所 Imaging apparatus and method
JP2007228019A (en) * 2006-02-21 2007-09-06 Olympus Corp Imaging apparatus
JP4789767B2 (en) * 2006-09-28 2011-10-12 キヤノン株式会社 Imaging apparatus and control method thereof
JP4853434B2 (en) * 2007-09-07 2012-01-11 株式会社デンソー Image processing device
JP5043635B2 (en) * 2007-12-28 2012-10-10 キヤノン株式会社 Imaging device
JP2010008507A (en) * 2008-06-24 2010-01-14 Olympus Imaging Corp Camera
JP5655291B2 (en) * 2009-11-05 2015-01-21 株式会社ニコン Electronic camera
JP5544223B2 (en) * 2010-06-03 2014-07-09 株式会社日立製作所 Imaging device
JP2013046232A (en) * 2011-08-24 2013-03-04 Nippon Hoso Kyokai <Nhk> Solid-state image pickup device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006049361A (en) 2004-07-30 2006-02-16 Sony Corp Semiconductor module and mos solid-state imaging device
JP2007174537A (en) 2005-12-26 2007-07-05 Victor Co Of Japan Ltd Imaging apparatus
JP2008048313A (en) 2006-08-21 2008-02-28 Sony Corp Physical quantity detector and drive method thereof, and imaging apparatus
JP2010114834A (en) 2008-11-10 2010-05-20 Olympus Imaging Corp Imaging apparatus
JP2012054876A (en) 2010-09-03 2012-03-15 Sony Corp Solid state image pickup element and camera system

Also Published As

Publication number Publication date
JP6547266B2 (en) 2019-07-24
JP2021064952A (en) 2021-04-22
JP2015092660A (en) 2015-05-14
JP2019195210A (en) 2019-11-07
JP2023133358A (en) 2023-09-22
JP6816793B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
JP7318631B2 (en) Image sensor and electronic equipment
US11206353B2 (en) Electronic apparatus, method for controlling electronic apparatus, and control program for setting image-capture conditions of image sensor
JP6780745B2 (en) Electronics
EP3588940B1 (en) Electronic apparatus, method for controlling electronic apparatus, and control program
JP6516014B2 (en) Imaging apparatus and image processing apparatus
CN105934944B (en) Image pickup element and image pickup apparatus
JP2014179778A (en) Signal processing apparatus, imaging device, imaging apparatus, and electronic apparatus
JP2015138994A (en) Electronic apparatus
JP6516016B2 (en) Imaging apparatus and image processing apparatus
JP7283488B2 (en) Image sensor and electronic equipment
JP6822507B2 (en) Electronics
JP2020098943A (en) Electronic apparatus
JP2016158294A (en) Electronic apparatus, control method for electronic apparatus and control program
JP6516015B2 (en) Imaging apparatus and image processing apparatus
JP2023054229A (en) Electronic apparatus
JP2020108158A (en) Electronic apparatus
JP2018152869A (en) Imaging element and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7318631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150