JP6776776B2 - Imaging equipment, display equipment, electronic devices, imaging methods, programs, imaging systems, display systems and image processing equipment - Google Patents

Imaging equipment, display equipment, electronic devices, imaging methods, programs, imaging systems, display systems and image processing equipment Download PDF

Info

Publication number
JP6776776B2
JP6776776B2 JP2016194146A JP2016194146A JP6776776B2 JP 6776776 B2 JP6776776 B2 JP 6776776B2 JP 2016194146 A JP2016194146 A JP 2016194146A JP 2016194146 A JP2016194146 A JP 2016194146A JP 6776776 B2 JP6776776 B2 JP 6776776B2
Authority
JP
Japan
Prior art keywords
image
image data
imaging
exposure time
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016194146A
Other languages
Japanese (ja)
Other versions
JP2018056940A (en
Inventor
秀雄 宝珠山
秀雄 宝珠山
達良 田邉
達良 田邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2016194146A priority Critical patent/JP6776776B2/en
Publication of JP2018056940A publication Critical patent/JP2018056940A/en
Application granted granted Critical
Publication of JP6776776B2 publication Critical patent/JP6776776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Blocking Light For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、表示装置、電子機器、撮像方法、プログラム、撮像システム、表示システムおよび画像処理装置に関する。 The present invention relates to an imaging device, a display device, an electronic device, an imaging method, a program, an imaging system, a display system, and an image processing device.

従来から、複数のカメラモジュールを備える電子機器において、それぞれのカメラモジュールにて生成された画像データを合成した合成画像データを生成するものが知られている(たとえば特許文献1)。好適に画像を生成することができない場合があった。 Conventionally, in an electronic device including a plurality of camera modules, there is known one that generates composite image data by synthesizing image data generated by each camera module (for example, Patent Document 1). In some cases, it was not possible to generate an image suitably.

特開2016−99598号公報Japanese Unexamined Patent Publication No. 2016-99598

第1の態様によれば、撮像装置は、被写体が第1露光時間で撮像された第1画像信号を出力する第1撮像素子と、前記被写体が第2露光時間で撮像された第2画像信号を出力する第2撮像素子と、前記第1画像信号と前記第2画像信号とを異なるゲインで増幅する増幅部と、前記増幅部によって増幅された前記第1画像信号に基づく第1画像データと、前記増幅部によって増幅された前記第2画像信号に基づく第2画像データとを合成し、合成画像データを生成する制御部とを備え、前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行われ、前記第2撮像素子は、前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行い第3画像信号を出力し、前記第3画像信号に基づく画像は、前記合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示される。
第2の態様によれば、表示装置は、第1の態様の撮像装置と、前記表示部とを備える。
第3の態様によれば、電子機器は、第1の態様の撮像装置を備える。
第4の態様によれば、撮像方法は、被写体が第1露光時間で撮像された第1画像信号を出力し、前記被写体が第2露光時間で撮像された第2画像信号を出力し、前記第1画像信号と前記第2画像信号とを異なるゲインで増幅し、増幅された前記第1画像信号に基づく第1画像データと、増幅された前記第2画像信号に基づく第2画像データとを合成し、合成画像データを生成し、前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行われ、前記第2撮像素子は、前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行い第3画像信号を出力し、前記第3画像信号に基づく画像は、前記合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示される。
第5の態様によれば、コンピュータに実行させるためのプログラムであって、被写体が第1露光時間で撮像された第1画像信号を出力する処理と、前記被写体が第2露光時間で撮像された第2画像信号を出力する処理と、前記第1画像信号と前記第2画像信号とを異なるゲインで増幅する処理と、増幅された前記第1画像信号に基づく第1画像データと、増幅された前記第2画像信号に基づく第2画像データとを合成し、合成画像データを生成する処理と、前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行う処理と、前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行い第3画像信号を出力する処理と、前記第3画像信号に基づく画像を、前記合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示する処理とをコンピュータに実行させる。
第6の態様によれば、撮像装置は、被写体が第1露光時間で撮像された第1画像信号を出力する第1撮像素子と、前記被写体が第2露光時間で撮像された第2画像信号を出力する第2撮像素子と、前記第1画像信号と前記第2画像信号とを異なるゲインで増幅する増幅部と、外部の電子機器と通信を行う第1通信部と、前記第1ゲイン増幅部によってゲインが増幅された前記第1画像信号に基づく第1画像データと、前記第2ゲイン増幅部によってゲインが増幅された前記第2画像信号に基づく第2画像データとを前記外部の電子機器に前記第1通信部を介して送信する第1制御部とを備え、前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行われ、前記第2撮像素子は、前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行い第3画像信号を出力し、前記第3画像信号に基づく画像は、前記第1画像データと前記第2画像データとを合成した合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示される。
第7の態様によれば、撮像システムは、第6の態様による撮像装置と、前記第1画像データと前記第2画像データとを受信する第2通信部と、前記第1画像データと前記第2画像データとを合成し、合成画像データを生成する第2制御部とを備える画像処理装置とを備える。
第8の態様によれば、表示システムは、第7の態様の撮像システムと、前記合成画像データに基づく合成画像を表示する表示部とを備える。
第9の態様によれば、画像処理装置は、被写体が第1露光時間で撮像された第1画像信号を出力する第1撮像素子と、前記被写体が第2露光時間で撮像された第2画像信号を出力する第2撮像素子と、前記第1画像信号と前記第2画像信号とを異なるゲインで増幅する増幅部とを有し、前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行われ、前記第2撮像素子は、前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行う第3画像信号を出力する撮像装置から、第1ゲイン増幅部によってゲインが増幅された前記第1画像信号に基づく第1画像データと、第2ゲイン増幅部によってゲインが増幅された前記第2画像信号に基づく第2画像データとを受信する通信部と、前記第1画像データと前記第2画像データとを合成し、合成画像データを生成する制御部とを備え、前記第3画像信号に基づく画像は、前記合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示される。
第10の態様によれば、表示装置は、第9の態様による画像処理装置、前記合成画像データに基づく画像を表示する表示部とを備える。
According to the first aspect, the image pickup apparatus includes a first image sensor that outputs a first image signal in which the subject is imaged in the first exposure time, and a second image signal in which the subject is imaged in the second exposure time. A second image sensor that outputs the image, an amplification unit that amplifies the first image signal and the second image signal with different gains, and first image data based on the first image signal amplified by the amplification unit. A control unit that synthesizes the second image data based on the second image signal amplified by the amplification unit and generates the composite image data is provided, and the exposure start of imaging at the first exposure time and the first At least one of the exposure ends of the imaging in the one exposure time is performed during the imaging of the second exposure time, and the second image sensor is the next second from the exposure end of the imaging in the second exposure time. Before the start of exposure for imaging with an exposure time, an image is taken with a third exposure time shorter than the second exposure time and a third image signal is output, and the image based on the third image signal is the composite image data. reproduction stopping still appears when it is set during reproduction of the moving image based on.
According to a second aspect, the display device includes an image pickup device of the first aspect, and the display unit.
According to the third aspect, the electronic device includes the imaging device of the first aspect.
According to the fourth aspect, the imaging method outputs a first image signal in which the subject is imaged in the first exposure time, outputs a second image signal in which the subject is imaged in the second exposure time, and is described above. The first image signal and the second image signal are amplified with different gains, and the first image data based on the amplified first image signal and the second image data based on the amplified second image signal are obtained. Combining, generating composite image data, at least one of the start of exposure for imaging at the first exposure time and the end of exposure for imaging at the first exposure time is performed during the imaging at the second exposure time. The second image pickup element takes an image in a third exposure time shorter than the second exposure time between the end of the exposure of the image pickup in the second exposure time and the start of the exposure of the next image pickup in the second exposure time. It was carried out to output the third image signal, an image based on the third image signal, the stop of the reproduced during reproduction of the moving image based on the synthesized image data that is displayed when it is set.
According to the fifth aspect, it is a program to be executed by a computer, that is, a process of outputting a first image signal in which the subject is imaged in the first exposure time, and a process in which the subject is imaged in the second exposure time. The process of outputting the second image signal, the process of amplifying the first image signal and the second image signal with different gains, and the first image data based on the amplified first image signal were amplified. At least the process of synthesizing the second image data based on the second image signal to generate the composite image data, the start of exposure for imaging at the first exposure time, and the end of exposure for imaging at the first exposure time. One is the second exposure time between the process performed during the imaging of the second exposure time and the period from the end of the exposure of the imaging in the second exposure time to the start of the exposure of the imaging in the next second exposure time. A process of taking an image with a shorter third exposure time and outputting a third image signal, and stopping playback of an image based on the third image signal during playback of a moving image based on the composite image data are set. Let the computer perform the process to be displayed in case .
According to the sixth aspect, the image pickup apparatus includes a first image sensor that outputs a first image signal in which the subject is imaged in the first exposure time, and a second image signal in which the subject is imaged in the second exposure time. A second image sensor that outputs the image, an amplification unit that amplifies the first image signal and the second image signal with different gains, a first communication unit that communicates with an external electronic device, and the first gain amplification. The external electronic device obtains the first image data based on the first image signal whose gain is amplified by the unit and the second image data based on the second image signal whose gain is amplified by the second gain amplification unit. Is provided with a first control unit that transmits via the first communication unit, and at least one of the start of exposure for imaging during the first exposure time and the end of exposure for imaging during the first exposure time is the second. It is performed during the imaging of the exposure time, and the second image sensor has the second exposure time between the end of the exposure of the image pickup in the second exposure time and the start of the exposure of the image pickup in the next second exposure time. An image is taken with a shorter third exposure time and a third image signal is output, and the image based on the third image signal is a moving image based on the composite image data obtained by synthesizing the first image data and the second image data. stop playback during playback of the image still appears when it is set.
According to the seventh aspect, the imaging system includes the imaging device according to the sixth aspect, the second communication unit that receives the first image data and the second image data, the first image data, and the first image data. It is provided with an image processing device including a second control unit that synthesizes the two image data and generates the composite image data.
According to an eighth aspect, the display system includes an imaging system of the seventh aspect, a display unit for displaying the synthesized image based on the synthesized image data.
According to the ninth aspect, the image processing device includes a first image sensor that outputs a first image signal in which the subject is imaged in the first exposure time, and a second image in which the subject is imaged in the second exposure time. It has a second image sensor that outputs a signal, and an amplification unit that amplifies the first image signal and the second image signal with different gains, and starts exposure for imaging at the first exposure time and the first image sensor. At least one of the exposure ends of the imaging at the exposure time is performed during the imaging of the second exposure time, and the second image sensor is subjected to the next second exposure from the exposure end of the imaging at the second exposure time. until exposure start of the imaging time, from the shorter than the second exposure time third exposure time imaging device you output the third image signal for imaging, the gain is amplified by the first gain amplifier unit A communication unit that receives the first image data based on the first image signal and the second image data based on the second image signal whose gain is amplified by the second gain amplification unit, the first image data, and the above. A control unit that synthesizes the second image data and generates the composite image data is provided , and the image based on the third image signal is set to stop playing during the reproduction of the moving image based on the composite image data. that it is displayed in the case.
According to a tenth aspect, the display device includes an image processing apparatus according to a ninth aspect, a display unit for displaying an image based on the synthesized image data.

第1の実施の形態に係る撮像装置の外観の一例を示す図である。It is a figure which shows an example of the appearance of the image pickup apparatus which concerns on 1st Embodiment. 第1の実施の形態に係る撮像装置の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part composition of the image pickup apparatus which concerns on 1st Embodiment. 第1撮像素子および第2撮像素子による露光時間とフレームレートとの関係を模式的に示すタイミングチャートである。It is a timing chart which shows typically the relationship between the exposure time by the 1st image sensor and the 2nd image sensor, and a frame rate. 第1の実施の形態に係る撮像装置の動画像を撮像する際の動作を説明するフローチャートである。It is a flowchart explaining operation at the time of taking a moving image of the image pickup apparatus which concerns on 1st Embodiment. 第1の実施の形態の変形例1に係る撮像装置の構成の一例を示す図である。It is a figure which shows an example of the structure of the image pickup apparatus which concerns on the modification 1 of the 1st Embodiment. 第1の実施の形態の変形例2に係る撮像装置の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the image pickup apparatus which concerns on the modification 2 of the 1st Embodiment. 第1の実施の形態の変形例2の別の例に係る撮像装置の外観を模式的に示す図である。It is a figure which shows typically the appearance of the image pickup apparatus which concerns on another example of the modification 2 of the 1st Embodiment. 第1の実施の形態の変形例2の別の例に係る撮像装置の要部構成を模式的に示す図である。It is a figure which shows typically the main part structure of the image pickup apparatus which concerns on another example of the modification 2 of the 1st Embodiment. 第2の実施の形態における第1撮像素子の露光時間と第2撮像素子の露光時間との関係を模式的に示すタイミングチャートである。6 is a timing chart schematically showing the relationship between the exposure time of the first image sensor and the exposure time of the second image sensor in the second embodiment. 第2の実施の形態における撮像装置1による動画像再生時の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation at the time of moving image reproduction by the image pickup apparatus 1 in the 2nd Embodiment. 第2の変形例1における第1撮像素子および第2撮像素子の露光時間と、フレームレートとの関係を模式的に示すタイミングチャートである。6 is a timing chart schematically showing the relationship between the exposure time of the first image sensor and the second image sensor and the frame rate in the second modification 1. 第2の実施の形態の変形例1において、表示器に再生表示される画像と、ベース画像データの露光時間と、ハイライト画像データの露光時間との関係を模式的に示すタイミングチャートである。In the first modification of the second embodiment, it is a timing chart schematically showing the relationship between the image reproduced and displayed on the display, the exposure time of the base image data, and the exposure time of the highlight image data. 変形例に係る撮像装置1の構成を模式的に示す図である。It is a figure which shows typically the structure of the image pickup apparatus 1 which concerns on a modification.

<第1の実施の形態>
図面を参照しながら、第1の実施の形態による撮像装置について説明する。
図1は撮像装置1の外観を例示する図であり、図1(a)は正面斜視図、図1(b)は背面斜視図である。図2は、図1に示す撮像装置1の要部構成を説明するブロック図である。
図1に示すように、撮像装置1の本体2の正面には、第1撮像ユニット3と第2撮像ユニット4とが配置される。撮像装置1の本体2の背面には、表示器5が配置される。
なお、説明の都合上、撮像装置1について、X軸、Y軸およびZ軸からなる座標系を図示の通りに設定する。なお、座標系はX軸、Y軸およびZ軸からなる直交座標系で説明を行うが、それに限らず、極座標系や円筒座標系を採用してもよい。即ち、X軸は、撮像装置1の本体2の矩形表面の長辺方向に設定され、Y軸は、撮像装置1の本体2の矩形表面の短辺方向に設定され、Z軸は、矩形表面に垂直な方向(すなわち、後述する第1撮像ユニット3および第2撮像ユニット4の光軸)に設定されている。
<First Embodiment>
The image pickup apparatus according to the first embodiment will be described with reference to the drawings.
1A and 1B are views illustrating the appearance of the image pickup apparatus 1, FIG. 1A is a front perspective view, and FIG. 1B is a rear perspective view. FIG. 2 is a block diagram illustrating a configuration of a main part of the image pickup apparatus 1 shown in FIG.
As shown in FIG. 1, a first imaging unit 3 and a second imaging unit 4 are arranged in front of the main body 2 of the imaging device 1. A display 5 is arranged on the back surface of the main body 2 of the image pickup apparatus 1.
For convenience of explanation, the coordinate system including the X-axis, the Y-axis, and the Z-axis is set for the image pickup apparatus 1 as shown in the figure. The coordinate system will be described as a Cartesian coordinate system including an X-axis, a Y-axis, and a Z-axis, but the description is not limited to this, and a polar coordinate system or a cylindrical coordinate system may be adopted. That is, the X-axis is set in the long side direction of the rectangular surface of the main body 2 of the image pickup device 1, the Y-axis is set in the short side direction of the rectangular surface of the main body 2 of the image pickup device 1, and the Z-axis is the rectangular surface. It is set in the direction perpendicular to (that is, the optical axis of the first imaging unit 3 and the second imaging unit 4 described later).

第1撮像ユニット3および第2撮像ユニット4は、たとえば図1に示すようにX方向に沿って配置される。なお、第1撮像ユニット3と第2撮像ユニット4とは、Y方向に沿って配置されても良いし、X方向またはY方向に対して所定の角度を有して配置されても良い。
第1撮像ユニット3は、図2に示すように、結像レンズや焦点調節レンズ等の種々の光学レンズ群を含む撮像レンズ31と、第1撮像素子32と、絞り33と、光学部材として通過する光の量を低下させる濃度フィルタ(NDフィルタ)34とを備える。なお、ここでの説明では、光学部材を濃度フィルタ(NDフィルタ)34として説明するが、絞り33と濃度フィルタ(NDフィルタ)34とを含めて光学部材としてもよい。または、濃度フィルタ(NDフィルタ)34を配置せず、絞り33を光学部材としてもよい。
なお、図1では撮像レンズ31を1枚のレンズで代表して表している。第1撮像素子32は、撮像面上において行列状に多数配列されたCMOSやCCD等の光電変換素子(画素)や画素の駆動を制御する各種の回路により構成される。第1撮像素子32は、後述する制御部6(図2参照)の制御に応じて駆動して、撮像レンズ31を通して入力される被写体像を撮像し、撮像して得た画像信号を出力する。第1撮像素子32は増幅部321を備え、後述する制御部6により制御されて、画像信号を所定のゲイン(増幅率)にて増幅する。絞り33は、撮像レンズ31を通過して第1撮像素子32へ向かう被写体からの光を規制する。濃度フィルタ34は、所定の波長帯において、撮像レンズ31を通過した被写体からの光の光量を所定量だけ低減させる光量低減部として機能する。なお、濃度フィルタ34は、撮像レンズ31と第1撮像素子32との間に配置される。撮像レンズ31が複数のレンズから構成されるレンズモジュールの場合には、レンズモジュール内のレンズとレンズとの間に配置されても良い。なお、濃度フィルタ34の透過率については、詳細を後述する。
The first imaging unit 3 and the second imaging unit 4 are arranged along the X direction, for example, as shown in FIG. The first imaging unit 3 and the second imaging unit 4 may be arranged along the Y direction, or may be arranged at a predetermined angle with respect to the X direction or the Y direction.
As shown in FIG. 2, the first imaging unit 3 passes through an imaging lens 31 including various optical lens groups such as an imaging lens and a focus adjustment lens, a first imaging element 32, an aperture 33, and an optical member. A density filter (ND filter) 34 for reducing the amount of light to be emitted is provided. In the description here, the optical member will be described as a density filter (ND filter) 34, but the diaphragm 33 and the density filter (ND filter) 34 may be included as the optical member. Alternatively, the aperture 33 may be used as an optical member without arranging the density filter (ND filter) 34.
In FIG. 1, the image pickup lens 31 is represented by one lens. The first image sensor 32 is composed of a large number of photoelectric conversion elements (pixels) such as CMOS and CCD arranged in a matrix on the image pickup surface and various circuits for controlling the drive of the pixels. The first image sensor 32 is driven according to the control of the control unit 6 (see FIG. 2) described later, captures a subject image input through the image pickup lens 31, and outputs an image signal obtained by capturing the image. The first image sensor 32 includes an amplification unit 321 and is controlled by a control unit 6 described later to amplify an image signal with a predetermined gain (amplification rate). The aperture 33 regulates the light from the subject that passes through the image pickup lens 31 and heads toward the first image sensor 32. The density filter 34 functions as a light amount reducing unit that reduces the amount of light from the subject passing through the image pickup lens 31 by a predetermined amount in a predetermined wavelength band. The density filter 34 is arranged between the image pickup lens 31 and the first image pickup element 32. When the image pickup lens 31 is a lens module composed of a plurality of lenses, it may be arranged between the lenses in the lens module. The details of the transmittance of the density filter 34 will be described later.

第2撮像ユニット4は、第1撮像ユニット3と同様に、撮像レンズ41と第2撮像素子42と絞り43とを備える。第2撮像素子42は、撮像レンズ41を通過した被写体像を撮像し、撮像して得た画像信号を出力する。第2撮像素子42は、第1撮像素子32と同様に、行列状に多数配列されたCMOSやCCD等の光電変換素子(画素)や画素の駆動を制御する各種の回路により構成される。第2撮像素子42は、制御部6の制御に応じて駆動して、撮像レンズ41を通して入力される被写体像を撮像し、撮像して得た画像信号を出力する。第2撮像素子42は増幅部421を備え、後述する制御部6により制御されて、画像信号を所定のゲイン(増幅率)にて増幅する。絞り43は、絞り33と同様に、撮像レンズ41を通過して第2撮像素子42へ向かう被写体からの光を規制する。 The second image pickup unit 4 includes an image pickup lens 41, a second image pickup element 42, and an aperture 43, similarly to the first image pickup unit 3. The second image sensor 42 captures a subject image that has passed through the image pickup lens 41, and outputs an image signal obtained by capturing the image. Similar to the first image sensor 32, the second image sensor 42 is composed of a large number of photoelectric conversion elements (pixels) such as CMOS and CCD arranged in a matrix and various circuits for controlling the drive of the pixels. The second image sensor 42 is driven according to the control of the control unit 6 to image the subject image input through the image pickup lens 41, and outputs the image signal obtained by the image. The second image sensor 42 includes an amplification unit 421 and is controlled by a control unit 6 described later to amplify an image signal with a predetermined gain (amplification rate). Like the diaphragm 33, the diaphragm 43 regulates the light from the subject passing through the image pickup lens 41 and heading toward the second image sensor 42.

第1撮像素子32および第2撮像素子42は、各画素ごとにメモリ(不図示)を備えることにより、グローバルシャッタ動作による撮像が可能である。すなわち、第1撮像素子32および第2撮像素子42は、それぞれ、撮像面の全領域で光電変換により生成した電荷を一括して同じタイミングにてメモリ(不図示)へ転送する、または、生成した電荷を電気信号に変換した後、一括して同じタイミングにてメモリ(不図示)へ転送する。グローバルシャッタ動作により、第1撮像素子32の全画素について露光開始と終了の時刻を揃え、第2撮像素子42の全画素について露光開始と終了の時刻を揃えて撮像を行うことができる。
なお、第1撮像素子32および第2撮像素子42は、グローバルシャッタを搭載するものに限定されない。たとえば、第1撮像素子32および第2撮像素子42は、撮像面の一部の領域(たとえば、所定の行)ごとに順次電荷蓄積および画像信号の出力を行う、いわゆるローリングシャッタ動作を行ってもよい。
The first image sensor 32 and the second image sensor 42 are provided with a memory (not shown) for each pixel, so that image pickup can be performed by a global shutter operation. That is, each of the first image sensor 32 and the second image sensor 42 collectively transfers or generates charges generated by photoelectric conversion in the entire region of the image pickup surface to a memory (not shown) at the same timing. After converting the electric charge into an electric signal, it is collectively transferred to a memory (not shown) at the same timing. By the global shutter operation, it is possible to align the exposure start and end times for all the pixels of the first image sensor 32 and to align the exposure start and end times for all the pixels of the second image sensor 42.
The first image sensor 32 and the second image sensor 42 are not limited to those equipped with a global shutter. For example, even if the first image sensor 32 and the second image sensor 42 perform a so-called rolling shutter operation in which charge accumulation and image signal output are sequentially performed for each part of the image pickup surface (for example, a predetermined line). Good.

第1撮像素子32の撮像面には、それぞれR(赤)、G(緑)およびB(青)の第1カラーフィルター322が画素位置に対応するように設けられている。第2撮像素子42には、それぞれR(赤)、G(緑)およびB(青)の第2カラーフィルター422が画素位置に対応するように設けられている。第1撮像素子32および第2撮像素子42が第1カラーフィルター322および第2カラーフィルター422を通してそれぞれ被写体像を撮像するため、第1撮像素子32および第2撮像素子42から出力される画像信号はRGB表色系の色情報を有する。
なお、第1撮像素子32および第2撮像素子42の撮像面の一部の領域または全領域に焦点検出用画素が配置されても良い。この場合、焦点検出用画素から出力される対の光像に応じた信号を加算した信号が画像信号として使用される。
R (red), G (green), and B (blue) first color filters 322 are provided on the imaging surface of the first image sensor 32 so as to correspond to pixel positions. The second image sensor 42 is provided with R (red), G (green), and B (blue) second color filters 422 corresponding to the pixel positions, respectively. Since the first image sensor 32 and the second image sensor 42 image the subject image through the first color filter 322 and the second color filter 422, respectively, the image signals output from the first image sensor 32 and the second image sensor 42 are It has color information of RGB color system.
The focus detection pixels may be arranged in a part or the entire area of the image pickup surface of the first image sensor 32 and the second image sensor 42. In this case, a signal obtained by adding signals corresponding to the pair of optical images output from the focus detection pixels is used as the image signal.

表示器5は、たとえば液晶表示器や有機EL表示器等により構成され、二次元状に配列された複数の表示画素配列を有する。表示器5は、後述する制御部6の制御に基づいて駆動され、制御部6で生成された画像データに対応する画像の表示を行う。表示器5には、撮像装置1の各種動作を設定するためのメニュー画面が表示される。 The display 5 is composed of, for example, a liquid crystal display, an organic EL display, or the like, and has a plurality of display pixel arrays arranged in a two-dimensional manner. The display 5 is driven based on the control of the control unit 6 described later, and displays an image corresponding to the image data generated by the control unit 6. On the display 5, a menu screen for setting various operations of the image pickup apparatus 1 is displayed.

次に、図2を参照しながら、撮像装置1の制御系の構成について説明する。撮像装置1は、制御部6と、操作検出部7とを備える。制御部6は、図示しないCPU、ROM、RAMなどを有し、制御プログラムに基づいて、撮像装置1の各構成要素を制御したり、各種のデータ処理を実行したりする演算回路である。制御プログラムは、制御部6内の後述する記憶部65に記憶されている。 Next, the configuration of the control system of the image pickup apparatus 1 will be described with reference to FIG. The image pickup apparatus 1 includes a control unit 6 and an operation detection unit 7. The control unit 6 has a CPU, ROM, RAM, and the like (not shown), and is an arithmetic circuit that controls each component of the image pickup apparatus 1 and executes various data processes based on a control program. The control program is stored in a storage unit 65 described later in the control unit 6.

制御部6は、撮像条件設定部61と、撮像素子制御部62と、画像処理部63と、表示制御部64と、記憶部65とを備える。撮像条件設定部61は、第1撮像ユニット3と第2撮像ユニット4とのそれぞれに対して、撮像を行う際の撮像条件、たとえば露光時間(シャッター速度)、絞り、ISO感度を設定する。撮像条件設定部61は、第1撮像ユニット3に対して、ISO感度すなわち第1ゲイン(増幅率)よりも、第2撮像ユニット4のISO感度すなわち第2ゲイン(増幅率)を大きな値に設定する。撮像素子制御部62は、撮像条件設定部により設定された撮像条件にて撮像が行われるように、第1撮像素子32および第2撮像素子42の動作を制御する。なお、本実施の形態においては、図2に示すように、撮像素子制御部62は、第1撮像素子32の動作を制御する第1撮像素子制御部621と、第2撮像素子42の動作を制御する第2撮像素子制御部622とを機能として備えるものとして説明を行うが、この例に限定されない。すなわち、制御部6が撮像素子制御部62を備えることなく、制御部6が第1撮像素子制御部621と第2撮像素子制御部622とを備える構成としても良い。 The control unit 6 includes an image pickup condition setting unit 61, an image sensor control unit 62, an image processing unit 63, a display control unit 64, and a storage unit 65. The imaging condition setting unit 61 sets imaging conditions for performing imaging, such as exposure time (shutter speed), aperture, and ISO sensitivity, for each of the first imaging unit 3 and the second imaging unit 4. The imaging condition setting unit 61 sets the ISO sensitivity of the second imaging unit 4, that is, the second gain (amplification factor) to a larger value than the ISO sensitivity, that is, the first gain (amplification factor) of the first imaging unit 3. To do. The image sensor control unit 62 controls the operations of the first image sensor 32 and the second image sensor 42 so that image pickup is performed under the image pickup conditions set by the image pickup condition setting unit. In the present embodiment, as shown in FIG. 2, the image sensor control unit 62 operates the first image sensor control unit 621 that controls the operation of the first image sensor 32 and the operation of the second image sensor 42. Although the description will be made assuming that the second image sensor control unit 622 to be controlled is provided as a function, the present invention is not limited to this example. That is, the control unit 6 may not include the image sensor control unit 62, but the control unit 6 may include the first image sensor control unit 621 and the second image sensor control unit 622.

画像処理部63は、第1撮像素子32から出力された第1画像信号が増幅部321により第1ゲインで増幅された後、各種の画像処理を施して、第1画像データを生成する。画像処理部63は、第2撮像素子42から出力された第2画像信号が増幅部421により第2ゲインで増幅された後、各種の画像処理を施して、第2画像データを生成する。画像処理部63は、生成された第1画像データと第2画像データとを合成して、被写体の輝度の再現性を拡大させるハイダイナミックレンジ(HDR)処理の施された合成画像データ(以後、HDR画像データ)を生成する。合成画像データを生成する例としては、たとえば、画像処理部63は、第1画像データと第2画像データとの輝度を加算した後、平均をとることによって合成画像データを生成する。または、画像処理部63は、第1ゲインよりもゲインの低い第2ゲインで増幅された第2画像データの輝度の低い領域に対して、第1画像データに基づいて輝度の大きさを補正し、第2画像データの輝度の低い領域を明るくするような補正を行ってもよい。表示制御部64は、画像処理部63で生成された各種の画像データ、すなわち第1画像データや第2画像データやHDR画像データの画像を表示器5に表示させる。記憶部65は、たとえば不揮発性メモリであり、HDR画像データを記憶する。
なお、上述した撮像条件設定部61や撮像素子制御部62や画像処理部63や表示制御部64の詳細については、説明を後に行う。
The image processing unit 63 generates the first image data by performing various image processing after the first image signal output from the first imaging element 32 is amplified by the amplification unit 321 with the first gain. The image processing unit 63 generates the second image data by performing various image processing after the second image signal output from the second image sensor 42 is amplified by the amplification unit 421 with the second gain. The image processing unit 63 synthesizes the generated first image data and the second image data, and performs high dynamic range (HDR) processing to enhance the reproducibility of the brightness of the subject (hereinafter, the composite image data). HDR image data) is generated. As an example of generating the composite image data, for example, the image processing unit 63 generates the composite image data by adding the brightness of the first image data and the second image data and then averaging them. Alternatively, the image processing unit 63 corrects the magnitude of the brightness based on the first image data with respect to the low brightness region of the second image data amplified by the second gain, which is lower than the first gain. , The correction may be performed so as to brighten the low-luminance region of the second image data. The display control unit 64 causes the display 5 to display various image data generated by the image processing unit 63, that is, images of the first image data, the second image data, and the HDR image data. The storage unit 65 is, for example, a non-volatile memory and stores HDR image data.
The details of the image pickup condition setting unit 61, the image sensor control unit 62, the image processing unit 63, and the display control unit 64 described above will be described later.

操作検出部7は、例えば表示器5に積層されて設けられるタッチパネル等により構成され、ユーザの指等が表示器5の画面に接触するタップ操作が行われると、その座標を制御部6に出力する。ユーザの操作が操作検出部7に検出されることにより、例えば撮像装置1に対する撮影指示や、各種の設定等の選択指示または決定指示や、画像を表示器5に再生、表示させるための再生モードの選択指示や、撮像装置1による撮影を静止画撮影モードと動画撮影モードとの間で切り替える指示を行うことができる。この場合、制御部6は、表示器5に、上記の各指示に応じたアイコン等を表示させる。ユーザは、所望する指示に従って、表示器5に表示されたアイコンに対してタップ操作を行うと、制御部6は、操作検出部7により検出された座標に基づいて、何れの指示が行われたかを判定し、指示の内容に応じて各部に指示信号を出力する。 The operation detection unit 7 is composed of, for example, a touch panel or the like that is laminated on the display unit 5, and when a tap operation in which a user's finger or the like touches the screen of the display unit 5 is performed, the coordinates are output to the control unit 6. To do. When the user's operation is detected by the operation detection unit 7, for example, a shooting instruction to the image pickup device 1, a selection instruction or a determination instruction such as various settings, and a reproduction mode for reproducing and displaying an image on the display 5. And an instruction to switch between the still image shooting mode and the moving image shooting mode for shooting by the imaging device 1. In this case, the control unit 6 causes the display 5 to display an icon or the like corresponding to each of the above instructions. When the user taps the icon displayed on the display 5 according to the desired instruction, the control unit 6 gives which instruction based on the coordinates detected by the operation detection unit 7. Is determined, and an instruction signal is output to each part according to the content of the instruction.

なお、操作検出部7としてタッチパネル等により構成されるものに限定されず、ユーザインタフェースとして利用し得る種々の構成を用いることができる。たとえば、ユーザによる操作はボタン等を押下操作することにより行われ、操作検出部7はユーザのボタン操作を検出するものでも良い。または、操作検出部7は、ユーザの動作、たとえば手を振ったり、予め決められているジェスチャー等を検出しても良い。この場合、操作検出部7は撮像装置により構成することができる。また、操作検出部7は、ユーザの声を検出するマイク等の集音装置により構成されても良い。 The operation detection unit 7 is not limited to a touch panel or the like, and various configurations that can be used as a user interface can be used. For example, the operation by the user is performed by pressing a button or the like, and the operation detection unit 7 may detect the user's button operation. Alternatively, the operation detection unit 7 may detect a user's action, such as waving a hand or a predetermined gesture. In this case, the operation detection unit 7 can be configured by an imaging device. Further, the operation detection unit 7 may be configured by a sound collecting device such as a microphone that detects the user's voice.

上述した構成を有する本実施の形態の撮像装置1は、第1撮像素子32および第2撮像素子42から出力された画像信号に基づいて、HDR処理の施された動画像データを生成する。
撮像装置1は、第1撮像ユニット3の第1撮像素子32が撮像を行って出力した第1画像信号を第1ゲインで増幅することにより、白飛びを抑制した暗い画像データを第1画像データとして生成する。上述したように、撮像条件設定部61により第1ゲインは第2ゲインより小さな値に設定されるので、第1撮像素子32からの第1画像信号が第1ゲインによりアンダー露光となるように増幅され、被写体の明部、すなわち高輝度領域の再現性を高めた第1画像データが生成される。撮像装置1は、第2撮像ユニット4の第2撮像素子42が撮像を行って出力した第2画像信号を第2ゲインで増幅することにより、黒潰れを抑制した明るい画像データを第1画像データとして生成する。撮像条件設定部61により、第2ゲインは第1ゲインよりも大きな値に設定されるので、第2撮像素子42からの第2画像信号が第2ゲインにてオーバー露光となるように増幅されることにより、被写体の暗部、すなわち低輝度領域の再現性を高めた第2画像データが生成される。撮像装置1は、高輝度領域の再現性を高めた画像データである第1画像データと、低輝度領域の再現性を高めた画像データである第2画像データと、に基づいて、合成画像データを生成し、この合成画像データに基づいて、動画像を生成する。
The image pickup device 1 of the present embodiment having the above-described configuration generates HDR-processed moving image data based on the image signals output from the first image pickup device 32 and the second image pickup device 42.
The image pickup apparatus 1 obtains dark image data in which overexposure is suppressed by amplifying the first image signal output by the first image sensor 32 of the first image pickup unit 3 with the first gain. Generate as. As described above, since the first gain is set to a value smaller than the second gain by the image pickup condition setting unit 61, the first image signal from the first image sensor 32 is amplified so as to be underexposed by the first gain. Then, the first image data with improved reproducibility of the bright part of the subject, that is, the high-luminance region is generated. The image pickup apparatus 1 obtains bright image data in which blackout is suppressed by amplifying the second image signal output by the second image sensor 42 of the second image pickup unit 4 with the second gain. Generate as. Since the second gain is set to a value larger than the first gain by the image pickup condition setting unit 61, the second image signal from the second image pickup element 42 is amplified so as to be overexposed at the second gain. As a result, the second image data with improved reproducibility in the dark part of the subject, that is, the low-luminance region is generated. The image pickup apparatus 1 is based on composite image data based on the first image data which is image data with improved reproducibility in a high brightness region and the second image data which is image data with improved reproducibility in a low brightness region. Is generated, and a moving image is generated based on this composite image data.

上述したように、撮像条件設定部61が第1撮像素子32の第1ゲインを設定するが、撮像環境等によっては被写体に白飛びが発生することが抑制できない場合がある。そのため、本実施の形態の撮像装置1においては、第1撮像ユニット3は、濃度フィルタ34を備えている。以下、濃度フィルタ34がどの程度被写体からの光の透過率を低減する必要があるかについて具体例を用いて説明する。 As described above, the image pickup condition setting unit 61 sets the first gain of the first image sensor 32, but it may not be possible to suppress the occurrence of overexposure in the subject depending on the image pickup environment or the like. Therefore, in the image pickup apparatus 1 of the present embodiment, the first image pickup unit 3 includes a density filter 34. Hereinafter, how much the density filter 34 needs to reduce the transmittance of light from the subject will be described with reference to specific examples.

露出値(EV値)が13程度、たとえば、明るい曇りの環境下で撮像を行う場合を例に挙げる。この場合、ISO感度が100に設定された場合、絞り値(F値)2.8、露光時間(シャッタースピード)1/1000sに設定すると、おおよそ適切な撮像条件となる。しかし、後述するように60fpsで動画像を撮像する場合には、1フレームの時間1/60sと比較して露光時間の1/1000sは短い時間となる。このため、シャッタースピードを1/120s程度にまで遅くする、すなわち露光時間を短くするためには、濃度フィルタ34は、被写体からの光量を1/8、すなわち透過率12.5パーセントとする必要がある。 An example is taken when an image is taken in a bright cloudy environment where the exposure value (EV value) is about 13. In this case, when the ISO sensitivity is set to 100 and the aperture value (F value) is set to 2.8 and the exposure time (shutter speed) is set to 1/1000 s, the imaging conditions are approximately appropriate. However, as will be described later, when a moving image is captured at 60 fps, the exposure time of 1/1000 s is shorter than the time of 1 frame of 1/60 s. Therefore, in order to reduce the shutter speed to about 1 / 120s, that is, to shorten the exposure time, the density filter 34 needs to reduce the amount of light from the subject to 1/8, that is, the transmittance is 12.5%. is there.

露出値が16程度、たとえば、快晴時の雪景色等を撮像する場合を例に挙げる。この場合、ISO感度が100に設定された場合、絞り値(F値)2.8、露光時間(シャッタースピード)1/8000sに設定すると、おおよそ適切な撮像条件となる。この場合も、60fpsで動画像を撮像する場合には、1フレームの時間1/60sと比較して露光時間の1/8000sは短い時間となる。このため、シャッタースピードを1/120s程度にまで遅くする、すなわち露光時間を短くするためには、濃度フィルタ34は、被写体からの光量を1/64、すなわち透過率1.56パーセントとする必要がある。 An example is taken when an exposure value of about 16 is taken, for example, a snow scene in fine weather. In this case, when the ISO sensitivity is set to 100 and the aperture value (F value) is set to 2.8 and the exposure time (shutter speed) is set to 1/8000 s, the imaging conditions are approximately appropriate. Also in this case, when a moving image is captured at 60 fps, the exposure time of 1/8000 s is shorter than the time of 1 frame of 1/60 s. Therefore, in order to reduce the shutter speed to about 1 / 120s, that is, to shorten the exposure time, the density filter 34 needs to set the amount of light from the subject to 1/64, that is, the transmittance of 1.56%. is there.

以上の例のように、EV値16程度であってもシャッタースピード1/120s程度で撮像可能となるように、撮像装置1は、透過率が1.5パーセントの濃度フィルタ34を備えることができる。ただし、EV値が16よりも小さい環境下(たとえばEV値13等)の場合には、ISO感度100では第1撮像素子32により撮像され生成される画像データが暗い画像となってします。このような場合には、撮像条件設定部61は、ISO感度を100より大きな値に設定すれば良い。たとえば、EV値13、シャッタースピード1/125sの場合に、撮像条件設定部61はISO感度を800に設定すると良い。
なお、上述の例では、ISO感度100で説明したが、さらに小さい値であってもよい。例えば、ISO感度50の場合、絞り値(F値)2.8、露光時間(シャッタースピード)1/8000sに設定すると、EV値が15になる。先ほどのISO感度が100、絞り値(F値)2.8、露光時間(シャッタースピード)1/8000sのEV値16と比較すると、EV値が1小さくなっている。つまり、最低のISO感度によって、必要となる濃度フィルタ34の透過率が異なってくる。この場合だと、シャッタースピードを1/120s程度にまで遅くするためには、濃度フィルタ34の透過率は1/32程度、つまり透過率は約3.0パーセント程度に代わる。すなわち、ISO感度を低く設定できるにつれて、濃度フィルタ34の透過率を高くすることができる(透過するようになる)。もちろん、設定可能なISO感度を高く設定できるにつれて、濃度フィルタ34の透過率を低く設定する必要がある。
同様に、EV値は絞り値(F値)によって変わり、絞り値(F値)が大きくなるにつれて、EV値が小さくなるため、濃度フィルタ34の透過率を高くすることができる(透過するようになる)。もちろん、絞り値(F値)が小さくなるにつれて、EV値が大きくなるため、濃度フィルタ34の透過率を低くする必要がある。
As described in the above example, the imaging device 1 can be provided with a density filter 34 having a transmittance of 1.5% so that imaging can be performed at a shutter speed of about 1/120 s even if the EV value is about 16. .. However, in an environment where the EV value is smaller than 16 (for example, EV value 13 or the like), the image data imaged and generated by the first image sensor 32 at ISO sensitivity 100 becomes a dark image. In such a case, the imaging condition setting unit 61 may set the ISO sensitivity to a value larger than 100. For example, when the EV value is 13 and the shutter speed is 1 / 125s, the imaging condition setting unit 61 may set the ISO sensitivity to 800.
In the above example, the ISO sensitivity is 100, but the value may be even smaller. For example, in the case of ISO sensitivity 50, if the aperture value (F value) is set to 2.8 and the exposure time (shutter speed) is set to 1 / 8000s, the EV value becomes 15. Compared with the EV value 16 with an ISO sensitivity of 100, an aperture value (F value) of 2.8, and an exposure time (shutter speed) of 1 / 8000s, the EV value is one smaller. That is, the required transmittance of the density filter 34 differs depending on the lowest ISO sensitivity. In this case, in order to reduce the shutter speed to about 1 / 120s, the transmittance of the density filter 34 is about 1/32, that is, the transmittance is changed to about 3.0%. That is, as the ISO sensitivity can be set lower, the transmittance of the density filter 34 can be increased (transmissive). Of course, as the settable ISO sensitivity can be set higher, the transmittance of the density filter 34 needs to be set lower.
Similarly, the EV value changes depending on the aperture value (F value), and as the aperture value (F value) increases, the EV value decreases, so that the transmittance of the density filter 34 can be increased (to be transparent). Become). Of course, as the aperture value (F value) decreases, the EV value increases, so it is necessary to lower the transmittance of the density filter 34.

以下、撮像条件設定部61により、第1撮像素子32の撮像条件が白飛びの発生を抑制するように、たとえば露光時間1/120s、ISO感度100に設定され、第2撮像素子42の撮像条件が黒潰れの発生を抑制するように、たとえば露光時間1/120s、ISO感度12800に設定された場合の動作像の撮像処理について説明する。
なお、以下の説明においては、動画像のフレームレートを60fpsであるものとする。すなわち、撮像条件設定部61は、フレームレートの60fpsの1フレームの時間1/60sに対して1/2の時間を第1撮像素子32および第2撮像素子42の露光時間に設定する。撮像条件設定部61は、第1撮像素子32および第2撮像素子42の露光時間については、動画像のフレームレートに基づいて、動画再生時の被写体の動きが不自然に不連続になることを抑制できる程度の露光時間に設定して良い。この場合、撮像条件設定部61は、フレームレートの1/4〜1/1の時間を第1撮像素子32の露光時間として設定するのが良い。なお、撮像条件設定部61によって、フレームレートの1/2よりも長い時間が露光時間として設定された場合には、第1撮像素子32および第2撮像素子42により撮像された第1画像データおよび第2画像データにおいては、撮像装置1に対して相対的に移動している被写体のブレが大きくなる。このように、各フレームにおける露光時間が長く設定されて生成された動画像は、スピード感や躍動感のある動画像として再生することができる。
また、以下の説明においては、白飛びの発生を抑え被写体の高輝度領域の再現性を高めた画像、すなわち第1画像データをハイライト画像データと呼び、黒潰れの発生を抑え被写体の低輝度領域の再現性を高めた画像データ、すなわち第2画像データをベース画像データと呼ぶ。
Hereinafter, the image pickup condition of the first image sensor 32 is set to, for example, an exposure time of 1/120 s and an ISO sensitivity of 100 so that the image pickup condition of the first image sensor 32 is suppressed by the image pickup condition setting unit 61. The image pickup process of the operation image when the exposure time is set to 1 / 120s and the ISO sensitivity is set to 12800 will be described so as to suppress the occurrence of black crushing.
In the following description, it is assumed that the frame rate of the moving image is 60 fps. That is, the image pickup condition setting unit 61 sets the exposure time of the first image pickup element 32 and the second image pickup element 42 to be 1/2 of the time 1 / 60s of one frame at a frame rate of 60 fps. The image pickup condition setting unit 61 determines that the movement of the subject during video reproduction becomes unnaturally discontinuous with respect to the exposure time of the first image pickup element 32 and the second image pickup element 42 based on the frame rate of the moving image. The exposure time may be set to a degree that can be suppressed. In this case, the image pickup condition setting unit 61 preferably sets the time of 1/4 to 1/1 of the frame rate as the exposure time of the first image pickup element 32. When the exposure time is set to be longer than 1/2 of the frame rate by the image pickup condition setting unit 61, the first image data captured by the first image sensor 32 and the second image sensor 42 and the first image data In the second image data, the blurring of the subject moving relative to the image sensor 1 becomes large. In this way, the moving image generated by setting a long exposure time in each frame can be reproduced as a moving image having a sense of speed and a sense of dynamism.
Further, in the following description, an image in which the occurrence of overexposure is suppressed and the reproducibility of the high-brightness region of the subject is improved, that is, the first image data is referred to as highlight image data, and the occurrence of blackout is suppressed and the low brightness of the subject is suppressed. Image data with improved area reproducibility, that is, second image data is called base image data.

撮像素子制御部62は、撮像条件設定部61により上記のように設定された第1撮像素子32と第2撮像素子42とに対する撮像条件にて、第1撮像素子32と第2撮像素子42とに露光を行わせる。すなわち、第1撮像素子制御部621は、撮像条件設定部61により設定された露光時間(1/120s)にて露光が行われるように、第1撮像素子32に電荷蓄積の開始と終了、すなわち露光開始と露光終了を指示する信号を出力する。第1撮像素子制御部621は、撮像条件設定部61により設定されたISO感度(100)となるように、第1撮像素子32の増幅回路(不図示)による増幅率を設定する。第2撮像素子制御部622は、撮像条件設定部61により設定された露光時間(1/120s)にて露光が行われるように、第2撮像素子42に電荷蓄積の開始と終了、すなわち露光開始と露光終了を指示する信号を出力する。第2撮像素子制御部622は、撮像条件設定部61により設定されたISO感度(12800)となるように、第2撮像素子42の増幅回路(不図示)による増幅率を設定する。 The image sensor control unit 62 includes the first image sensor 32 and the second image sensor 42 under the image pickup conditions for the first image sensor 32 and the second image sensor 42 set as described above by the image sensor setting unit 61. To expose. That is, the first image sensor control unit 621 starts and ends charge accumulation in the first image sensor 32, that is, so that the exposure is performed at the exposure time (1 / 120 s) set by the image pickup condition setting unit 61. Outputs a signal instructing the start and end of exposure. The first image sensor control unit 621 sets the amplification factor by the amplifier circuit (not shown) of the first image sensor 32 so that the ISO sensitivity (100) set by the image pickup condition setting unit 61 is obtained. The second image sensor control unit 622 starts and ends charge accumulation in the second image sensor 42, that is, starts exposure so that the exposure is performed at the exposure time (1 / 120 s) set by the image sensor setting unit 61. And outputs a signal instructing the end of exposure. The second image sensor control unit 622 sets the amplification factor by the amplifier circuit (not shown) of the second image sensor 42 so that the ISO sensitivity (12800) set by the image pickup condition setting unit 61 is obtained.

図3は、第1撮像素子32および第2撮像素子42による露光時間と、フレームレートとの関係を模式的に示すタイミングチャートであり、横軸を時刻tとする。
図3(a)は、第1撮像素子32による露光時間とフレームレートとの関係を示す。第1撮像素子制御部621は、時刻t1−1にて第1撮像素子32に露光開始を指示し、時刻t1−1から露光時間の1/120sが経過した時刻t1−2にて第1撮像素子32に露光終了を指示する。この時刻t1−1〜t1−2の間で第1撮像素子32により撮像して出力された画像信号は増幅部321により増幅され、画像処理部63により第1フレーム目のハイライト画像データが生成される。時刻t1−1から1/60s経過した時刻t2−1にて、第1撮像素子制御部621は、第1撮像素子32に、第2フレーム目のハイライト画像データの露光開始を指示し、以後、動画像の撮像の終了まで同様の処理を繰り返す。
上記のようにして生成されたハイライト画像データは、記憶部65に保存される。
FIG. 3 is a timing chart schematically showing the relationship between the exposure time by the first image sensor 32 and the second image sensor 42 and the frame rate, and the horizontal axis is time t.
FIG. 3A shows the relationship between the exposure time by the first imaging element 32 and the frame rate. The first image sensor control unit 621 instructs the first image sensor 32 to start exposure at time t1-1, and the first image pickup is performed at time t1-2 when 1/120 s of the exposure time has elapsed from time t1-1. The element 32 is instructed to end the exposure. The image signal imaged and output by the first image sensor 32 during the time t1-1 to t1-2 is amplified by the amplification unit 321 and the highlight image data of the first frame is generated by the image processing unit 63. Will be done. At time t2-1, which is 1 / 60s after time t1-1, the first image sensor control unit 621 instructs the first image sensor 32 to start exposure of the highlight image data of the second frame, and thereafter. , The same process is repeated until the imaging of the moving image is completed.
The highlight image data generated as described above is stored in the storage unit 65.

図3(b)は、第2撮像素子42による露光時間とフレームレートとの関係を示す。第2撮像素子制御部622は、時刻t1−1にて第2撮像素子42に露光開始を指示し、時刻t1−1から露光時間の1/120sが経過した時刻t1−2にて第2撮像素子42に露光終了を指示する。この時刻t1−1〜t1−2の間で第2撮像素子42により撮像して出力された画像信号は増幅部421により増幅され、画像処理部63により第1フレーム目のベース画像データが生成される。時刻t1−1から1/60s経過した時刻t2−1にて、第2撮像素子制御部622は、第2撮像素子42に、第2フレーム目のベース画像データの露光開始を指示し、以後、動画像の撮像の終了まで同様の処理を繰り返す。
上記のようにして生成されたベース画像データは、記憶部65に保存される。
FIG. 3B shows the relationship between the exposure time by the second image sensor 42 and the frame rate. The second image sensor control unit 622 instructs the second image sensor 42 to start exposure at time t1-1, and the second image pickup is performed at time t1-2 when 1/120 s of the exposure time has elapsed from time t1-1. The element 42 is instructed to end the exposure. The image signal imaged and output by the second image sensor 42 during the time t1-1 to t1-2 is amplified by the amplification unit 421, and the base image data of the first frame is generated by the image processing unit 63. To. At time t2-1, which is 1 / 60s after time t1-1, the second image sensor control unit 622 instructs the second image sensor 42 to start exposure of the base image data of the second frame. The same process is repeated until the imaging of the moving image is completed.
The base image data generated as described above is stored in the storage unit 65.

なお、上記の説明では、時刻t1−1〜t1−2の間に第1撮像素子32と第2撮像素子42とが撮像を行う場合を例に挙げたがこれに限定されない。たとえば、第1撮像素子32の露光開始が所定時間だけ第2撮像素子42の露光開始よりも早くても良いし、所定時間だけ第2撮像素子42の露光開始より遅くても良い。すなわち、撮像素子制御部62は、第1撮像素子32の露光時間と第2撮像素子42の露光時間とが一部で重複するように第1撮像素子32と第2撮像素子42との露光開始の時刻を制御しても良い。つまり、第1露光時間での撮像の撮像開始および第1露光時間での撮像の撮像終了の少なくとも一方が第2露光時間の撮像の間に行われるように撮像素子制御部62が制御してもよい。ただし、上記の所定時間は、第1撮像素子32および第2撮像素子42の露光時間である1/120sよりも短い時間が好ましい。
なお、上記の説明では、光学部材である濃度フィルタ34を備える構成で説明を行っているが、必ずしも備える必要はない。すなわち、第1撮像素子32による第1露光時間での撮像の撮像開始、および第1露光時間での撮像の撮像終了の少なくとも一方が、第2撮像素子42での第2露光時間の撮像の間に行われるように撮像素子制御部62が制御を行い、第1撮像素子32と第2撮像素子42とで撮像された第1画像信号と第2画像信号とを増幅部421により異なるゲインで増幅するような制御のみであってもよい。
In the above description, the case where the first image sensor 32 and the second image sensor 42 perform imaging during the time t1-1 to t1-2 is given as an example, but the present invention is not limited to this. For example, the exposure start of the first image sensor 32 may be earlier than the exposure start of the second image sensor 42 by a predetermined time, or may be later than the exposure start of the second image sensor 42 by a predetermined time. That is, the image sensor control unit 62 starts exposure of the first image sensor 32 and the second image sensor 42 so that the exposure time of the first image sensor 32 and the exposure time of the second image sensor 42 partially overlap. You may control the time of. That is, even if the image sensor control unit 62 controls that at least one of the start of imaging in the first exposure time and the end of imaging in the first exposure time is performed during the imaging in the second exposure time. Good. However, the above-mentioned predetermined time is preferably shorter than 1 / 120s, which is the exposure time of the first image sensor 32 and the second image sensor 42.
In the above description, the configuration includes the density filter 34, which is an optical member, but it is not always necessary to provide the configuration. That is, at least one of the start of imaging in the first exposure time by the first image sensor 32 and the end of imaging in the imaging in the first exposure time is during the imaging of the second exposure time by the second image sensor 42. The image sensor control unit 62 controls, and the first image signal and the second image signal imaged by the first image sensor 32 and the second image sensor 42 are amplified by the amplification unit 421 with different gains. It may be only the control that does.

画像処理部63は、生成したハイライト画像データとベース画像データとをHDR処理により合成して、HDR画像データを生成する。この場合、たとえば、画像処理部63は、画像上の高輝度領域についてハイライト画像データの重み付けを大きくし、低輝度領域についてはベース画像データの重み付けを大きくして合成を行う。この合成により、HDR画像データでは、低輝度や中輝度の被写体については、オーバー露光気味にて撮像されたベース画像データにより鮮明に再現される。HDR画像データでは、白飛びの発生する可能性のある高輝度の被写体については、アンダー露光にて撮像されたハイライト画像データにより鮮明に再現される。これにより、HDR画像データは、全体として広いダイナミックレンジを有する画像となる。 The image processing unit 63 synthesizes the generated highlight image data and the base image data by HDR processing to generate HDR image data. In this case, for example, the image processing unit 63 increases the weighting of the highlight image data for the high-luminance region on the image and increases the weighting of the base image data for the low-luminance region to perform the composition. By this composition, in the HDR image data, a low-brightness or medium-brightness subject is clearly reproduced by the base image data captured with a slight overexposure. In the HDR image data, a high-brightness subject that may cause overexposure is clearly reproduced by the highlight image data captured by underexposure. As a result, the HDR image data becomes an image having a wide dynamic range as a whole.

画像処理部63は、第2フレーム以後についても、同様にして生成したハイライト画像データと、ベース画像データとを合成して、HDR画像データを生成する。これにより、フレームレートが60fspであり露光時間t1−1〜t1−2のHDR画像データが動画像データとして生成される。生成されたHDR画像データ、すなわち動画像データは記憶部65に保存される。 The image processing unit 63 also generates HDR image data by synthesizing the highlight image data and the base image data generated in the same manner for the second and subsequent frames. As a result, HDR image data having a frame rate of 60 fsp and exposure times t1-1 to t1-2 is generated as moving image data. The generated HDR image data, that is, moving image data is stored in the storage unit 65.

図4に示すフローチャートを参照して、第1の実施の形態による撮像装置1の撮像動作を説明する。図4のフローチャートに示す各処理は、制御部6でプログラムを実行して行われる。このプログラムは記憶部65に記憶されており、操作検出部7により動画像の撮像を指示する操作が行われたことが検出されると、制御部6により起動され、実行される。
ステップS1において、撮像条件設定部61は第1撮像素子32と第2撮像素子42の撮像条件を設定してステップS2へ進む。ステップS2においては、撮像素子制御部62は、設定された撮像条件に基づいて、第1撮像素子32と第2撮像素子42とに、1つのフレームの撮像を指示してステップS3へ進む。
The imaging operation of the imaging device 1 according to the first embodiment will be described with reference to the flowchart shown in FIG. Each process shown in the flowchart of FIG. 4 is performed by executing a program in the control unit 6. This program is stored in the storage unit 65, and when it is detected that the operation detecting unit 7 has performed an operation instructing the imaging of a moving image, the control unit 6 activates and executes the program.
In step S1, the image pickup condition setting unit 61 sets the image pickup conditions of the first image pickup element 32 and the second image pickup element 42, and proceeds to step S2. In step S2, the image pickup element control unit 62 instructs the first image pickup element 32 and the second image pickup element 42 to image one frame based on the set imaging conditions, and proceeds to step S3.

ステップS3においては、画像処理部63は、第1撮像素子32から出力された画像信号が増幅された後、ハイライト画像データを生成し、第2撮像素子42から画像信号が増幅された後、ベース画像データを生成してステップS4へ進む。ステップS4では、画像処理部63は、ハイライト画像データとベース画像データとを合成して、HDR画像データを生成してステップS5へ進む。 In step S3, the image processing unit 63 generates highlight image data after the image signal output from the first image sensor 32 is amplified, and after the image signal is amplified from the second image sensor 42, the image processing unit 63 generates the highlight image data. The base image data is generated and the process proceeds to step S4. In step S4, the image processing unit 63 synthesizes the highlight image data and the base image data to generate HDR image data, and proceeds to step S5.

ステップS5では、制御部6は、生成されたベース画像データと、ハイライト画像データと、HDR画像データとを記憶部65に記憶してステップS6へ進む。ステップS6では、動画像の撮像が終了か否かを判定する。動画像の撮像を終了する場合、すなわちユーザにより動画像の撮像を終了する操作が行われたことが操作検出部7により検出された場合には、ステップS6が肯定判定されて処理を終了する。動画像の撮像を終了しない場合、すなわちユーザによる動画像の撮像を終了する操作が行われていない場合には、ステップS6が否定判定されてステップS2に戻る。 In step S5, the control unit 6 stores the generated base image data, highlight image data, and HDR image data in the storage unit 65, and proceeds to step S6. In step S6, it is determined whether or not the imaging of the moving image is completed. When the operation detection unit 7 detects that the imaging of the moving image is finished, that is, the operation of ending the imaging of the moving image is detected by the user, the operation detection unit 7 determines affirmatively and ends the process. If the imaging of the moving image is not completed, that is, if the operation of ending the imaging of the moving image by the user is not performed, the negative determination in step S6 is made and the process returns to step S2.

ユーザにより動画の再生を指示する操作を行ったことが操作検出部7により検出されると、表示制御部64は、上述したようにして生成され記憶部65に保存されたHDR画像データを記憶部65から読み出して、表示器5に動画として再生表示させる。 When the operation detection unit 7 detects that the user has performed an operation instructing the playback of the moving image, the display control unit 64 stores the HDR image data generated as described above and stored in the storage unit 65. It is read from 65 and is reproduced and displayed as a moving image on the display 5.

動画を再生する際のフレームレートを速くした場合、たとえばフレームレート60fpsから4倍速の240fpsに変更した場合を説明する。この場合、表示制御部64は、あるフレームのHDR画像データと、次フレームのHDR画像データとの間の間隔、すなわち時刻t1−2〜t2−1までの時間(1/120s)を1/4倍の時間にする。これにより、あるフレームと次フレームとの間の間隔が短くなるので、被写体の動きを連続的に再生することができる。 A case where the frame rate at the time of playing back a moving image is increased, for example, a case where the frame rate is changed from 60 fps to 240 fps at 4 times speed will be described. In this case, the display control unit 64 reduces the interval between the HDR image data of a certain frame and the HDR image data of the next frame, that is, the time (1 / 120s) from time t1-2 to t2-1 to 1/4. Double the time. As a result, the interval between one frame and the next frame is shortened, so that the movement of the subject can be continuously reproduced.

動画を再生する際のフレームレートを遅くしたスロー再生、たとえば1/4倍速に変更した場合を説明する。この場合、表示制御部64は、あるフレームのHDR画像データと、次フレームのHDR画像データとの間の間隔である時刻t1−2〜t2−1までの時間(1/120s)を4倍の時間にする。この場合、あるフレームと次フレームとの間の間隔が長くなるので、被写体の動きが不連続となり、不自然な動画が再生されることとなる。このため、上述したように、撮像条件設定部61は、フレームレートに対して1/4〜1/1の時間を露光時間として設定すると良い。 A slow playback in which the frame rate when playing a moving image is slowed down, for example, a case where the speed is changed to 1/4 times speed will be described. In this case, the display control unit 64 quadruples the time (1 / 120s) from time t1-2 to t2-1, which is the interval between the HDR image data of a certain frame and the HDR image data of the next frame. Make time. In this case, since the interval between one frame and the next frame becomes long, the movement of the subject becomes discontinuous, and an unnatural moving image is reproduced. Therefore, as described above, the imaging condition setting unit 61 may set a time of 1/4 to 1/1 with respect to the frame rate as the exposure time.

第1の実施の形態では、第1撮像素子32には濃度フィルタ34により被写体からの光の光量が低減されて入射される。画像処理部63は、第1撮像素子32からの画像信号が増幅された後、ハイライト画像データを生成し、第2撮像素子42からの画像信号が増幅された後、ベース画像データを生成し、ハイライト画像データとベース画像データとを合成してHDR画像データを生成する。これにより、被写体の高輝度の領域の階調と低輝度の領域の階調とが再現されたダイナミックレンジの大きな動画像データを生成することができる。 In the first embodiment, the density filter 34 reduces the amount of light from the subject and causes the light to be incident on the first image sensor 32. The image processing unit 63 generates highlight image data after the image signal from the first image pickup element 32 is amplified, and generates base image data after the image signal from the second image pickup element 42 is amplified. , Highlight image data and base image data are combined to generate HDR image data. As a result, it is possible to generate moving image data having a large dynamic range in which the gradation in the high-luminance region and the gradation in the low-luminance region of the subject are reproduced.

第1の実施の形態では、第1撮像素子32の露光時間は、フレームレートの1フレームの時間の半分よりも長い露光時間である。これにより、動きのある被写体を撮像して生成された画像データの間隔(すなわち時刻t1−2〜t2−1)を短くできるので、動画像として再生する際に、被写体の動きが不連続になり不自然なものとなることを抑制できる。 In the first embodiment, the exposure time of the first image sensor 32 is longer than half the time of one frame at the frame rate. As a result, the interval between image data generated by imaging a moving subject (that is, time t1-2 to t2-1) can be shortened, so that the movement of the subject becomes discontinuous when reproduced as a moving image. It is possible to prevent it from becoming unnatural.

第1の実施の形態では、第2撮像素子42の露光時間は、フレームレートの1フレームの時間の半分よりも長い露光時間である。これにより、動きのある被写体を撮像して生成された画像データの間隔(すなわち時刻t1−2〜t2−1)を短くできるので、動画像として再生する際に、被写体の動きが不連続になり不自然なものとなることを抑制できる。 In the first embodiment, the exposure time of the second image sensor 42 is longer than half the time of one frame at the frame rate. As a result, the interval between image data generated by imaging a moving subject (that is, time t1-2 to t2-1) can be shortened, so that the movement of the subject becomes discontinuous when reproduced as a moving image. It is possible to prevent it from becoming unnatural.

第1の実施の形態では、第1撮像素子32の露光時間と第2撮像素子42の露光時間とが同じ時間である。これにより、HDR処理の際に、ハイライト画像データとベース画像データとにおける被写体の位置が同一となるので、合成時に位置合わせ等の処理を行う必要がなく処理負荷を低減できる。 In the first embodiment, the exposure time of the first image sensor 32 and the exposure time of the second image sensor 42 are the same time. As a result, during the HDR processing, the positions of the subjects in the highlight image data and the base image data are the same, so that it is not necessary to perform processing such as alignment at the time of compositing, and the processing load can be reduced.

<第1の実施の形態の変形例1>
上述した第1の実施の形態においては、第1撮像ユニット3が濃度フィルタ34を備える場合を例に挙げて説明したが、この例に限定されない。以下に例1〜例4を挙げて説明する。
<Modification 1 of the first embodiment>
In the above-described first embodiment, the case where the first imaging unit 3 includes the density filter 34 has been described as an example, but the present invention is not limited to this example. Examples 1 to 4 will be described below.

<例1>
第1撮像ユニット3は、濃度フィルタ34を備えず、または、濃度フィルタ34とともに被写体からの光の透過率を低減するコーティングが施された撮像レンズ31を備える。これにより、第1撮像素子32に入射する光量が減少するので、画像処理部63により生成されるハイライト画像データが暗い画像となり、白飛びの発生を抑制した画像を生成することができる。
なお、光を反射させて透過率を低減させるコーティングを行う場合には、撮像レンズ31を構成する各種のレンズのうち最も物体側(被写体側)のレンズにコーティングすると良い。これにより、内部のレンズにコーティングすることにより生じる内部反射に起因して、画像上にゴーストが発生することを抑制できる。
上記の構成を有する変形例1の例1の撮像装置1は、図4に示す第1の実施の形態の撮像装置1と同様の処理を行って、動画像データを生成する。
第1の実施の形態の変形例1の例1では、撮像レンズ31にコーティングを行うことにより被写体から第1撮像素子32へ入射する光の光量を低減させる。これにより、濃度フィルタ34を第1撮像ユニット3に配置しなくても良いので、装置の小型化に寄与する。
<Example 1>
The first imaging unit 3 does not include a density filter 34, or includes an imaging lens 31 that is coated with the density filter 34 to reduce the transmittance of light from the subject. As a result, the amount of light incident on the first image sensor 32 is reduced, so that the highlight image data generated by the image processing unit 63 becomes a dark image, and it is possible to generate an image in which the occurrence of overexposure is suppressed.
When coating is applied to reflect light to reduce the transmittance, it is preferable to coat the lens closest to the object side (subject side) among the various lenses constituting the image pickup lens 31. As a result, it is possible to suppress the generation of ghosts on the image due to the internal reflection caused by coating the internal lens.
The image pickup apparatus 1 of Example 1 of the modification 1 having the above configuration performs the same processing as the image pickup apparatus 1 of the first embodiment shown in FIG. 4 to generate moving image data.
In Example 1 of Modification 1 of the first embodiment, the amount of light incident on the first image sensor 32 from the subject is reduced by coating the image pickup lens 31. As a result, the density filter 34 does not have to be arranged in the first imaging unit 3, which contributes to miniaturization of the apparatus.

<例2>
第1撮像ユニット3は、光学部材として濃度フィルタ34に代えて光の透過率が低いカラーフィルターを備える第1撮像素子32を有する。この場合、第1撮像素子32が有する第1カラーフィルター322は、第2撮像素子42が有する第2カラーフィルター422よりも光の透過率が低い。これにより、第1撮像素子32から出力される画像信号のR、G、Bの各色成分の画素値は、第2撮像素子42から出力される画像信号のR、G、Bの各色成分の画素値よりも小さくなり、画像処理部63により生成されるハイライト画像データが暗い画像となる。
上記の構成を有する変形例1の例2の撮像装置1は、図4に示す第1の実施の形態の撮像装置1と同様の処理を行って、動画像データを生成する。
<Example 2>
The first image pickup unit 3 has a first image pickup element 32 as an optical member, which includes a color filter having a low light transmittance instead of the density filter 34. In this case, the first color filter 322 of the first image sensor 32 has a lower light transmittance than the second color filter 422 of the second image sensor 42. As a result, the pixel values of the R, G, and B color components of the image signal output from the first image sensor 32 are the pixels of the R, G, and B color components of the image signal output from the second image sensor 42. It becomes smaller than the value, and the highlight image data generated by the image processing unit 63 becomes a dark image.
The image pickup device 1 of the second embodiment of the modification 1 having the above configuration performs the same processing as the image pickup device 1 of the first embodiment shown in FIG. 4 to generate moving image data.

第1の実施の形態の変形例1の例2では、第1撮像素子32が有する第1カラーフィルター322の光の透過率が、第2撮像素子42が有する第2カラーフィルター422の光の透過率より低い。これにより、濃度フィルタ34を備えない場合であっても、第1撮像素子32からの画像信号に基づいて白飛びの発生を抑制した画像を生成することができるので、装置の小型化に寄与する。 In Example 2 of Modification 1 of the first embodiment, the light transmittance of the first color filter 322 of the first image sensor 32 is the light transmittance of the second color filter 422 of the second image sensor 42. Lower than the rate. As a result, even when the density filter 34 is not provided, it is possible to generate an image in which the occurrence of overexposure is suppressed based on the image signal from the first image sensor 32, which contributes to miniaturization of the apparatus. ..

<例3>
図5を参照して、第1撮像ユニット3は、被写体からの光の透過率を変更可能な構成を有する濃度フィルタを撮像レンズ31と第1撮像素子32との間の光路中に備える場合の例について説明する。濃度フィルタは、撮像レンズ31の光軸と交わる平面上に透過率の異なる複数の領域を有し、制御部により制御されて、被写体からの光を透過させる領域を切り替えることにより、光の透過率を変更する。
図5に、例3における濃度フィルタ35の構成の一例と、撮像装置1の要部構成の一例を模式的に示す。図5(a)は、濃度フィルタ35のXY平面、すなわち撮像レンズ31の光軸と直交する平面における構造を模式的に示している。濃度フィルタ35は、たとえば円板状のベース部材351上に第1領域352と第2領域353とが設けられた構成を有する。第1領域352と第2領域353とは互いに光の透過率が異なるフィルタが配置され、たとえば第1領域352の透過率は1.5パーセント、第2領域353の透過率は12.5パーセントとすることができる。なお、濃度フィルタ35に、3か所以上の透過率を異なる領域を設けても良い。
<Example 3>
With reference to FIG. 5, the first image pickup unit 3 includes a density filter having a configuration capable of changing the transmittance of light from the subject in the optical path between the image pickup lens 31 and the first image pickup element 32. An example will be described. The density filter has a plurality of regions having different transmittances on a plane intersecting the optical axis of the image pickup lens 31, and is controlled by a control unit to switch the region for transmitting light from the subject to transmit the light transmittance. To change.
FIG. 5 schematically shows an example of the configuration of the density filter 35 in Example 3 and an example of the configuration of a main part of the image pickup apparatus 1. FIG. 5A schematically shows the structure of the density filter 35 in the XY plane, that is, in the plane orthogonal to the optical axis of the image pickup lens 31. The density filter 35 has, for example, a configuration in which a first region 352 and a second region 353 are provided on a disk-shaped base member 351. Filters having different light transmittances are arranged in the first region 352 and the second region 353. For example, the transmittance of the first region 352 is 1.5% and the transmittance of the second region 353 is 12.5%. can do. The density filter 35 may be provided with three or more regions having different transmittances.

濃度フィルタ35は、第1領域352または第2領域353の一方で撮像レンズ31から第1撮像素子32までの間の光路を遮るように、ベース部材351の中心の周りにXY平面上を回転可能に構成される。この場合、図示しないギア等の回転機構によりベース部材351を回転させることができる。 The density filter 35 can rotate on the XY plane around the center of the base member 351 so as to block the optical path between the image pickup lens 31 and the first image pickup element 32 while the first region 352 or the second region 353 is blocked. It is composed of. In this case, the base member 351 can be rotated by a rotation mechanism such as a gear (not shown).

図5(b)は、変形例1の例3における撮像装置1の要部構成を模式的に示すブロック図である。変形例1の例3における撮像装置1の制御部6は、透過率制御部66を機能として備える。他の構成については、図2の第1の実施の形態における撮像装置1が備える構成を適用できる。透過率制御部66は、図5(a)に示す濃度フィルタ35に設けられた第1領域352と第2領域353との一方を選択し、選択した領域にて被写体からの光の光量が低減されるように上記の回転機構によりベース部材351を回転させる。透過率制御部66は、たとえば上述したEV値が16程度の環境で撮像が行われる場合には、第1領域352を選択する。透過率制御部66は、たとえば上述したEV値が13程度の環境で撮像が行われる場合には、第2領域353を選択する。
上記の構成を有する変形例1の例3の撮像装置1の動画像データを生成する際の処理は、図4に示す第1の実施の形態の撮像装置1と同様の処理を適用することができる。ただし、図4のステップS1にて第1撮像素子32の撮像条件が設定されると、透過率制御部66は、濃度フィルタ35を制御して、選択した透過率に基づいて、第1領域352または第2領域353を撮像レンズ31から第1撮像素子32の光路に位置させる。
FIG. 5B is a block diagram schematically showing a configuration of a main part of the image pickup apparatus 1 in Example 3 of Modification 1. The control unit 6 of the image pickup apparatus 1 in Example 3 of the modified example 1 includes a transmittance control unit 66 as a function. As for other configurations, the configuration included in the image pickup apparatus 1 according to the first embodiment of FIG. 2 can be applied. The transmittance control unit 66 selects one of the first region 352 and the second region 353 provided in the density filter 35 shown in FIG. 5A, and reduces the amount of light from the subject in the selected region. The base member 351 is rotated by the above-mentioned rotation mechanism. The transmittance control unit 66 selects the first region 352, for example, when imaging is performed in the above-mentioned environment where the EV value is about 16. The transmittance control unit 66 selects the second region 353, for example, when imaging is performed in the above-mentioned environment where the EV value is about 13.
As the process for generating the moving image data of the image pickup device 1 of Example 3 of the modification 1 having the above configuration, the same process as that of the image pickup device 1 of the first embodiment shown in FIG. 4 can be applied. it can. However, when the imaging conditions of the first image sensor 32 are set in step S1 of FIG. 4, the transmittance control unit 66 controls the density filter 35, and based on the selected transmittance, the first region 352. Alternatively, the second region 353 is positioned from the image pickup lens 31 to the optical path of the first image pickup element 32.

第1の実施の形態の変形例1の例3では、濃度フィルタ35により第1撮像素子32へ入射する被写体からの光の低減量を変更することができるので、異なる撮像環境下に適した透過量を設定し、第1撮像素子32からの画像信号に基づいて、白飛びの発生を抑制した画像を生成することができる。 In Example 3 of Modified Example 1 of the first embodiment, the amount of reduction of light from the subject incident on the first image sensor 32 can be changed by the density filter 35, so that transmission suitable for different image pickup environments can be changed. The amount can be set, and an image in which the occurrence of overexposure is suppressed can be generated based on the image signal from the first image sensor 32.

<例4>
以上の説明では、濃度フィルタ35のうち第1領域352と第2領域353との一方を撮像レンズ31の光路中に位置させることにより第1撮像素子32へ入射する被写体からの光量を低減させるものであった。しかし、第1撮像素子32へ入射する被写体からの光量が低減される状態と、光量が低減されない状態とを切り替え可能に構成することができる。たとえば、濃度フィルタ35の第1領域352には上述したように透過率が1.5パーセントのフィルタが配置される。濃度フィルタ35の第2領域353には、透過率100パーセントのフィルタが設けられる。または、濃度フィルタ35の第2領域353にはフィルタが設けらず、開口を設けることにより透過率100パーセントの状態とする。
<Example 4>
In the above description, the amount of light from the subject incident on the first image sensor 32 is reduced by locating one of the first region 352 and the second region 353 of the density filter 35 in the optical path of the image pickup lens 31. Met. However, it is possible to switch between a state in which the amount of light from the subject incident on the first image sensor 32 is reduced and a state in which the amount of light is not reduced. For example, as described above, a filter having a transmittance of 1.5% is arranged in the first region 352 of the density filter 35. A filter having a transmittance of 100% is provided in the second region 353 of the density filter 35. Alternatively, no filter is provided in the second region 353 of the density filter 35, and an opening is provided so that the transmittance is 100%.

透過率制御部66は、たとえば、HDR画像データを生成する撮像モード、すなわち動画像を撮像するモードが設定された場合には、第1領域352が撮像レンズ31の光路中に位置するように上記の回転機構によりベース部材351を回転させる。HDR画像データ以外の画像を撮像するモードが選択された場合には、透過率制御部66は、第2領域353を選択し、第2領域353が撮像レンズ31の光路中に位置するように、上記の回転機構によりベース部材351を回転させる。 The transmittance control unit 66 is described above so that, for example, when an imaging mode for generating HDR image data, that is, a mode for capturing a moving image is set, the first region 352 is located in the optical path of the imaging lens 31. The base member 351 is rotated by the rotation mechanism of. When a mode for capturing an image other than HDR image data is selected, the transmittance control unit 66 selects the second region 353 so that the second region 353 is located in the optical path of the imaging lens 31. The base member 351 is rotated by the above rotation mechanism.

HDR画像以外の画像を撮像する場合の例として、たとえば、第1撮像ユニット3と第2撮像ユニット4との間で焦点距離を異ならせ、第1撮像ユニット3からの画像信号に基づく画像データと、第2撮像ユニット4からの画像信号に基づく画像データとを合成して、被写界深度を変更した画像を生成する場合が挙げられる。このような被写体深度を変更した画像を生成する場合には、第1撮像素子32からの画像信号に基づく画像データと、第2撮像素子42からの画像信号に基づく画像データとは、等しい明るさの画像となることが好ましい。しかし、第1撮像ユニット3が、第1の実施の形態の場合(図2参照)のように濃度フィルタ34を常に備える場合には、第1撮像素子32へ入射される光の光量が常に低減された状態となる。このため、等しい明るさの画像を生成するためには、第1撮像ユニット3による撮像時の撮像条件を、第2撮像ユニット4による撮像時の撮像条件と異ならせる必要がある。第1撮像ユニット3と第2撮像ユニット4との間で、絞り値(F値)と露光時間とが等しく設定された場合には、ISO感度を異ならせることにより等しい明るさの画像を生成する。この場合、たとえば第2撮像ユニット4の第2撮像素子42のISO感度を200に設定した場合、第1撮像ユニット3の第1撮像素子32のISO感度を12800に設定する。一般に、ISO感度が高い場合には、生成される画像データにおいてはノイズ等の影響により画質が劣化しやすい。このため、ISO感度12800で撮像された画像データと、ISO感度200で撮像された画像データとの間では、画質が異なるため、これらの画像データが合成されると、生成された合成画像データ上では違和感が生じる。
変形例1の例4においては、被写界深度を変更した画像を生成する場合には、濃度フィルタ35の透過率100パーセントの第2領域353が光路中に位置するようにするので、第1撮像素子32に入射する光の光量が低減されない。これにより、上記のように第1撮像素子32のISO感度を第2撮像素子42のISO感度に比べて高い値に設定して撮像する必要がない。したがって、第1撮像素子32からの画像信号に基づく画像データの画質劣化が抑制され、合成処理を行ったとしても、合成画像データ上に違和感が発生することを抑制できる。
As an example of capturing an image other than the HDR image, for example, the focal length is different between the first imaging unit 3 and the second imaging unit 4, and the image data based on the image signal from the first imaging unit 3 is used. , There is a case where the image data based on the image signal from the second imaging unit 4 is combined to generate an image in which the depth of field is changed. When generating an image in which the subject depth is changed, the image data based on the image signal from the first image sensor 32 and the image data based on the image signal from the second image sensor 42 have the same brightness. It is preferable that the image is. However, when the first image sensor 3 always includes the density filter 34 as in the case of the first embodiment (see FIG. 2), the amount of light incident on the first image sensor 32 is always reduced. It will be in the state of being. Therefore, in order to generate an image having the same brightness, it is necessary to make the imaging condition at the time of imaging by the first imaging unit 3 different from the imaging condition at the time of imaging by the second imaging unit 4. When the aperture value (F value) and the exposure time are set to be equal between the first imaging unit 3 and the second imaging unit 4, images having the same brightness are generated by making the ISO sensitivity different. .. In this case, for example, when the ISO sensitivity of the second image sensor 42 of the second image sensor 4 is set to 200, the ISO sensitivity of the first image sensor 32 of the first image sensor 3 is set to 12800. Generally, when the ISO sensitivity is high, the image quality of the generated image data tends to deteriorate due to the influence of noise and the like. Therefore, the image quality is different between the image data captured with the ISO sensitivity of 12800 and the image data captured with the ISO sensitivity of 200. Therefore, when these image data are combined, the generated composite image data is displayed. Then, a feeling of strangeness occurs.
In Example 4 of Modification 1, when an image with a changed depth of field is generated, the second region 353 having a transmittance of 100% of the density filter 35 is located in the optical path. The amount of light incident on the image sensor 32 is not reduced. As a result, it is not necessary to set the ISO sensitivity of the first image sensor 32 to a value higher than the ISO sensitivity of the second image sensor 42 and perform imaging as described above. Therefore, deterioration of the image quality of the image data based on the image signal from the first image sensor 32 can be suppressed, and even if the compositing process is performed, it is possible to suppress the occurrence of a sense of discomfort on the composite image data.

上記の構成を有する変形例1の例4の撮像装置1の動画像データを生成する際の処理は、図4に示す第1の実施の形態の撮像装置1と同様の処理を適用することができる。ただし、図4のステップS1にて第1撮像素子32の撮像条件が設定されると、透過率制御部66は、濃度フィルタ35を制御して、選択した透過率に基づいて、第1領域352または第2領域353を撮像レンズ31から第1撮像素子32の光路に位置させる。 As the process for generating the moving image data of the image pickup device 1 of the example 4 of the modification 1 having the above configuration, the same process as that of the image pickup device 1 of the first embodiment shown in FIG. 4 can be applied. it can. However, when the imaging conditions of the first image sensor 32 are set in step S1 of FIG. 4, the transmittance control unit 66 controls the density filter 35, and based on the selected transmittance, the first region 352. Alternatively, the second region 353 is positioned from the image pickup lens 31 to the optical path of the first image pickup element 32.

なお、上述した例3および例4における濃度フィルタ35は上記の構成を有するものに限定されず、たとえば液晶パネルにより構成されても良い。この場合、透過率制御部66は、撮像が行われる環境に基づいて決定された透過率に基づいて、液晶パネルに印加する電圧を制御する。液晶パネルにより構成される濃度フィルタ35の撮像レンズ31側と第1撮像素子32側とには、それぞれ第1電極と第2電極とが設けられる。第1電極と第2電極とに電圧が印加されることにより、濃度フィルタ35内の液晶素子の配列方向が制御されることにより、透過率すなわち光の低減量が制御される。 The density filter 35 in Examples 3 and 4 described above is not limited to the one having the above configuration, and may be configured by, for example, a liquid crystal panel. In this case, the transmittance control unit 66 controls the voltage applied to the liquid crystal panel based on the transmittance determined based on the environment in which the imaging is performed. A first electrode and a second electrode are provided on the image pickup lens 31 side and the first image pickup element 32 side of the density filter 35 composed of the liquid crystal panel, respectively. By applying a voltage to the first electrode and the second electrode, the arrangement direction of the liquid crystal elements in the density filter 35 is controlled, so that the transmittance, that is, the amount of light reduction is controlled.

第1の実施の形態の例4では、第1撮像素子32へ入射する光の量を低減する状態と、低減しない状態とが切り替え可能である。これにより、HDR画像データ以外の画像を生成する場合には、濃度フィルタ35による光量の低減を抑制した状態で第1撮像素子32による撮像を可能にするので、複数の撮像ユニットにより生成された画像データを他機能な用途に使用することができる。 In Example 4 of the first embodiment, it is possible to switch between a state in which the amount of light incident on the first image sensor 32 is reduced and a state in which the amount of light is not reduced. As a result, when an image other than the HDR image data is generated, the first image sensor 32 can take an image while suppressing the reduction in the amount of light by the density filter 35. Therefore, the image generated by the plurality of image sensors The data can be used for other functional purposes.

<第1の実施の形態の変形例2>
図6を参照しながら、第1の実施の形態の変形例2の撮像装置について説明する。本変形例2の撮像装置は、図2に示す第1の実施の形態の撮像装置1が有する第1撮像ユニット3と第2撮像ユニット4とは異なる撮像ユニットを備える。以下、詳細に説明する。
<Modification 2 of the first embodiment>
The image pickup apparatus of the second modification of the first embodiment will be described with reference to FIG. The imaging device of the second modification includes an imaging unit different from the first imaging unit 3 and the second imaging unit 4 included in the imaging device 1 of the first embodiment shown in FIG. The details will be described below.

図6は、変形例2の撮像装置1の要部構成を模式的に示すブロック図である。変形例2の撮像装置1は、第3撮像ユニット9と、表示器5と、制御部6と、操作検出部7とを備える。第3撮像ユニット9は、結像レンズや焦点調節レンズ等の種々の光学レンズ群を含む撮像レンズ91と、第1撮像素子92と、第2撮像素子93と、光学部材としてハーフミラー94と、絞り95と、濃度フィルタ96とを備える。第1撮像素子92および第2撮像素子93は、第1の実施の形態の第1撮像素子32や第2撮像素子42と同様に、撮像面上において行列状に多数配列されたCMOSやCCD等の光電変換素子(画素)や画素の駆動を制御する各種の回路により構成される。第1撮像素子92は、第1の実施の形態の第1撮像素子32と同様の構成が適用され、増幅部921と、第1カラーフィルター922とを備える。第2撮像素子93は、第1の実施の形態の第2撮像素子42と同様の構成が適用され、増幅部931と第2カラーフィルター932とを備える。ハーフミラー94は、撮像レンズ91を通過した被写体光のうち一部の光束を透過して第1撮像素子92へ導き、残り光束を反射して第2撮像素子93へ導く分光部材である。濃度フィルタ96は、第1の実施の形態とその変形例の濃度フィルタ34や濃度フィルタ35と同様の構成が適用され、ハーフミラー94と第1撮像素子92との間の光路上に設けられる。 FIG. 6 is a block diagram schematically showing a configuration of a main part of the image pickup apparatus 1 of the second modification. The imaging device 1 of the second modification includes a third imaging unit 9, a display 5, a control unit 6, and an operation detection unit 7. The third imaging unit 9 includes an imaging lens 91 including various optical lens groups such as an imaging lens and a focus adjustment lens, a first imaging element 92, a second imaging element 93, and a half mirror 94 as an optical member. A diaphragm 95 and a density filter 96 are provided. Similar to the first image sensor 32 and the second image sensor 42 of the first embodiment, the first image sensor 92 and the second image sensor 93 are CMOS, CCD, etc. arranged in a large number in a matrix on the image pickup surface. It is composed of a photoelectric conversion element (pixel) and various circuits that control the drive of the pixel. The first image sensor 92 has the same configuration as the first image sensor 32 of the first embodiment, and includes an amplification unit 921 and a first color filter 922. The second image sensor 93 has the same configuration as the second image sensor 42 of the first embodiment, and includes an amplification unit 931 and a second color filter 932. The half mirror 94 is a spectroscopic member that transmits a part of the light flux of the subject light that has passed through the image pickup lens 91 and guides it to the first image pickup element 92, and reflects the remaining light beam and guides it to the second image pickup element 93. The density filter 96 has the same configuration as the density filter 34 and the density filter 35 of the first embodiment and its modifications, and is provided on the optical path between the half mirror 94 and the first image sensor 92.

表示器5と、制御部6と、操作検出部7とは、第1の実施の形態と同様の構成が適用される。ただし、第1撮像素子制御部621は第1撮像素子92の撮像動作を制御し、第2撮像素子制御部622は第2撮像素子93の撮像動作を制御する。すなわち、第1撮像素子92からの画像信号に基づいて、画像処理部63によりハイライト画像データが生成され、第2撮像素子93からの画像信号に基づいて、画像処理部63によりベース画像データが生成される。 The display 5, the control unit 6, and the operation detection unit 7 have the same configurations as those in the first embodiment. However, the first image sensor control unit 621 controls the image pickup operation of the first image sensor 92, and the second image sensor control unit 622 controls the image pickup operation of the second image sensor 93. That is, the highlight image data is generated by the image processing unit 63 based on the image signal from the first image sensor 92, and the base image data is generated by the image processing unit 63 based on the image signal from the second image sensor 93. Will be generated.

ハーフミラー94の被写体光の透過率と反射率とは等しい値に設定しても良いし、異なる値に設定しても良い。透過率と反射率とを異ならせる場合には、第1撮像素子92へ導かれる光量が、第2撮像素子93へ導かれる光量よりも少なくなるように設定されると良い。この場合、アンダー露光のハイライト画像データを生成するための第1撮像素子92への入射光量を少なくさせるために、たとえば、ハーフミラー94の透過率を40パーセントや30パーセント等に設定することができる。なお、ハーフミラー94の透過率と反射率とを異ならせる場合には、上述した濃度フィルタ96を備えなくても良い。
以上の構成を備える変形例2の撮像装置1における動画像データを生成するための処理には、図4に示す第1の実施の形態の撮像装置1が行う処理を適用することができる。
The transmittance and the reflectance of the subject light of the half mirror 94 may be set to the same value or may be set to different values. When the transmittance and the reflectance are different, it is preferable that the amount of light guided to the first image sensor 92 is set to be smaller than the amount of light guided to the second image sensor 93. In this case, in order to reduce the amount of incident light on the first image sensor 92 for generating the highlight image data of underexposure, for example, the transmittance of the half mirror 94 may be set to 40% or 30%. it can. When the transmittance and the reflectance of the half mirror 94 are different, the above-mentioned density filter 96 may not be provided.
The process performed by the image pickup device 1 of the first embodiment shown in FIG. 4 can be applied to the process for generating moving image data in the image pickup device 1 of the modification 2 having the above configuration.

第1の実施の形態の変形例2では、1つの撮像レンズ91を通過した被写体光が第1撮像素子92と第2撮像素子93とに導かれる。第1撮像素子92からの画像信号に基づくハイライト画像データと、第2撮像素子93からの画像信号に基づくベース画像データとの間で被写体の位置ズレが発生しない。これにより、HDR画像データを生成する際に、ベース画像データとハイライト画像データとの間で位置合わせをする必要がなく合成処理の負荷を低減できる。 In the second modification of the first embodiment, the subject light that has passed through one image pickup lens 91 is guided to the first image pickup element 92 and the second image pickup element 93. There is no displacement of the subject between the highlight image data based on the image signal from the first image sensor 92 and the base image data based on the image signal from the second image sensor 93. As a result, when the HDR image data is generated, it is not necessary to align the base image data and the highlight image data, and the load of the compositing process can be reduced.

上述した第1の実施の形態とその変形例1〜2にて説明した処理を、たとえば、水平方向に広角(たとえば360°)に撮像可能な撮像装置に適用させることができる。特に、身体の一部(腕や頭部など)や自転車やヘルメット等に装着可能な小型の広角撮像可能な撮像装置(いわゆるウエアラブルカメラ)に適用しても良い。この場合、撮像可能な範囲が広いため、太陽などの高輝度の被写体と、影の部分の低輝度の被写体とが同一画像内に撮像される可能性が高いため、上述したHDR処理を行った動画を生成すると良い。 The processes described in the first embodiment described above and the modifications 1 and 2 thereof can be applied to, for example, an imaging device capable of imaging at a wide angle (for example, 360 °) in the horizontal direction. In particular, it may be applied to a small wide-angle image pickup device (so-called wearable camera) that can be attached to a part of the body (arms, head, etc.), a bicycle, a helmet, or the like. In this case, since the range that can be imaged is wide, there is a high possibility that a high-brightness subject such as the sun and a low-brightness subject in the shadow portion are captured in the same image, so the above-mentioned HDR processing was performed. It is good to generate a video.

図7、図8を参照しながら、上記の広角撮像が可能な撮像装置1の構成について説明する。図7(a)、(b)は、撮像装置1の外観図であり、図12は撮像装置1の要部構成を例示すブロック図である。
撮像装置1のZ軸+側の本体2の正面には、第1の実施の形態の第1撮像ユニット3および第2撮像ユニット4(図2参照)と同様の構成が適用された第1撮像ユニット3Aおよび第2撮像ユニット4Aからなる第1撮像ユニット群114を備え(図7(a)参照)る。撮像装置1のZ軸−側の本体2の背面には、第1の実施の形態の第1撮像ユニット3および第2撮像ユニット4(図2参照)と同様の構成が適用された第1撮像ユニット3Bおよび第2撮像ユニット4Bからなる第2撮像ユニット群115備える(図7(b)参照)。第1撮像ユニット群114は、ZX平面においてZ軸+側に広角(たとえば180°)の撮像が可能となるように、第1撮像ユニット3Aと第2撮像ユニット4Aとの撮像レンズ31A、41Aには広角レンズが用いられる。第2撮像ユニット群115は、ZX平面においてZ軸−側に広角(たとえば180°)の撮像が可能となるように、第1撮像ユニット3Bと第2撮像ユニット4Bとの撮像レンズ31B、41Bには広角レンズが用いられる。これにより、図7の撮像装置1は、ZX平面において、360°の撮像が可能となっている。
なお、図7では、第1撮像ユニット群114と第2撮像ユニット群115との2つを用いて広角の撮像を行う例を挙げるが、撮像ユニット群の個数は2個に限られず、3個以上の撮像ユニット群を用いて広角の撮像を行って良い。
The configuration of the image pickup apparatus 1 capable of the above wide-angle imaging will be described with reference to FIGS. 7 and 8. 7 (a) and 7 (b) are external views of the image pickup apparatus 1, and FIG. 12 is a block diagram showing an example of a configuration of a main part of the image pickup apparatus 1.
A first image pickup in which the same configurations as those of the first image pickup unit 3 and the second image pickup unit 4 (see FIG. 2) of the first embodiment are applied to the front surface of the main body 2 on the Z-axis + side of the image pickup apparatus 1. A first imaging unit group 114 including the unit 3A and the second imaging unit 4A is provided (see FIG. 7A). A first imaging system to which the same configurations as those of the first imaging unit 3 and the second imaging unit 4 (see FIG. 2) of the first embodiment are applied to the back surface of the main body 2 on the Z-axis side of the imaging device 1. A second imaging unit group 115 including the unit 3B and the second imaging unit 4B is provided (see FIG. 7B). The first imaging unit group 114 is attached to the imaging lenses 31A and 41A of the first imaging unit 3A and the second imaging unit 4A so that wide-angle (for example, 180 °) imaging can be performed on the Z axis + side in the ZX plane. A wide-angle lens is used. The second imaging unit group 115 is attached to the imaging lenses 31B and 41B of the first imaging unit 3B and the second imaging unit 4B so that wide-angle (for example, 180 °) imaging can be performed on the Z-axis-side in the ZX plane. A wide-angle lens is used. As a result, the image pickup apparatus 1 of FIG. 7 is capable of imaging 360 ° in the ZX plane.
Note that FIG. 7 shows an example in which wide-angle imaging is performed using the first imaging unit group 114 and the second imaging unit group 115, but the number of imaging unit groups is not limited to two, but three. Wide-angle imaging may be performed using the above imaging unit group.

図8に示すように、撮像装置1の制御部6は、撮像条件設定部61と、記憶部65と、第1撮像ユニット群制御部67と、第2撮像ユニット群制御部68と、全体画像処理部69とを備える。撮像条件設定部61は、第1撮像ユニット群114および第2撮像ユニット群115の第1撮像ユニット3A、3Bおよび第2撮像ユニット4A、4Bのそれぞれに対して、撮像を行う際の撮像条件を設定する。撮像条件としては、第1の実施の形態の場合と同様に、たとえば露光時間(シャッター速度)、絞り、ISO感度がある。撮像条件設定部61は、第1撮像ユニット群114の第1撮像素子32Aと第2撮像ユニット群115の第1撮像素子32Bとに対して同一の撮像条件を設定する。撮像条件設定部61は、第1撮像ユニット群114の第2撮像素子42Aと第2撮像ユニット群115の第2撮像素子42Bとに対して同一の撮像条件を設定する。 As shown in FIG. 8, the control unit 6 of the image pickup apparatus 1 includes an image pickup condition setting unit 61, a storage unit 65, a first image pickup unit group control unit 67, a second image pickup unit group control unit 68, and an entire image. It is provided with a processing unit 69. The imaging condition setting unit 61 sets imaging conditions for imaging the first imaging units 3A and 3B and the second imaging units 4A and 4B of the first imaging unit group 114 and the second imaging unit group 115, respectively. Set. The imaging conditions include, for example, exposure time (shutter speed), aperture, and ISO sensitivity, as in the case of the first embodiment. The imaging condition setting unit 61 sets the same imaging conditions for the first image sensor 32A of the first image sensor group 114 and the first image sensor 32B of the second image sensor group 115. The imaging condition setting unit 61 sets the same imaging conditions for the second image sensor 42A of the first image sensor group 114 and the second image sensor 42B of the second image sensor group 115.

第1撮像ユニット群制御部67は、第1撮像ユニット群114の動作を制御する制御部である。第1撮像ユニット群制御部67は、第1の実施の形態の撮像素子制御部62および画像処理部63(図2参照)と同様の構成が適用された、第1撮像素子制御部621Aと第2撮像素子制御部622Aとを有する撮像素子制御部62Aと、画像処理部63Aとを備える。画像処理部63Aは、第1撮像ユニット群114の第1撮像素子32Aと第2撮像素子42Aとから出力された画像信号を用いて、第1の実施の形態とその変形例の場合と同様にしてHDR画像データを生成する。画像処理部63Aによって生成されるHDR画像データは、撮像装置1の正面(Z方向+側)においてZX平面で180°の広角の画像である。生成されたベース画像データとハイライト画像データとHDR画像データとは、第1の実施の構成(図2参照)と同様の構成が適用される記憶部65に記憶される。 The first imaging unit group control unit 67 is a control unit that controls the operation of the first imaging unit group 114. The first image sensor group control unit 67 is the first image sensor control unit 621A and the first image sensor control unit 621A to which the same configurations as those of the image sensor control unit 62 and the image processing unit 63 (see FIG. 2) of the first embodiment are applied. 2. The image sensor control unit 62A having the image sensor control unit 622A and the image processing unit 63A are provided. The image processing unit 63A uses the image signals output from the first image sensor 32A and the second image sensor 42A of the first image sensor group 114 in the same manner as in the case of the first embodiment and its modification. HDR image data is generated. The HDR image data generated by the image processing unit 63A is a wide-angle image of 180 ° in the ZX plane in front of the image pickup apparatus 1 (Z direction + side). The generated base image data, highlight image data, and HDR image data are stored in the storage unit 65 to which the same configuration as that of the first embodiment (see FIG. 2) is applied.

第2撮像ユニット群制御部68は、第2撮像ユニット群115の動作を制御する制御部である。第2撮像ユニット群制御部68は、第1の実施の形態の撮像素子制御部62および画像処理部63(図2参照)と同様の構成が適用された、第1撮像素子制御部621Bと第2撮像素子制御部622Bとを有する撮像素子制御部62Bと、画像処理部63Bとを備える。画像処理部63Bは、第2撮像ユニット群115の第1撮像素子32Bと第2撮像素子42Bとから出力された画像信号を用いて、第1の実施の形態とその変形例の場合と同様にしてHDR画像データを生成する。画像処理部63Bによって生成されるHDR画像データは、撮像装置1の背面(Z方向−側)においてZX平面で180°の広角の画像である。生成されたベース画像データとハイライト画像データとHDR画像データとは、第1の実施の構成(図2参照)と同様の構成が適用される記憶部65に記憶される。 The second imaging unit group control unit 68 is a control unit that controls the operation of the second imaging unit group 115. The second image sensor group control unit 68 has the same configuration as the image sensor control unit 62 and the image processing unit 63 (see FIG. 2) of the first embodiment, and the first image sensor control unit 621B and the second image sensor control unit 68 are applied. 2. The image sensor control unit 62B having the image sensor control unit 622B and the image processing unit 63B are provided. The image processing unit 63B uses the image signals output from the first image sensor 32B and the second image sensor 42B of the second image sensor group 115 in the same manner as in the case of the first embodiment and its modification. HDR image data is generated. The HDR image data generated by the image processing unit 63B is a wide-angle image of 180 ° in the ZX plane on the back surface (Z direction − side) of the image pickup apparatus 1. The generated base image data, highlight image data, and HDR image data are stored in the storage unit 65 to which the same configuration as that of the first embodiment (see FIG. 2) is applied.

全体画像処理部69は、画像処理部63Aにて生成された撮像装置1の正面側の広角のHDR画像データと、画像処理部63Bにて生成された撮像装置1の背面側の広角のHDR画像データとを繋ぎあわせる。これにより、全体画像処理部69によって撮像装置1のZX平面において全周方向の全体HDR画像データが生成される。上述した撮像条件設定部61は、第1撮像ユニット群114および第2撮像ユニット群115の第1撮像素子32A、32Bに対して同一の撮像条件を設定し、第1撮像ユニット群114およびと第2撮像ユニット群115の第2撮像素子42、42Bとに対して同一の撮像条件を設定する。このため、第1撮像ユニット群制御部67の画像処理部63Aで生成されたHDR画像データと、第2撮像ユニット群制御部68の画像処理部63Bで生成されたHDR画像データとの間で、明るさが異なることが抑制される。このため、全体画像処理部69で上記2つのHDR画像データを繋ぎあわせた場合であっても、全体HDR画像データ上で、明るさの違いに起因して繋ぎあわせた箇所に不自然な線が発生するというような画像の劣化が発生することが抑制される。
生成された全体HDR画像データは、第1の実施の構成(図2参照)と同様の構成が適用される記憶部65に記憶される。
The overall image processing unit 69 includes wide-angle HDR image data on the front side of the image pickup device 1 generated by the image processing unit 63A and wide-angle HDR image on the back side of the image pickup device 1 generated by the image processing unit 63B. Connect with the data. As a result, the overall image processing unit 69 generates overall HDR image data in the entire circumferential direction on the ZX plane of the image pickup apparatus 1. The image pickup condition setting unit 61 described above sets the same image pickup conditions for the first image pickup elements 32A and 32B of the first image pickup unit group 114 and the second image pickup unit group 115, and sets the same image pickup conditions for the first image pickup unit group 114 and the first image pickup unit group 114 and the second. The same imaging conditions are set for the second image pickup elements 42 and 42B of the two image pickup unit group 115. Therefore, between the HDR image data generated by the image processing unit 63A of the first imaging unit group control unit 67 and the HDR image data generated by the image processing unit 63B of the second imaging unit group control unit 68, Differences in brightness are suppressed. Therefore, even when the above two HDR image data are joined by the whole image processing unit 69, an unnatural line appears on the whole HDR image data at the joined portion due to the difference in brightness. It is possible to suppress the occurrence of image deterioration such as the occurrence.
The generated overall HDR image data is stored in the storage unit 65 to which the same configuration as that of the first embodiment (see FIG. 2) is applied.

なお、図7、図8で説明した第1撮像ユニット群114と第2撮像ユニット群115とを、それぞれ図6に示す第3撮像ユニット9に置き換えても良い。この場合も、制御部6の構成は、図8に示す構成を適用することができる。
また、第1撮像ユニット群114と第2撮像ユニット群115の第1撮像ユニット3A、3Bが備える濃度フィルタ34A、34Bとして、図5に示す濃度フィルタ35の構成を適用しても良い。
The first imaging unit group 114 and the second imaging unit group 115 described with reference to FIGS. 7 and 8 may be replaced with the third imaging unit 9 shown in FIG. 6, respectively. Also in this case, the configuration shown in FIG. 8 can be applied to the configuration of the control unit 6.
Further, the configuration of the density filter 35 shown in FIG. 5 may be applied as the density filters 34A and 34B included in the first imaging units 3A and 3B of the first imaging unit group 114 and the second imaging unit group 115.

また、上述した第1の実施の形態とその変形例における第1撮像ユニット3、3A、3Bが撮像レンズ31、31A、31Bを有していなくても良い。この場合、第1撮像ユニット3、3A、3Bは、撮像レンズ31、31A、31Bに代えて、たとえば、二次元状の開口を有するマスク部材(たとえば公知のコーデッドアパーチャー)を第1撮像素子32、32A、32Bの前面に配置して、第1撮像素子32、32A、32Bは開口を通過して入力される被写体像を撮像すれば良い。なお、第2撮像ユニット4、4A、4Bおよび第3撮像ユニット9についても同様に、撮像レンズ41、41A、41Bおよび撮像レンズ91を備えずに上記のマスク部材を備えるようにして良い。 Further, the first imaging units 3, 3A and 3B in the above-described first embodiment and its modification may not have the imaging lenses 31, 31A and 31B. In this case, the first image pickup units 3, 3A and 3B replace the image pickup lenses 31, 31A and 31B with, for example, a mask member having a two-dimensional aperture (for example, a known coded aperture) as the first image sensor 32. The first image sensor 32, 32A, 32B may be arranged in front of the 32A, 32B to capture an input subject image passing through the aperture. Similarly, the second imaging units 4, 4A, 4B and the third imaging unit 9 may be provided with the above-mentioned mask member without the imaging lenses 41, 41A, 41B and the imaging lens 91.

なお、第1の実施の形態とその変形例1〜2で説明した撮像装置を、スマートフォン等の携帯電話、テレビ、タブレット端末、デジタルオーディオプレイヤー、パーソナルコンピュータ、内視鏡、カプセル内視鏡、家庭用の防犯カメラを含む監視カメラ、エアコンや冷蔵庫や電子レンジ等の家電などの電子機器に組み込まれる撮像装置に適用することができる。また、デジタルサイネージ(電子看板)等の電子機器に組み込まれる撮像装置に適用することができる。デジタルサイネージとしては、たとえば自動販売機等に内蔵される小型のディスプレイであっても良いし、たとえば建築物の壁面等に設けられるような一般的な成人の大きさよりも大きなディスプレイであっても良い。また、各種のロボット(たとえば自走可能なロボットや、自走式の掃除機のような電子機器)に搭載された撮像装置に適用しても良い。 In addition, the image pickup apparatus described in the first embodiment and the modified examples 1 and 2 thereof can be used in mobile phones such as smartphones, televisions, tablet terminals, digital audio players, personal computers, endoscopes, capsule endoscopes, and home appliances. It can be applied to surveillance cameras including security cameras for personal computers, and imaging devices incorporated in electronic devices such as home appliances such as air conditioners, refrigerators and microwave ovens. Further, it can be applied to an imaging device incorporated in an electronic device such as a digital signage (electronic signboard). The digital signage may be, for example, a small display built in a vending machine or the like, or may be a display larger than the size of a general adult, for example, provided on the wall surface of a building or the like. .. Further, it may be applied to an imaging device mounted on various robots (for example, a self-propelled robot or an electronic device such as a self-propelled vacuum cleaner).

なお、上述した第1の実施の形態とその変形例1〜2では、第1撮像ユニット3と、第2撮像ユニット4と、表示器5と、制御部6と、操作検出部7とを含む撮像装置1を例に説明したが、第1撮像ユニット3と、第2撮像ユニット4と、制御部6とにより構成された撮像装置であっても良い。また、制御部6は、少なくとも撮像素子制御部62と画像処理部63とを備えれば良い。上述の第1の実施の形態、または変形例1〜2に記載された各効果を得るために、上述した構成から必要に応じて構成を適宜追加してもよい。また、上記の撮像装置を、第1の実施の形態とその変形例に適用した各種の電子機器に組み込んでもよい。 The first embodiment described above and the modified examples 1 and 2 include a first imaging unit 3, a second imaging unit 4, a display 5, a control unit 6, and an operation detection unit 7. Although the image pickup device 1 has been described as an example, the image pickup device may be composed of the first image pickup unit 3, the second image pickup unit 4, and the control unit 6. Further, the control unit 6 may include at least an image sensor control unit 62 and an image processing unit 63. In order to obtain the effects described in the first embodiment described above or the modified examples 1 and 2, a configuration may be appropriately added from the above configuration as necessary. Further, the above-mentioned imaging device may be incorporated into various electronic devices applied to the first embodiment and its modifications.

<第2の実施の形態>
図9を参照して第2の実施の形態の撮像装置について説明を行う。第2の実施の形態の撮像装置は、第1の実施の形態とその変形例にて説明したようにして第1撮像素子32と第2撮像素子42とに撮像を行わせた後、短い露光時間で2回目の撮像を行わせる。撮像装置は、この2回目の撮像により得られた画像信号に基づく画像を、HDR処理が施された動画像を再生中に一時停止(ポーズ)のような再生の停止に関する入力が行われた場合に表示させる。以下、詳細に説明する。
<Second Embodiment>
The image pickup apparatus of the second embodiment will be described with reference to FIG. In the image pickup apparatus of the second embodiment, as described in the first embodiment and its modification, the first image pickup element 32 and the second image pickup element 42 perform an image pickup, and then a short exposure is performed. Have the second image taken in time. When an image based on the image signal obtained by the second imaging is input regarding the stop of reproduction such as pause (pause) during reproduction of the HDR-processed moving image. To display. The details will be described below.

第2の実施の形態においては、第1の実施の形態の図1および図2に示す構成を有する撮像装置1と同様の構成を適用することができる。なお、第2の実施の形態の撮像装置1は、図7、図8に示す別の態様の撮像装置であっても良い。また、第2の実施の形態の撮像装置1は、第1の実施の形態の変形例として説明した各種の電子機器に組み込むことが可能である。 In the second embodiment, the same configuration as that of the image pickup apparatus 1 having the configurations shown in FIGS. 1 and 2 of the first embodiment can be applied. The image pickup device 1 of the second embodiment may be an image pickup device of another aspect shown in FIGS. 7 and 8. Further, the image pickup apparatus 1 of the second embodiment can be incorporated into various electronic devices described as a modification of the first embodiment.

図9は、1フレームの間における第1撮像素子32の露光時間と第2撮像素子42の露光時間との関係を模式的に示すタイミングチャートであり、横軸を時刻tとする。また、撮像条件設定部61は、動画像データを生成するための第1撮像ユニット3と第2撮像ユニット4とに対する撮像条件を、第1の実施の形態の場合と同様に設定したものとする。
撮像素子制御部62は、第1撮像素子32と第2撮像素子42とに対して、時刻t1−1にて露光開始を指示し、時刻t1−2にて露光終了を指示する。すなわち、第1の実施の形態の場合と同様にして、第1撮像素子32と第2撮像素子42との撮像が制御され、出力された画像信号が増幅された後、画像処理部63によりハイライト画像データとベース画像データとが生成される。画像処理部63は、ハイライト画像データとベース画像データとをHDR処理により合成して、HDR画像データを動画像データとして生成する。
FIG. 9 is a timing chart schematically showing the relationship between the exposure time of the first image sensor 32 and the exposure time of the second image sensor 42 during one frame, and the horizontal axis is time t. Further, the imaging condition setting unit 61 sets the imaging conditions for the first imaging unit 3 and the second imaging unit 4 for generating moving image data in the same manner as in the case of the first embodiment. ..
The image sensor control unit 62 instructs the first image sensor 32 and the second image sensor 42 to start exposure at time t1-1 and to instruct the end of exposure at time t1-2. That is, as in the case of the first embodiment, the image pickup by the first image pickup element 32 and the second image pickup element 42 is controlled, the output image signal is amplified, and then the image processing unit 63 raises the image. Light image data and base image data are generated. The image processing unit 63 synthesizes the highlight image data and the base image data by HDR processing, and generates HDR image data as moving image data.

第1撮像素子制御部621は、時刻t1−2に第1撮像素子32による露光が終了した後、さらに次フレームの露光を開始する時刻t2−1までの間に、第1撮像素子32に対して2回目の撮像を行わせる。図9に示す例では、第1撮像素子制御部621は、第1撮像素子32に対して、2回目の撮像の露光時間を、動画像データを生成するための露光時間よりも短い時間、たとえば1/500sにて行わせる。なお、露光時間1/500sは一例であり、これよりも短い露光時間であっても良いし、長い露光時間であってもよい。図9に示すように、第1撮像素子制御部621は、時刻t1−2から所定時間が経過した時刻t1−3にて、第1撮像素子32に露光開始を指示し、1/500sが経過した時刻t1−4にて露光終了を指示する。 The first image sensor control unit 621 refers to the first image sensor 32 after the exposure by the first image sensor 32 is completed at time t1-2 and before the time t2-1 when the exposure of the next frame is started. And have the second image taken. In the example shown in FIG. 9, the first image sensor control unit 621 sets the exposure time of the second image pickup to the first image sensor 32 to be shorter than the exposure time for generating moving image data, for example. Let it be done in 1 / 500s. The exposure time of 1 / 500s is an example, and the exposure time may be shorter than this, or the exposure time may be longer. As shown in FIG. 9, the first image sensor control unit 621 instructs the first image sensor 32 to start exposure at time t1-3 when a predetermined time has elapsed from time t1-2, and 1 / 500s has elapsed. The end of exposure is instructed at the time t1-4.

第1撮像素子32により2回目の撮像が行われて出力された画像信号は、増幅部321により増幅された後、画像処理部63により各種の画像処理が施され、一時停止(ポーズ)時に表示器5に表示させるための画像データ(以後、ポーズ用画像データ)として生成される。生成されたポーズ用画像データは記憶部65に記憶される。撮像素子制御部62は、第2フレーム以後の撮像についても、同様にして第1撮像素子32と第2撮像素子42の動作を制御する。 The image signal output after the second image pickup is performed by the first image sensor 32 is amplified by the amplification unit 321 and then subjected to various image processing by the image processing unit 63 and displayed at the time of pause (pause). It is generated as image data to be displayed on the device 5 (hereinafter, pose image data). The generated pose image data is stored in the storage unit 65. The image sensor control unit 62 similarly controls the operations of the first image sensor 32 and the second image sensor 42 for the image pickup after the second frame.

表示制御部64が、上述のようにして生成されたHDR画像データを動画像として表示器5に再生表示している場合に、ユーザにより一時停止(ポーズ)を指示するための操作が行われた場合について説明する。
ユーザにより一時停止のための操作が行われたことが操作検出部7により検出されると、表示制御部64は、記憶部65に記憶されているポーズ用画像データを読み出し、表示器5にポーズ画像として表示させる。このとき、表示制御部64は、一時停止の操作が行われた際に再生表示中のHDR画像データの生成に用いたハイライト画像データおよびベース画像データと、同一のフレームの間に生成されたポーズ用画像データを複数のポーズ用画像データの中から読み出す。なお、表示制御部64は、一時停止の操作が行われたときのフレームの直前のフレームにて生成されたポーズ用画像データを読み出しても良い。
When the display control unit 64 reproduces and displays the HDR image data generated as described above on the display 5 as a moving image, an operation for instructing the user to pause (pause) is performed. The case will be described.
When the operation detection unit 7 detects that the operation for pausing has been performed by the user, the display control unit 64 reads out the pause image data stored in the storage unit 65 and pauses in the display 5. Display as an image. At this time, the display control unit 64 is generated during the same frame as the highlight image data and the base image data used for generating the HDR image data being reproduced and displayed when the pause operation is performed. The pose image data is read out from a plurality of pose image data. The display control unit 64 may read out the pause image data generated in the frame immediately before the frame when the pause operation is performed.

第2の実施の形態の撮像装置1の動画像データを生成するための処理には、図4に示す第1の実施の形態の撮像装置1が行う処理と同様の処理が適用される。ただし、ステップS2においては、第1撮像素子制御部621は、第1撮像素子32に対して、ハイライト画像データのための撮像が終了した後、ポーズ用画像データのための撮像を行わせる。ステップS3では、画像処理部63は、さらに、第1撮像素子32からの画像信号に基づいてポーズ用画像データを生成する。生成されたポーズ用画像データは、ステップS6にて記憶部65に記憶される。 The same processing as that performed by the imaging device 1 of the first embodiment shown in FIG. 4 is applied to the process for generating the moving image data of the imaging device 1 of the second embodiment. However, in step S2, the first image sensor control unit 621 causes the first image sensor 32 to take an image for the pause image data after the image for the highlight image data is completed. In step S3, the image processing unit 63 further generates pause image data based on the image signal from the first image sensor 32. The generated pose image data is stored in the storage unit 65 in step S6.

図10に示すフローチャートを参照して、第2の実施の形態による撮像装置1の動画像の再生表示の動作を説明する。図10のフローチャートに示す各処理は、制御部6でプログラムを実行して行われる。このプログラムは記憶部65に記憶されており、操作検出部7により動画像の撮像を指示する操作が行われたことが検出されると、制御部6により起動され、実行される。
ステップS11では、表示制御部64は、記憶部65からHDR画像データを読み出して、フレームレート60fpsにて動画像として表示器5に再生表示してステップS12へ進む。ステップS12においては、一時停止の操作が行われたか否かを判定する。操作検出部7により一時停止の操作が行われたことが検出された場合には、ステップS12が肯定判定されてステップS13へ進む。操作検出部7により一時停止の操作が行われたことが検出されていない場合には、ステップS12が否定判定されて、後述するステップS16へ進む。
The operation of reproducing and displaying the moving image of the imaging device 1 according to the second embodiment will be described with reference to the flowchart shown in FIG. Each process shown in the flowchart of FIG. 10 is performed by executing a program in the control unit 6. This program is stored in the storage unit 65, and when it is detected that the operation detecting unit 7 has performed an operation instructing the imaging of a moving image, the control unit 6 activates and executes the program.
In step S11, the display control unit 64 reads the HDR image data from the storage unit 65, reproduces and displays it on the display 5 as a moving image at a frame rate of 60 fps, and proceeds to step S12. In step S12, it is determined whether or not the pause operation has been performed. When the operation detection unit 7 detects that the pause operation has been performed, step S12 is determined affirmatively, and the process proceeds to step S13. If the operation detection unit 7 has not detected that the pause operation has been performed, the negative determination in step S12 is made, and the process proceeds to step S16, which will be described later.

ステップS13では、表示制御部64は、記憶部65からポーズ用画像データを読み出してステップS14へ進む。ステップS14では、表示制御部64は、読み出したポーズ用画像データをポーズ画像として表示器5に表示させてステップS15へ進む。ステップS15では、一時停止を終了する操作が行われたか否かが判定される。操作検出部7により一時停止を終了する操作が行われた場合には、ステップS15が肯定判定されステップS16へ進む。操作検出部7により一時停止を終了する操作が行われていない場合には、ステップS15が否定判定されてステップS14へ戻る。ステップS16では、動画像の再生表示を終了するか否かが判定される。動画像の再生表示を終了する場合には、ステップS16が肯定判定されて処理を終了する。動画像の再生表示を継続する場合には、ステップS16が否定判定されてステップS11へ戻る。 In step S13, the display control unit 64 reads the pause image data from the storage unit 65 and proceeds to step S14. In step S14, the display control unit 64 causes the display 5 to display the read pause image data as a pause image, and proceeds to step S15. In step S15, it is determined whether or not the operation for ending the pause has been performed. When the operation detection unit 7 performs an operation to end the pause, step S15 is determined to be affirmative and the process proceeds to step S16. If the operation detection unit 7 has not performed an operation to end the pause, step S15 is determined to be negative and the process returns to step S14. In step S16, it is determined whether or not to end the reproduction display of the moving image. When the reproduction display of the moving image is finished, the affirmative determination is made in step S16, and the process is finished. When the reproduction display of the moving image is continued, the negative determination in step S16 is made and the process returns to step S11.

第2の実施の形態では、表示制御部64は、動画像の再生中に動作像の再生の停止に関する入力がされた場合、動画像とは別の時間に、動画像を撮像する際の露光時間よりも短い露光時間で撮像されたポーズ用画像データに基づくポーズ画像を表示器5に表示させる。これにより、ポーズ用画像データは、第1撮像素子32による短い露光時間で撮像されて出力された画像信号に基づいて生成されているので、表示器5には、ブレの影響の少ない鮮明なポーズ画像を表示させることができる。 In the second embodiment, when the display control unit 64 receives an input regarding stopping the reproduction of the motion image during the reproduction of the moving image, the exposure for capturing the moving image at a time different from that of the moving image. The display 5 is displayed with a pose image based on the pose image data captured with an exposure time shorter than the time. As a result, the pose image data is generated based on the image signal captured and output by the first image sensor 32 in a short exposure time, so that the display 5 has a clear pose that is less affected by blurring. Images can be displayed.

なお、読み出されたポーズ用画像データは、短い露光時間により露光されている。このため、白飛びの発生は抑制されているが、画像全体として適正露光よりもアンダー露光となった暗い画像である。画像処理部63は、この読み出されたポーズ用画像データに対して、画像処理として、たとえば階調補正を施す。すなわち、画像処理部63は、ポーズ用画像データのうちの暗部の階調を明るくする補正を行う。画像処理部63は、階調補正の補正量をベース画像データに基づいて決定することができる。この場合、画像処理部63は、ベース画像データのうち低輝度の領域の画素値を参照し、ポーズ用画像データの暗部の画素値が参照したベース画像データの画素値に一致する、または画像値の差が所定値の範囲内となるように、補正量を決定すれば良い。
上述したように、画像処理部63は、ポーズ用画像データに対して、暗部の階調を補正する画像処理を行う。これにより、被写体のうちの暗部が視認しやすいポーズ画像を表示させることができる。
The read pause image data is exposed with a short exposure time. For this reason, the occurrence of overexposure is suppressed, but the image as a whole is a dark image that is underexposed rather than the proper exposure. The image processing unit 63 performs, for example, gradation correction as image processing on the read out pose image data. That is, the image processing unit 63 corrects the gradation of the dark portion of the pause image data to be brightened. The image processing unit 63 can determine the correction amount of the gradation correction based on the base image data. In this case, the image processing unit 63 refers to the pixel value of the low-brightness region of the base image data, and the pixel value of the dark portion of the pause image data matches the pixel value of the referenced base image data, or the image value. The correction amount may be determined so that the difference between the above values is within the range of the predetermined value.
As described above, the image processing unit 63 performs image processing for correcting the gradation of the dark portion with respect to the pause image data. As a result, it is possible to display a pose image in which the dark part of the subject is easily visible.

また、以上の説明では、撮像素子制御部62は、第1撮像素子32にポーズ用画像データのための撮像を指示したが、第2撮像素子42にポーズ用画像データのための撮像を行わせても良い。また、撮像素子制御部62は、第1撮像素子32と第2撮像素子42とに、短い露光時間(たとえば1/500s)にて2回目の撮像を行わせても良い。この場合、画像処理部63は、第1撮像素子32からの画像信号に基づいて、アンダー露光のポーズ用画像データを生成し、第2撮像素子42からの画像信号に基づいて、オーバー露光のポーズ用画像データを生成する。そして、画像処理部63は、アンダー露光のポーズ用画像データとオーバー露光のポーズ用画像データを、HDR処理により合成して、ポーズ用HDR画像データを生成し、記憶部65に記憶する。表示制御部64は、一時停止の操作が行われた際に、記憶部65からポーズ用HDR画像データを読み出し、表示器5にポーズ画像として表示させる。
これにより、被写体の低輝度の領域と高輝度の領域とにおける階調が再現され、ブレ等の発生が抑制された鮮明なポーズ画像を表示器5に表示することができる。
Further, in the above description, the image sensor control unit 62 instructs the first image sensor 32 to take an image for the pause image data, but causes the second image sensor 42 to take an image for the pause image data. You may. Further, the image sensor control unit 62 may cause the first image sensor 32 and the second image sensor 42 to perform a second image pickup in a short exposure time (for example, 1/500 s). In this case, the image processing unit 63 generates image data for underexposure pause based on the image signal from the first image sensor 32, and pauses for overexposure based on the image signal from the second image sensor 42. Generate image data for. Then, the image processing unit 63 synthesizes the underexposure pose image data and the overexposure pose image data by HDR processing to generate the pose HDR image data, and stores it in the storage unit 65. When the pause operation is performed, the display control unit 64 reads the HDR image data for pause from the storage unit 65 and causes the display 5 to display it as a pause image.
As a result, the gradation in the low-luminance region and the high-luminance region of the subject is reproduced, and a clear pose image in which the occurrence of blurring or the like is suppressed can be displayed on the display 5.

なお、ポーズ用画像データを一時停止用のポーズ画像として用いる場合に限定されない。表示制御部64は、動画の代表画像や、動画の代表画像を示すサムネイル画像に、ポーズ用画像データを用いても良い。また、画像処理部63は、生成されたポーズ用画像データを用いて被写体検出等の処理を行っても良い。ポーズ用画像データは、短い露光時間により撮像された画像であるので、画像上の被写体が受けるブレの影響が小さい。このため、精度よく被写体を検出することが可能となる。 It should be noted that the present invention is not limited to the case where the pause image data is used as the pause image. The display control unit 64 may use the pause image data for the representative image of the moving image or the thumbnail image showing the representative image of the moving image. Further, the image processing unit 63 may perform processing such as subject detection using the generated pose image data. Since the pose image data is an image captured with a short exposure time, the influence of blurring on the subject on the image is small. Therefore, it is possible to detect the subject with high accuracy.

<第2の実施の形態の変形例1>
図11〜図12を参照して第2の実施の形態の変形例1の撮像装置について説明する。本変形例2の撮像装置は、1フレームの間にベース画像データの生成のための撮像とハイライト画像データの生成のための撮像とを複数回行い、生成されたベース画像データとハイライト画像データとを用いて動画像データおよびポーズ画像を生成する点で第2の実施の形態と異なる。以下、詳細に説明する。
<Modification 1 of the second embodiment>
The image pickup apparatus of the first modification of the second embodiment will be described with reference to FIGS. 11 to 12. The image pickup apparatus of the present modification 2 performs imaging for generating base image data and imaging for generating highlight image data a plurality of times in one frame, and the generated base image data and highlight image. It differs from the second embodiment in that moving image data and pose images are generated using the data. The details will be described below.

変形例1の撮像装置は、第2の実施の形態の撮像装置1と同様の構成、すなわち、図1、図2に示す第1の実施の形態の撮像装置1と同様の構成が適用できる。なお、第2の実施の形態の変形例2の撮像装置1は、図7、図8に示す別の態様の撮像装置であっても良い。また、第2の実施の形態の変形例2の撮像装置1は、第1の実施の形態の変形例として説明した各種の電子機器に組み込むことが可能である。 The imaging device of the first modification can be applied with the same configuration as the imaging device 1 of the second embodiment, that is, the same configuration as the imaging device 1 of the first embodiment shown in FIGS. 1 and 2. The image pickup device 1 of the modified example 2 of the second embodiment may be an image pickup device of another aspect shown in FIGS. 7 and 8. Further, the image pickup apparatus 1 of the modification 2 of the second embodiment can be incorporated into various electronic devices described as the modification of the first embodiment.

図11は、第1撮像素子32の露光開始および第2撮像素子42露光時間と、フレームレートとの関係を模式的に示すタイミングチャートであり、横軸を時刻tとする。
なお、以下の説明では、第1撮像素子32および第2撮像素子42による撮像が、1フレームの間に3回行われる場合を例に挙げるが、撮像回数は3回に限定されるものではなく、2回でも良いし、4回以上でも良い。
FIG. 11 is a timing chart schematically showing the relationship between the exposure start of the first imaging element 32 and the exposure time of the second imaging element 42 and the frame rate, and the horizontal axis is time t.
In the following description, the case where the image pickup by the first image sensor 32 and the second image sensor 42 is performed three times in one frame is taken as an example, but the number of times of imaging is not limited to three times. It may be twice or four times or more.

図11に示す例では、撮像条件設定部61は、第1撮像素子32に対して、露光時間をたとえば1/500sに、ISO感度を第1の実施の形態の場合と同様に100に設定したものとする。第1撮像素子制御部621は、時刻t1−1にて第1撮像素子32に、露光時間1/500sにて1回目の撮像を指示し、以後、たとえば1/240sごとに2回目、3回目の撮像を指示する。なお、撮像の間隔は上記の1/240sに限定されるものではなく、たとえば1フレームの間の時間1/60sの1/2〜1/1の時間の間に複数回(図11の例では3回)の撮像が可能となるような間隔に設定することができる。第1撮像素子32により撮像が行われ画像信号が出力されるごとに、画像処理部63は、第1の実施の形態の場合と同様にして画像信号からハイライト画像データを生成する。このハイライト画像データは記憶部65に記憶される。 In the example shown in FIG. 11, the image pickup condition setting unit 61 sets the exposure time to, for example, 1/500 s, and the ISO sensitivity to 100 for the first image sensor 32, as in the case of the first embodiment. It shall be. The first image sensor control unit 621 instructs the first image sensor 32 to take the first image at an exposure time of 1/500 s at time t1-1, and thereafter, for example, every 1 / 240s for the second and third times. Instruct to take an image of. The imaging interval is not limited to the above 1 / 240s, for example, a plurality of times during a time of 1/2 to 1/1 of the time 1 / 60s between one frame (in the example of FIG. 11). The interval can be set so that imaging (3 times) is possible. Each time an image is taken by the first image sensor 32 and an image signal is output, the image processing unit 63 generates highlight image data from the image signal in the same manner as in the case of the first embodiment. This highlight image data is stored in the storage unit 65.

図11に示す例では、撮像条件設定部61は、第2撮像素子42に対して、露光時間を第1撮像素子32と等しい1/500sに設定し、ISO感度を第1の実施の形態の場合よりも高い値(図11の例では100、000)に設定する。すなわち、撮像条件設定部61は、オーバー露光のベース画像データを撮像するための第2撮像素子42に対して露光時間を短く設定したので、ISO感度を第1の実施の形態で例示した値よりも高い値に設定している。第2撮像素子制御部622は、時刻t1−1にて第2撮像素子42に対して1回目の撮像を指示し、以後、1/240sごとに2回目、3回目の撮像を指示する。すなわち、第1撮像素子32と第2撮像素子42とは、共に、時刻t1−1〜t1−3、時刻t1−4〜t1−5、時刻t1−6〜t1−2にて、撮像を行う。第2撮像素子42により撮像が行われ画像信号が出力されるごとに、画像処理部63は、画像信号からベース画像データを生成する。このベース画像データは、ハイライト画像データを撮像する際の露光時間1/500sと同一の露光時間で撮像されている。このベース画像データは記憶部65に記憶される。 In the example shown in FIG. 11, the image pickup condition setting unit 61 sets the exposure time of the second image pickup element 42 to 1/500 s, which is equal to that of the first image pickup element 32, and sets the ISO sensitivity to the ISO sensitivity of the first embodiment. The value is set higher than the case (100,000 in the example of FIG. 11). That is, since the image pickup condition setting unit 61 sets the exposure time shorter than that of the second image pickup element 42 for capturing the overexposure base image data, the ISO sensitivity is set to the value exemplified in the first embodiment. Is also set to a high value. The second image sensor control unit 622 instructs the second image sensor 42 to take the first image at time t1-1, and thereafter instructs the second image sensor 42 to take the second and third images every 1 / 240s. That is, both the first image sensor 32 and the second image sensor 42 perform imaging at time t1-1 to t1-3, time t1-4 to t1-5, and time t1-6 to t1-2. .. Each time an image is taken by the second image sensor 42 and an image signal is output, the image processing unit 63 generates base image data from the image signal. This base image data is captured with the same exposure time as the exposure time of 1 / 500s when the highlight image data is captured. This base image data is stored in the storage unit 65.

画像処理部63は、上記の3つのベース画像データを加算、または加算平均することによりベース加算平均画像データを生成する。また、画像処理部63は、上記3つのハイライト画像データを加算、または加算平均することによりハイライト加算平均画像データを生成する。画像処理部63は、生成したベース加算平均画像データとハイライト画像データとを、第1の実施の形態の場合と同様にして、HDR処理を施してHDR画像データを生成する。生成されたHDR画像データは記憶部65に記憶される。以後のフレームについても同様の処理が行われ、HDR処理が施された動画像データが生成される。 The image processing unit 63 generates the base addition average image data by adding or averaging the above three base image data. Further, the image processing unit 63 generates highlight addition average image data by adding or averaging the above three highlight image data. The image processing unit 63 performs HDR processing on the generated base addition average image data and highlight image data in the same manner as in the case of the first embodiment to generate HDR image data. The generated HDR image data is stored in the storage unit 65. The same processing is performed for the subsequent frames, and HDR-processed moving image data is generated.

図12は、表示器5に再生表示される画像と、HDR画像データの生成に用いられたベース画像データの露光時間と、HDR画像データの生成に用いられたハイライト画像データの露光時間との関係を模式的に示すタイミングチャートであり、撮像時の時刻をt、再生時の時刻をTとする。図12においては、動画像の再生時刻T1、T2に相当する撮像時の時刻がt1−1、t2−1であるものとする。図12において、表示制御部64が、HDR画像データのフレーム順序に従って、HDR画像データを動画像として表示器5に再生表示している際に、時刻T10にて一時停止(ポーズ)の指示が行われたとする。 FIG. 12 shows an image reproduced and displayed on the display 5, an exposure time of the base image data used for generating the HDR image data, and an exposure time of the highlight image data used for generating the HDR image data. It is a timing chart schematically showing the relationship, and the time at the time of imaging is t and the time at the time of reproduction is T. In FIG. 12, it is assumed that the time at the time of imaging corresponding to the reproduction times T1 and T2 of the moving image is t1-1 and t2-1. In FIG. 12, when the display control unit 64 is playing back and displaying the HDR image data as a moving image on the display 5 according to the frame order of the HDR image data, a pause (pause) instruction is given at time T10. Suppose you were.

ユーザにより一時停止のための操作が行われたことが操作検出部7により検出されると、表示制御部64は、再生表示中のHDR画像データの生成に用いられた複数(図示の例では3個)のハイライト画像データの中から1つのハイライト画像データを記憶部65から読み出す。また、表示制御部64は、再生表示中のHDR画像データの生成に用いられた複数(図示の例では3個)のベース画像データの中から1つのベース画像データを記憶部65から読み出す。この場合、表示制御部64は、一時停止が行われた時刻T10に相当する撮像時の時刻の直前に撮像された画像信号から生成されたハイライト画像データおよびベース画像データ(図12においては、図の破線Lよりも前の時刻t1−1〜t1−3で露光されたハイライト画像データおよびハイライト画像データ)を読み出す。 When the operation detection unit 7 detects that the operation for pausing has been performed by the user, the display control unit 64 is used to generate the HDR image data during playback display (3 in the illustrated example). One of the highlight image data is read from the storage unit 65. Further, the display control unit 64 reads out one base image data from the storage unit 65 from the plurality of (three in the illustrated example) base image data used for generating the HDR image data during playback display. In this case, the display control unit 64 sets the highlight image data and the base image data (in FIG. 12 in FIG. 12), the highlight image data and the base image data (in FIG. 12) The highlight image data and the highlight image data exposed at the times t1-1 to t1-3 before the broken line L in the figure are read out.

画像処理部63は、読み出されたハイライト画像データおよびベース画像データに対してHDR処理により合成して、ポーズ画像用のHDR画像データを生成する。表示制御部64は、動画像データであるHDR画像データの次フレームを表示する時刻T2にて、画像処理部63により生成されたポーズ画像用のHDR画像データを表示器に表示させる。ポーズ画像用のHDR画像データは、上述したように露光時間が1/500sであるベース画像データとハイライト画像データとにより生成されている。ベース画像データとハイライト画像データとは、短い露光時間にて撮像されているため、撮像装置1に対して相対的に移動している被写体を撮像した場合であっても、被写体に発生するブレの影響が抑制された鮮明な画像となる。したがって、このようなベース画像データとハイライト画像データとから生成されたポーズ画像用のHDR画像データにおいても、被写体に発生するブレの影響が抑制された鮮明な画像となる。 The image processing unit 63 synthesizes the read highlight image data and the base image data by HDR processing to generate HDR image data for a pause image. The display control unit 64 causes the display to display the HDR image data for the pause image generated by the image processing unit 63 at the time T2 when the next frame of the HDR image data which is the moving image data is displayed. The HDR image data for the pose image is generated by the base image data and the highlight image data having an exposure time of 1/500 s as described above. Since the base image data and the highlight image data are captured in a short exposure time, blurring that occurs in the subject even when a subject that is moving relative to the imaging device 1 is imaged. It becomes a clear image in which the influence of is suppressed. Therefore, even in the HDR image data for the pose image generated from the base image data and the highlight image data, the influence of the blur generated on the subject is suppressed and the image becomes clear.

第2の実施の形態の変形例1の撮像装置1の動画像データを生成するための処理には、図4に示す第1の実施の形態の撮像装置1が行う処理と同様の処理が適用される。ただし、ステップS2においては、撮像素子制御部62は、第1撮像素子32および第2撮像素子42に対して、複数回の撮像を行わせる。ステップS3では、画像処理部63は、第1撮像素子32から複数回出力される画像信号に基づいて複数のハイライト画像データを生成し、第2撮像素子42から複数回出力される画像信号に基づいて複数のベース画像データを生成する。 The same processing as the processing performed by the imaging device 1 of the first embodiment shown in FIG. 4 is applied to the processing for generating the moving image data of the imaging device 1 of the modification 1 of the second embodiment. Will be done. However, in step S2, the image sensor control unit 62 causes the first image sensor 32 and the second image sensor 42 to perform image pickup a plurality of times. In step S3, the image processing unit 63 generates a plurality of highlight image data based on the image signal output a plurality of times from the first image sensor 32, and converts the image signal output from the second image sensor 42 a plurality of times. Generate multiple base image data based on.

第2の実施の形態の変形例1の撮像装置1の動画像の再生表示をするための処理には、図10に示す第2の実施の形態の撮像装置1が行う処理と同様の処理が適用される。ただし、ステップS13において、画像処理部63は、ポーズ用のハイライト画像データとポーズ用のベース画像データとを読み出し、HDR処理による合成を行ってポーズ用のHDR画像データを生成する。ステップS14において、表示制御部64は、生成されたポーズ用のHDR画像データをポーズ画像として表示器5に表示する。 The process for reproducing and displaying the moving image of the image pickup device 1 of the modification 1 of the second embodiment includes the same process as the process performed by the image pickup device 1 of the second embodiment shown in FIG. Applies. However, in step S13, the image processing unit 63 reads out the highlight image data for the pose and the base image data for the pose, synthesizes them by HDR processing, and generates HDR image data for the pose. In step S14, the display control unit 64 displays the generated HDR image data for the pose on the display 5 as a pause image.

第2の実施の形態の変形例1では、撮像素子制御部62は、第1撮像素子32と第2撮像素子42とを短い露光時間にて撮像を行わせ、生成されたベース画像データとハイライト画像データとを合成して、ポーズ画像用のHDR画像データを生成する。これにより、動画像の再生中に一時停止が行われた場合であっても、被写体のブレの発生が抑制された鮮明なポーズ画像を表示器5に表示させることができる。 In the first modification of the second embodiment, the image sensor control unit 62 causes the first image sensor 32 and the second image sensor 42 to take an image in a short exposure time, and the generated base image data and the high image sensor 62 are used. The HDR image data for the pose image is generated by synthesizing the light image data. As a result, even if the pause is performed during the reproduction of the moving image, the display 5 can display a clear pose image in which the occurrence of blurring of the subject is suppressed.

なお、上述した第2の実施の形態とその変形例1では、第1撮像ユニット3と、第2撮像ユニット4と、表示器5と、制御部6と、操作検出部7とを含む撮像装置1を例に説明したが、第1撮像ユニット3と、第2撮像ユニット4と、表示器5と、制御部6とにより構成された撮像装置であっても良い。また、制御部6は、少なくとも撮像素子制御部62と画像処理部63と表示制御部64とを備えれば良い。上述の第2の実施の形態、または変形例1〜2に記載された各効果を得るために、上述した構成から必要に応じて構成を適宜追加してもよい。また、上記の撮像装置を、第2の実施の形態とその変形例に適用した各種の電子機器に組み込んでもよい。 In the second embodiment described above and the first modification thereof, an image pickup device including a first image pickup unit 3, a second image pickup unit 4, a display 5, a control unit 6, and an operation detection unit 7. Although 1 has been described as an example, it may be an imaging device composed of a first imaging unit 3, a second imaging unit 4, a display 5, and a control unit 6. Further, the control unit 6 may include at least an image sensor control unit 62, an image processing unit 63, and a display control unit 64. In order to obtain the effects described in the second embodiment described above or the modified examples 1 and 2, a configuration may be appropriately added from the above configuration as necessary. Further, the above-mentioned imaging device may be incorporated into various electronic devices applied to the second embodiment and its modifications.

第1の実施の形態や第2の実施の形態においては、図1、図2に示す構成を有する撮像装置1を例に挙げて説明を行ったが、撮像装置は、3個以上の撮像ユニットを有してもよい。以下、3個の撮像ユニットを有する場合を例に挙げて、詳細に説明する。
図13(a)は、撮像装置1の外観図である。撮像装置1の本体2の正面には、第1の実施の形態(図1、図2参照)と同様の第1撮像ユニット3および第2撮像ユニット4に加えて、第4撮像ユニット8を備える。図13(a)に示す例では、第1撮像ユニット3の光軸中心と、第2撮像ユニット4の光軸中心と、第4撮像ユニット8の光軸中心とが、互いに等距離となるように配置されている場合を示す。なお、第1撮像ユニット3と第2撮像ユニット4と第4撮像ユニット8との配置はこれに限定されず、X方向またはY方向に沿って配置されても良いし、X方向またはY方向に対して所定の角度を有して配置されても良い。
In the first embodiment and the second embodiment, the image pickup apparatus 1 having the configurations shown in FIGS. 1 and 2 has been described as an example, but the image pickup apparatus has three or more imaging units. May have. Hereinafter, a case of having three imaging units will be described in detail by taking as an example.
FIG. 13A is an external view of the image pickup apparatus 1. A fourth imaging unit 8 is provided on the front surface of the main body 2 of the imaging device 1 in addition to the first imaging unit 3 and the second imaging unit 4 similar to those in the first embodiment (see FIGS. 1 and 2). .. In the example shown in FIG. 13A, the center of the optical axis of the first imaging unit 3, the center of the optical axis of the second imaging unit 4, and the center of the optical axis of the fourth imaging unit 8 are equidistant from each other. Indicates the case where it is arranged in. The arrangement of the first imaging unit 3, the second imaging unit 4, and the fourth imaging unit 8 is not limited to this, and may be arranged along the X direction or the Y direction, or in the X direction or the Y direction. On the other hand, they may be arranged at a predetermined angle.

図13(b)は、図13(a)に示す撮像装置1の要部構成を模式的に示すブロック図である。撮像装置1が有する上記の第4撮像ユニット8は、撮像レンズ81と第3撮像素子82と絞り83とを有する。撮像レンズ81は、第1撮像ユニット3や第2撮像ユニット4の撮像レンズ31、41と同様の構成が適用され、第3撮像素子82は、第1撮像素子32や第2撮像素子42と同様の構成が適用され、画像信号を増幅するための増幅部821を有する。制御部6の撮像素子制御部62は第4撮像ユニット8の第3撮像素子82の駆動を制御するための第3撮像素子制御部623を備える。第3撮像素子制御部623は、第1撮像素子制御部621や第2撮像素子制御部622と同様の構成が適用される。他の構成については、第1の実施の形態(図2参照)の撮像装置1が有する構成が適用される。すなわち、変形例1の撮像装置1は、上記の構成に加えて、第1撮像ユニット3と、第2撮像ユニット4と、表示器5と、制御部6と、操作検出部7とを有している。制御部6は、撮像条件設定部61と、撮像素子制御部62と、画像処理部63と、表示制御部64と、記憶部65とを備える。
なお、この撮像装置1は、図7、図8に示す別の態様の撮像装置であっても良いし、第1の実施の形態の変形例として説明した各種の電子機器に組み込むことが可能である。
FIG. 13B is a block diagram schematically showing a configuration of a main part of the image pickup apparatus 1 shown in FIG. 13A. The fourth image pickup unit 8 included in the image pickup apparatus 1 includes an image pickup lens 81, a third image pickup element 82, and an aperture 83. The image pickup lens 81 has the same configuration as the image pickup lenses 31 and 41 of the first image pickup unit 3 and the second image pickup unit 4, and the third image pickup element 82 has the same configuration as the first image pickup element 32 and the second image pickup element 42. The configuration of is applied, and has an amplification unit 821 for amplifying an image signal. The image sensor control unit 62 of the control unit 6 includes a third image sensor control unit 623 for controlling the drive of the third image sensor 82 of the fourth image sensor 8. The third image sensor control unit 623 has the same configuration as the first image sensor control unit 621 and the second image sensor control unit 622. For other configurations, the configuration of the imaging device 1 of the first embodiment (see FIG. 2) is applied. That is, the image pickup device 1 of the modification 1 has, in addition to the above configuration, a first image pickup unit 3, a second image pickup unit 4, a display 5, a control unit 6, and an operation detection unit 7. ing. The control unit 6 includes an image pickup condition setting unit 61, an image sensor control unit 62, an image processing unit 63, a display control unit 64, and a storage unit 65.
The image pickup device 1 may be an image pickup device of another aspect shown in FIGS. 7 and 8, and can be incorporated into various electronic devices described as a modification of the first embodiment. is there.

この撮像装置1においては、第4撮像ユニット8により、高輝度領域と低輝度領域との間の中間輝度の領域に階調が得られるように設定された撮像条件による撮像を行わせる。 撮像条件設定部61は、第1の実施の形態と同様にして、第1撮像素子32と第2撮像素子42とに対して撮像条件を設定する。すなわち、撮像条件設定部61は、第1撮像素子32に対しては、撮像条件として、露光時間1/120s、ISO感度100を設定し、第2撮像素子42に対しては、撮像条件として露光時間1/120s、ISO感度12800を設定する。第3撮像素子82に対しては、撮像条件設定部61は、第1撮像素子32からの画像信号に基づくハイライト画像データと、第2撮像素子42からの画像信号に基づくベース画像データとの中間の明るさの画像データが生成されるように、撮像条件を設定する。撮像条件設定部61は、露光時間1/120s、ISO感度をたとえば800に設定する。 In the imaging device 1, the fourth imaging unit 8 causes imaging under imaging conditions set so that gradation can be obtained in an intermediate luminance region between a high luminance region and a low luminance region. The image pickup condition setting unit 61 sets the image pickup conditions for the first image pickup element 32 and the second image pickup element 42 in the same manner as in the first embodiment. That is, the image pickup condition setting unit 61 sets the exposure time 1/120 s and the ISO sensitivity 100 for the first image sensor 32 as the image pickup conditions, and exposes the second image sensor 42 as the image pickup conditions. Set the time 1/120 s and ISO sensitivity 12800. For the third image sensor 82, the image pickup condition setting unit 61 includes highlight image data based on the image signal from the first image sensor 32 and base image data based on the image signal from the second image sensor 42. The image pickup conditions are set so that image data with intermediate brightness is generated. The imaging condition setting unit 61 sets the exposure time to 1 / 120s and the ISO sensitivity to, for example, 800.

画像処理部63は、第1および第2の実施の形態の場合と同様にして、ハイライト画像データとベース画像データとを生成する。画像処理部63は、第3撮像素子82から出力された画像信号が設定されたISO感度(800)に基づいて増幅された後、画像データ(以後、中間輝度画像データと呼ぶ)を生成する。画像処理部63は、生成したベース画像データと、ハイライト画像データと、中間輝度画像データとに対してHDR処理により合成して、HDR画像データを生成する。このようにして生成されたHDR画像データは、第1の実施の形態の場合と同様に低輝度の被写体については、オーバー露光にて撮像されたベース画像データにより鮮明に再現される。HDR画像データでは、白飛びの発生する可能性のある高輝度の被写体については、アンダー露光となる第1撮像条件にて撮像されたハイライト画像データにより鮮明に再現される。HDR画像データでは、中輝度の被写体については、ベース画像データの撮像時の撮像条件とハイライト画像データの撮像時の撮像条件との中間の露光量となる撮像条件にて撮像された中間輝度画像データにより鮮明に再現される。 The image processing unit 63 generates the highlight image data and the base image data in the same manner as in the cases of the first and second embodiments. The image processing unit 63 generates image data (hereinafter referred to as intermediate brightness image data) after the image signal output from the third imaging element 82 is amplified based on the set ISO sensitivity (800). The image processing unit 63 synthesizes the generated base image data, highlight image data, and intermediate brightness image data by HDR processing to generate HDR image data. The HDR image data generated in this way is clearly reproduced by the base image data captured by overexposure for a low-luminance subject as in the case of the first embodiment. In the HDR image data, a high-brightness subject that may cause overexposure is clearly reproduced by the highlight image data captured under the first imaging condition of underexposure. In the HDR image data, for a medium-brightness subject, an intermediate-brightness image captured under imaging conditions that is an intermediate exposure amount between the imaging conditions at the time of imaging the base image data and the imaging conditions at the time of imaging the highlight image data It is clearly reproduced by the data.

図13に示す撮像装置1では、画像処理部63は、第4撮像素子82からの画像信号に基づいて、中間輝度画像データを生成し、ハイライト画像データおよびベース画像データと合成してHDR画像データを生成する。これにより、たとえば、明暗差の大きな被写体を撮像した場合であっても、HDR画像データ上では、中輝度の被写体が中間輝度画像データに基づいて階調が再現されるので、HDR画像データは、全体として広いダイナミックレンジを有する画像となる。 In the image pickup apparatus 1 shown in FIG. 13, the image processing unit 63 generates intermediate brightness image data based on the image signal from the fourth image pickup element 82, combines it with the highlight image data and the base image data, and makes an HDR image. Generate data. As a result, for example, even when a subject having a large difference in brightness is imaged, the gradation of the medium-luminance subject is reproduced based on the intermediate-luminance image data on the HDR image data, so that the HDR image data can be obtained. The image has a wide dynamic range as a whole.

なお、上述した実施の形態に記載された撮像装置1は、表示器5を有する構成で説明したが、必ずしも表示器5を有する必要はない。
また、撮像装置1の画像処理部63によって、ハイライト画像データとベース画像データとを合成して、HDR画像データを生成したが、撮像装置1でHDR画像データを生成する必要は必ずしもない。画像処理部63は撮像装置1の外部に配置され(例えば、画像処理部63は、撮像装置の外部に設置されるサーバ、または撮像機能と、画像処理機能および表示器5と、が別体となるような撮像装置)、撮像装置1が備える通信部によって、ハイライト画像データとベース画像データを画像処理部63に送信し、画像処理部63でHDR画像データを生成してもよい。撮像装置1が表示器5を備える場合は、画像処理部63は生成したHDR画像データを撮像装置1に送信し、撮像装置1の表示器5でHDR画像データを表示可能な状態にしてもよい。また、画像処理部63側が表示器5を備える場合は、生成したHDR画像データを表示器5に表示してもよい。
Although the image pickup apparatus 1 described in the above-described embodiment has been described with the configuration having the display device 5, it is not always necessary to have the display device 5.
Further, although the image processing unit 63 of the image pickup apparatus 1 synthesizes the highlight image data and the base image data to generate the HDR image data, it is not always necessary for the image pickup apparatus 1 to generate the HDR image data. The image processing unit 63 is arranged outside the image pickup apparatus 1 (for example, the image processing unit 63 is a server or an image pickup function installed outside the image pickup apparatus, and the image processing function and the display 5 are separate bodies. The highlight image data and the base image data may be transmitted to the image processing unit 63 by the communication unit included in the image processing device 1 and the image processing unit 63 may generate HDR image data. When the image pickup device 1 includes the display device 5, the image processing unit 63 may transmit the generated HDR image data to the image pickup device 1 so that the display device 5 of the image pickup device 1 can display the HDR image data. .. Further, when the image processing unit 63 side includes the display 5, the generated HDR image data may be displayed on the display 5.

撮像装置1が撮像動作を行うために実行する各種処理のためのプログラムをコンピュータ読み取り可能な記録媒体に記録しておき、このプログラムをコンピュータシステムに読み込ませて、キャリブレーションを実行してもよい。なお、ここで言う「コンピュータシステム」とは、OS(OperatingSystem)や周辺機器等のハードウェアを含むものであってもよい。 A program for various processes executed by the image pickup apparatus 1 to perform an image pickup operation may be recorded on a computer-readable recording medium, and this program may be read into a computer system to execute calibration. The "computer system" referred to here may include hardware such as an OS (Operating System) and peripheral devices.

なお、上記「コンピュータシステム」は、WWWシステムを利用したホームページ提供環境(あるいは表示環境)も含む。また、上記「コンピュータ読み取り可能な記録媒体」は、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに上記「コンピュータ読み取り可能な記録媒体」は、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(DynamicRandom AccessMemory))のように、一定時間プログラムを保持しているものも含む。 The above-mentioned "computer system" also includes a homepage providing environment (or display environment) using a WWW system. The "computer-readable recording medium" includes a flexible disk, a magneto-optical disk, a ROM, a writable non-volatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, and the like. It refers to the storage device of. Further, the above-mentioned "computer-readable recording medium" is a volatile memory inside a computer system (for example, DRAM (Dynamic Random)) that serves as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Includes those that hold the program for a certain period of time, such as AccessMemory)).

上記「プログラム」は、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The above-mentioned "program" may be transmitted from a computer system in which this program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned functions in combination with a program already recorded in the computer system.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。 The present invention is not limited to the above-described embodiment as long as the features of the present invention are not impaired, and other embodiments considered within the scope of the technical idea of the present invention are also included within the scope of the present invention. ..

1…撮像装置、3…第1撮像ユニット、4…第2撮像ユニット、
5…表示器、6…制御部、7…操作検出部、
8…第4撮像ユニット、9…第3撮像ユニット、
34、35…濃度フィルタ、32、92…第1撮像素子、
42、93…第2撮像素子、61…撮像条件設定部、
62…撮像素子制御部、63…画像処理部、64…表示制御部、
65…記憶部、66…透過率制御部、67…第1撮像ユニット群制御部、
68…第2撮像ユニット群制御部、69…全体画像処理部、82…第3撮像素子、
114…第1撮像ユニット群、115…第2撮像ユニット群、
321、421、821、921…増幅部、
322…第1カラーフィルター、422…第2カラーフィルター
621…第1撮像素子制御部、622…第2撮像素子制御部、
623…第3撮像素子制御部
1 ... Imaging device, 3 ... First imaging unit, 4 ... Second imaging unit,
5 ... Display, 6 ... Control unit, 7 ... Operation detection unit,
8 ... 4th imaging unit, 9 ... 3rd imaging unit,
34, 35 ... Density filter, 32, 92 ... First image sensor,
42, 93 ... 2nd image sensor, 61 ... Image condition setting unit,
62 ... Image sensor control unit, 63 ... Image processing unit, 64 ... Display control unit,
65 ... Storage unit, 66 ... Transmittance control unit, 67 ... First imaging unit group control unit,
68 ... 2nd imaging unit group control unit, 69 ... overall image processing unit, 82 ... 3rd imaging element,
114 ... 1st imaging unit group, 115 ... 2nd imaging unit group,
321, 421, 821, 921 ... Amplification unit,
322 ... 1st color filter, 422 ... 2nd color filter 621 ... 1st image sensor control unit, 622 ... 2nd image sensor control unit,
623 ... Third image sensor control unit

Claims (27)

被写体が第1露光時間で撮像された第1画像信号を出力する第1撮像素子と、
前記被写体が第2露光時間で撮像された第2画像信号を出力する第2撮像素子と、
前記第1画像信号と前記第2画像信号とを異なるゲインで増幅する増幅部と、
前記増幅部によって増幅された前記第1画像信号に基づく第1画像データと、前記増幅部によって増幅された前記第2画像信号に基づく第2画像データとを合成し、合成画像データを生成する制御部とを備え、
前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行われ
前記第2撮像素子は、前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行い第3画像信号を出力し、
前記第3画像信号に基づく画像は、前記合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示される撮像装置。
A first image sensor that outputs a first image signal in which the subject is imaged in the first exposure time,
A second image sensor that outputs a second image signal captured by the subject in the second exposure time, and
An amplification unit that amplifies the first image signal and the second image signal with different gains,
Control to combine the first image data based on the first image signal amplified by the amplification unit and the second image data based on the second image signal amplified by the amplification unit to generate composite image data. With a department
At least one of the start of exposure for imaging at the first exposure time and the end of exposure for imaging at the first exposure time is performed during the imaging at the second exposure time .
The second image sensor captures an image in a third exposure time shorter than the second exposure time between the end of the exposure of the image in the second exposure time and the start of the exposure of the image in the next second exposure time. Output the third image signal
It said third image based on the image signal, scale in which these imaging device when the stop of reproduction during playback of the moving image based on the composite image data is set.
請求項1に記載の撮像装置であって、
前記第2撮像素子に入射する第2入射光の光量よりも前記第1撮像素子に入射する第1入射光の光量が少なくなるように、少なくとも前記第1入射光の光路に設置される光学部材を更に備え、
前記増幅部は、前記第2画像信号を増幅するゲインより前記第1画像信号を増幅するゲインの方が小さい撮像装置。
The imaging device according to claim 1.
An optical member installed in the optical path of at least the first incident light so that the amount of the first incident light incident on the first image sensor is smaller than the amount of light of the second incident light incident on the second image sensor. With more
The amplification unit is an imaging device in which the gain for amplifying the first image signal is smaller than the gain for amplifying the second image signal.
請求項2に記載の撮像装置であって、
前記第1撮像素子に入射する光を集光するレンズを更に備え、
前記光学部材は、前記レンズにコーティングされる撮像装置。
The imaging device according to claim 2.
A lens that collects the light incident on the first image sensor is further provided.
The optical member is an imaging device coated on the lens.
請求項2に記載の撮像装置であって、
前記第2撮像素子に入射する光の特定波長を透過する第1フィルタを更に有し、
前記光学部材は、前記第1撮像素子に入射する光の特定の波長を透過し、第2フィルタよりも透過率の低い第1フィルタである撮像装置。
The imaging device according to claim 2.
It further has a first filter that transmits a specific wavelength of light incident on the second image sensor.
The optical member is an image pickup apparatus that is a first filter that transmits a specific wavelength of light incident on the first image pickup device and has a lower transmittance than the second filter.
請求項2に記載の撮像装置であって、
前記光学部材は、前記光学部材に入射した光を前記第1入射光と前記第2入射光とに分割する撮像装置。
The imaging device according to claim 2.
The optical member is an imaging device that divides light incident on the optical member into the first incident light and the second incident light.
請求項2に記載の撮像装置であって、
前記光学部材は、前記第1入射光の光を低減する状態と前記第1入射光の光量を低減しない状態とを変更可能である撮像装置。
The imaging device according to claim 2.
The optical member is an imaging device capable of changing between a state in which the light of the first incident light is reduced and a state in which the amount of light of the first incident light is not reduced.
請求項2に記載の撮像装置であって、
前記光学部材は、前記第1入射光の透過率を変更する撮像装置。
The imaging device according to claim 2.
The optical member is an imaging device that changes the transmittance of the first incident light.
請求項2に記載の撮像装置であって、
前記光学部材は、前記第1入射光の光束径を変更せずに、前記第1入射光の光量を低減させる撮像装置。
The imaging device according to claim 2.
The optical member is an imaging device that reduces the amount of light of the first incident light without changing the luminous flux diameter of the first incident light.
請求項1に記載の撮像装置であって、
前記合成画像データは、所定フレームレートで生成される動画像であり、
前記第2露光時間は、前記所定フレームレートの1/4以上の時間である撮像装置。
The imaging device according to claim 1.
The composite image data is a moving image generated at a predetermined frame rate, and is
The second exposure time is an imaging device having a time of 1/4 or more of the predetermined frame rate.
請求項2に記載の撮像装置であって、
前記第2撮像素子に入射する第2入射光の光量よりも前記第1撮像素子に入射する第1入射光の光量が少なくなるように、少なくとも前記第1入射光の光路に設置される光学部材を更に備え、
前記光学部材は、前記第2露光時間、前記増幅部によって前記第2画像信号を増幅するゲインに基づくEV値が14EV以上になるように設定され、
前記増幅部は、前記第1画像信号を増幅するゲインより前記第2画像信号を増幅するゲインの方が小さい撮像装置。
The imaging device according to claim 2.
An optical member installed in the optical path of at least the first incident light so that the amount of the first incident light incident on the first image sensor is smaller than the amount of light of the second incident light incident on the second image sensor. With more
The optical member is set so that the EV value based on the gain for amplifying the second image signal by the amplification unit during the second exposure time is 14 EV or more.
The amplification unit is an imaging device in which the gain for amplifying the second image signal is smaller than the gain for amplifying the first image signal.
請求項3に記載の撮像装置であって、
前記光学部材は、透過率が1/16×100%以下である撮像装置。
The imaging device according to claim 3.
The optical member is an imaging device having a transmittance of 1/16 × 100% or less.
請求項1に記載の撮像装置であって、
前記合成画像データは、前記第2画像データの低輝度領域を前記第1画像データに基づいて、前記第2画像データよりも高輝度に補正して生成される撮像装置。
The imaging device according to claim 1.
The composite image data is an imaging device generated by correcting a low-luminance region of the second image data to a higher brightness than the second image data based on the first image data.
請求項1に記載の撮像装置であって、
前記合成画像データは、所定のフレームレートで生成される動画像であり、
前記第1露光時間と前記第2露光時間とは、前記所定のフレームレートの半分よりも長い撮像装置。
The imaging device according to claim 1.
The composite image data is a moving image generated at a predetermined frame rate, and is
The first exposure time and the second exposure time are longer than half of the predetermined frame rate.
請求項1に記載の撮像装置であって、
前記第1露光時間は、前記第2露光時間と同じ時間である撮像装置。
The imaging device according to claim 1.
The image pickup apparatus in which the first exposure time is the same as the second exposure time.
請求項1に記載の撮像装置であって、
前記第1撮像素子は、前記第1画像信号を第1フレームレートで出力し、
前記第2撮像素子は、前記第2画像信号を第2フレームレートで出力し、
前記制御部は、前記第1フレームレートで出力された前記第1画像信号に基づく前記第1画像データと前記第2フレームレートで出力された前記第2画像信号に基づく前記第2画像データとを合成し、第3フレームレートの前記合成画像データに基づく動画像を生成する撮像装置。
The imaging device according to claim 1.
The first image sensor outputs the first image signal at the first frame rate.
The second image sensor outputs the second image signal at a second frame rate.
The control unit obtains the first image data based on the first image signal output at the first frame rate and the second image data based on the second image signal output at the second frame rate. An imaging device that synthesizes and generates a moving image based on the composite image data at a third frame rate.
請求項15に記載の撮像装置であって、
前記第1フレームレートと、前記第3フレームレートとは、同じフレームレートである撮像装置。
The imaging device according to claim 15.
An imaging device in which the first frame rate and the third frame rate are the same frame rate.
請求項1から16までのいずれか一項に記載の撮像装置であって、
表示部に再生された前記動画像に対する設定を行う入力部を更に備え、
前記制御部は、前記動画像の再生中に、前記入力部によって前記動画像の再生の停止に関する入力がされた場合、前記第3画像信号に基づく画像を前記表示部に表示する撮像装置。
The imaging device according to any one of claims 1 to 16 .
The display unit is further provided with an input unit for setting the reproduced moving image.
The control unit is an imaging device that displays an image based on the third image signal on the display unit when an input regarding stopping reproduction of the moving image is input by the input unit during reproduction of the moving image.
請求項17に記載の撮像装置であって、
前記第1撮像素子は、前記第1露光時間での撮像の露光終了から次の前記第1露光時間での撮像の露光開始までの間に、前記第1露光時間よりも短い第4露光時間で撮像を行い、第4画像信号を出力し、
前記制御部は、前記動画像の再生中に、前記入力部によって前記動画像の再生の停止に関する入力がされた場合、前記第3画像信号に基づく第3画像データと、前記第4画像信号に基づく第4画像データとを合成した画像データに基づく画像を前記表示部に表示する撮像装置。
The imaging device according to claim 17 .
The first image sensor has a fourth exposure time shorter than the first exposure time between the end of the exposure of the image pickup in the first exposure time and the start of the next exposure of the image pickup in the first exposure time. Take an image, output the 4th image signal,
When the input unit receives an input regarding stopping the reproduction of the moving image during the reproduction of the moving image, the control unit converts the third image data based on the third image signal and the fourth image signal into the third image data. An imaging device that displays an image based on the image data obtained by combining the fourth image data based on the image data on the display unit.
請求項17または請求項18に記載の撮像装置
前記表示部とを備えた表示装置。
The imaging device according to claim 17 or 18 .
Display device having said display portion.
請求項1から請求項18のいずれか一項に記載の撮像装置を備えた電子機器 An electronic device including the imaging device according to any one of claims 1 to 18. 被写体が第1露光時間で撮像された第1画像信号を出力し、
前記被写体が第2露光時間で撮像された第2画像信号を出力し、
前記第1画像信号と前記第2画像信号とを異なるゲインで増幅し、
増幅された前記第1画像信号に基づく第1画像データと、増幅された前記第2画像信号に基づく第2画像データとを合成し、合成画像データを生成し、
前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行われ
前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行い第3画像信号を出力し、
前記第3画像信号に基づく画像は、前記合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示される撮像方法
Outputs the first image signal captured by the subject during the first exposure time,
The second image signal captured by the subject in the second exposure time is output.
The first image signal and the second image signal are amplified with different gains.
The first image data based on the amplified first image signal and the second image data based on the amplified second image signal are combined to generate composite image data.
At least one of the start of exposure for imaging at the first exposure time and the end of exposure for imaging at the first exposure time is performed during the imaging at the second exposure time .
Between the end of the exposure of the imaging in the second exposure time and the start of the exposure of the imaging in the next second exposure time, the image is taken in the third exposure time shorter than the second exposure time and the third image signal is output. And
The image is based on the third image signal, scale in which these imaging methods when stopping playback during playback of the moving image based on the synthesized image data is set.
コンピュータに実行させるためのプログラムであって、
被写体が第1露光時間で撮像された第1画像信号を出力する処理と、
前記被写体が第2露光時間で撮像された第2画像信号を出力する処理と、
前記第1画像信号と前記第2画像信号とを異なるゲインで増幅する処理と、
増幅された前記第1画像信号に基づく第1画像データと、増幅された前記第2画像信号に基づく第2画像データとを合成し、合成画像データを生成する処理と、
前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行う処理と、
前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行い第3画像信号を出力する処理と、
前記第3画像信号に基づく画像を、前記合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示する処理とをコンピュータに実行させるためのプログラム。
A program that lets a computer run
The process of outputting the first image signal captured by the subject during the first exposure time,
A process of outputting a second image signal captured by the subject in the second exposure time, and
A process of amplifying the first image signal and the second image signal with different gains,
A process of synthesizing the first image data based on the amplified first image signal and the second image data based on the amplified second image signal to generate composite image data.
At least one of the start of exposure for imaging at the first exposure time and the end of exposure for imaging at the first exposure time is a process performed during the imaging at the second exposure time and
Between the end of the exposure of the imaging in the second exposure time and the start of the exposure of the imaging in the next second exposure time, the image is taken in the third exposure time shorter than the second exposure time and the third image signal is output. Processing to do and
A program for causing a computer to execute a process of displaying an image based on the third image signal when playback stop is set during playback of a moving image based on the composite image data .
被写体が第1露光時間で撮像された第1画像信号を出力する第1撮像素子と、
前記被写体が第2露光時間で撮像された第2画像信号を出力する第2撮像素子と、
前記第1画像信号と前記第2画像信号とを異なるゲインで増幅する増幅部と、
外部の電子機器と通信を行う第1通信部と、
第1ゲイン増幅部によってゲインが増幅された前記第1画像信号に基づく第1画像データと、第2ゲイン増幅部によってゲインが増幅された前記第2画像信号に基づく第2画像データとを前記外部の電子機器に前記第1通信部を介して送信する第1制御部とを備え、
前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行われ
前記第2撮像素子は、前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行い第3画像信号を出力し、
前記第3画像信号に基づく画像は、前記第1画像データと前記第2画像データとを合成した合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示される撮像装置。
A first imaging element that outputs a first image signal imaged by the subject in the first exposure time, and
A second image sensor that outputs a second image signal captured by the subject in the second exposure time, and
An amplification unit that amplifies the first image signal and the second image signal with different gains,
The first communication unit that communicates with external electronic devices,
The external first image data based on the first image signal whose gain is amplified by the first gain amplification unit and the second image data based on the second image signal whose gain is amplified by the second gain amplification unit are external. The electronic device is provided with a first control unit that transmits data via the first communication unit.
At least one of the start of exposure for imaging at the first exposure time and the end of exposure for imaging at the first exposure time is performed during the imaging at the second exposure time .
The second image sensor captures an image in a third exposure time shorter than the second exposure time between the end of the exposure of the image in the second exposure time and the start of the exposure of the image in the next second exposure time. Output the third image signal
Images, the first image data and the second image data and the synthesized composite image scale in which these imaging device when the data playback is stopped during playback of a moving image based on is set based on the third image signal ..
請求項23に記載の撮像装置と、
前記第1画像データと前記第2画像データとを受信する第2通信部と、
前記第1画像データと前記第2画像データとを合成し、合成画像データを生成する第2制御部とを備える画像処理装置とを備える撮像システム。
The imaging device according to claim 23 ,
A second communication unit that receives the first image data and the second image data, and
An image pickup system including an image processing device including a second control unit that synthesizes the first image data and the second image data and generates the composite image data.
請求項24に記載の撮像システム
記合成画像データに基づく合成画像を表示する表示部とを備える表示システム。
The imaging system according to claim 24 ,
Display system comprising a display unit for displaying the synthesized image based on the previous SL composite image data.
被写体が第1露光時間で撮像された第1画像信号を出力する第1撮像素子と、前記被写体が第2露光時間で撮像された第2画像信号を出力する第2撮像素子と、前記第1画像信号と前記第2画像信号とを異なるゲインで増幅する増幅部とを有し、前記第1露光時間での撮像の露光開始および前記第1露光時間での撮像の露光終了の少なくとも一方は、前記第2露光時間の撮像の間に行われ、前記第2撮像素子は、前記第2露光時間での撮像の露光終了から次の第2露光時間の撮像の露光開始までの間に、前記第2露光時間よりも短い第3露光時間で撮像を行う第3画像信号を出力する撮像装置から、第1ゲイン増幅部によってゲインが増幅された前記第1画像信号に基づく第1画像データと、第2ゲイン増幅部によってゲインが増幅された前記第2画像信号に基づく第2画像データとを受信する通信部と、
前記第1画像データと前記第2画像データとを合成し、合成画像データを生成する制御部とを備え
前記第3画像信号に基づく画像は、前記合成画像データに基づく動画像の再生中に再生の停止が設定された場合に表示される画像処理装置。
A first image sensor that outputs a first image signal in which the subject is imaged in the first exposure time, a second image sensor that outputs a second image signal in which the subject is imaged in the second exposure time, and the first image sensor. It has an amplification unit that amplifies the image signal and the second image signal with different gains, and at least one of the exposure start of the image pickup at the first exposure time and the exposure end of the image pickup at the first exposure time is It is performed during the imaging of the second exposure time, and the second image sensor performs the second exposure between the end of the exposure of the imaging in the second exposure time and the start of the exposure of the imaging in the next second exposure time. from the imaging device you output the third image signal for imaging at shorter than 2 exposure time third exposure time, and the first image data based on the gain is amplified by the first gain amplifying unit first image signal, A communication unit that receives the second image data based on the second image signal whose gain is amplified by the second gain amplification unit, and
A control unit that synthesizes the first image data and the second image data and generates composite image data is provided .
Said third image based on the image signal, an image processing apparatus that will be displayed when the composite image data playback is stopped during playback of a moving image based on is set.
請求項26に記載の画像処理装置
前記合成画像データに基づく画像を表示する表示部とを備える表示装置。
The image processing apparatus according to claim 26 and
Display device comprising a display unit for displaying an image based on the synthesized image data.
JP2016194146A 2016-09-30 2016-09-30 Imaging equipment, display equipment, electronic devices, imaging methods, programs, imaging systems, display systems and image processing equipment Active JP6776776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016194146A JP6776776B2 (en) 2016-09-30 2016-09-30 Imaging equipment, display equipment, electronic devices, imaging methods, programs, imaging systems, display systems and image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016194146A JP6776776B2 (en) 2016-09-30 2016-09-30 Imaging equipment, display equipment, electronic devices, imaging methods, programs, imaging systems, display systems and image processing equipment

Publications (2)

Publication Number Publication Date
JP2018056940A JP2018056940A (en) 2018-04-05
JP6776776B2 true JP6776776B2 (en) 2020-10-28

Family

ID=61834203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016194146A Active JP6776776B2 (en) 2016-09-30 2016-09-30 Imaging equipment, display equipment, electronic devices, imaging methods, programs, imaging systems, display systems and image processing equipment

Country Status (1)

Country Link
JP (1) JP6776776B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102679091B1 (en) * 2021-07-29 2024-06-26 동의대학교 산학협력단 System and method for controlling volume of water purification customized for cooking

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210035369A (en) 2019-09-23 2021-04-01 삼성전자주식회사 Electronic device for performing video hdr process based on image data obtained by plurality of image sensors
CN112911094A (en) * 2019-12-04 2021-06-04 索尼半导体解决方案公司 Electronic device
WO2023115390A1 (en) * 2021-12-22 2023-06-29 深圳市大疆创新科技有限公司 Image processing method and device, movable platform, control terminal, and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3546853B2 (en) * 2001-03-23 2004-07-28 ミノルタ株式会社 Imaging device and image reproduction system
JP2010093631A (en) * 2008-10-09 2010-04-22 Canon Inc Imaging apparatus and method of controlling imaging apparatus
JP6246629B2 (en) * 2014-03-14 2017-12-13 株式会社東芝 Monitoring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102679091B1 (en) * 2021-07-29 2024-06-26 동의대학교 산학협력단 System and method for controlling volume of water purification customized for cooking

Also Published As

Publication number Publication date
JP2018056940A (en) 2018-04-05

Similar Documents

Publication Publication Date Title
US10194091B2 (en) Image capturing apparatus, control method therefor, program, and recording medium
JP2007096583A (en) Image sensing device and image processor
JP2010028596A (en) Image sensing device
JP2007027967A (en) Photographing apparatus
JP6214421B2 (en) Imaging apparatus and imaging method
JP2013153330A (en) Electronic device and photographing control method
JP6776776B2 (en) Imaging equipment, display equipment, electronic devices, imaging methods, programs, imaging systems, display systems and image processing equipment
JP5957705B2 (en) Imaging device
JP2018056941A (en) Imaging apparatus, display apparatus, electronic equipment, imaging method, program, imaging system, display system, and image processing apparatus
JP6911135B2 (en) Imaging equipment, imaging methods, and programs
JP5105139B2 (en) Imaging apparatus, display method, and program
JP2011254340A (en) Imaging apparatus
JP2006148550A (en) Image processor and imaging device
CN110278386B (en) Image processing method, image processing device, storage medium and electronic equipment
JPWO2019187648A1 (en) Imaging equipment, imaging methods, programs and recording media
JP2004172978A (en) Imaging apparatus
US11336802B2 (en) Imaging apparatus
WO2022245344A1 (en) Mobile device support for capture and synthesis of extreme low-light video
JP6075829B2 (en) IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
KR20100112788A (en) Method of controlling activation between shaking correction and electronical strobo, method of photographing, and digital camera module
JP6123079B2 (en) Imaging device
JP2006013731A (en) Imaging device, white balance control method, and device for adjusting quantity of light
JP6810298B2 (en) Image alignment aids, methods and programs and imaging devices
WO2024034390A1 (en) Information processing device, information processing method, and program
JP2010141458A (en) Imaging apparatus and method of controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200819

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200921

R150 Certificate of patent or registration of utility model

Ref document number: 6776776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250