JP2017188871A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2017188871A
JP2017188871A JP2017003806A JP2017003806A JP2017188871A JP 2017188871 A JP2017188871 A JP 2017188871A JP 2017003806 A JP2017003806 A JP 2017003806A JP 2017003806 A JP2017003806 A JP 2017003806A JP 2017188871 A JP2017188871 A JP 2017188871A
Authority
JP
Japan
Prior art keywords
image sensor
image
line
timing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017003806A
Other languages
Japanese (ja)
Inventor
源輝 佐藤
Genki Sato
源輝 佐藤
國末 勝次
Katsuji Kunimatsu
勝次 國末
久子 千秋
Hisako Chiaki
久子 千秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US15/429,323 priority Critical patent/US10044963B2/en
Publication of JP2017188871A publication Critical patent/JP2017188871A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus that uses a rolling shutter type first image sensor and second image sensor to capture images in which a subject is partly duplicated, with a reduced time shift between boundary regions of the images.SOLUTION: An imaging apparatus 100 includes a rolling shutter type first image sensor 110 and second image sensor 111, a timing generator 114 that controls operation timings of the two image sensors, and a controller 112 that subjects generated image data to image processing and controls the timing generator 114. The two image sensors capture images of a subject to be partly duplicated and generate image data. The controller 112 controls the timing generator 114 in such a way that the timings of the exposure periods of the respective lines of the duplicated region generated by the two image sensors match.SELECTED DRAWING: Figure 1

Description

本開示は、ローリングシャッタ方式の2つのイメージセンサを用いる撮像装置に関する。   The present disclosure relates to an imaging apparatus using two rolling shutter type image sensors.

特許文献1は、広角の映像から任意の範囲の切出し処理を行い、撮影者の所望する構図の映像を得る撮像装置を開示する。   Patent Document 1 discloses an imaging apparatus that performs clipping processing in an arbitrary range from a wide-angle video and obtains a video having a composition desired by a photographer.

特許文献2は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサの特徴の一つであるローリングシャッタ歪みの補正を行う多視点撮像装置を開示する。   Patent Document 2 discloses a multi-view imaging apparatus that corrects rolling shutter distortion, which is one of the features of a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

特開2010−147925号公報JP 2010-147925 A 特開2013−120435号公報JP 2013-120435 A

本開示は、ローリングシャッタ方式の第1のイメージセンサおよび第2のイメージセンサを用いて、被写体の一部が重複するように撮影された画像の境界部分における時間的なズレを軽減する撮像装置を提供する。   The present disclosure relates to an imaging apparatus that reduces temporal deviation in a boundary portion of images captured so that a part of a subject overlaps by using a first image sensor and a second image sensor of a rolling shutter system. provide.

本開示における撮像装置は、ローリングシャッタ方式の第1のイメージセンサおよび第2のイメージセンサと、タイミングジェネレータと、コントローラと、を備える。第1のイメージセンサと第2のイメージセンサは、互いに被写体の一部が重複するように撮像して画像データを生成する。タイミングジェネレータは、第1のイメージセンサおよび第2のイメージセンサの動作タイミングを制御する。コントローラは、生成された画像データに対して画像処理を施す。また、コントローラは、第1のイメージセンサと第2のイメージセンサとにより生成された重複領域が有する各ラインの露光期間のタイミングが合うようタイミングジェネレータを制御する。   An imaging apparatus according to the present disclosure includes a rolling shutter first image sensor and a second image sensor, a timing generator, and a controller. The first image sensor and the second image sensor generate image data by imaging so that a part of the subject overlaps each other. The timing generator controls the operation timing of the first image sensor and the second image sensor. The controller performs image processing on the generated image data. Further, the controller controls the timing generator so that the exposure periods of the respective lines included in the overlapping area generated by the first image sensor and the second image sensor are matched.

本開示における撮像装置は、ローリングシャッタ方式の第1のイメージセンサおよび第2のイメージセンサを用いて被写体の一部が重複するように撮影された画像の境界部分における時間的なズレを軽減するのに有効である。   The imaging apparatus according to the present disclosure reduces temporal shift in a boundary portion of images captured so that a part of a subject overlaps using a first image sensor and a second image sensor of a rolling shutter system. It is effective for.

実施の形態1における撮像装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an imaging device in Embodiment 1. 実施の形態1における第1のイメージセンサおよび第2のイメージセンサが撮像した画像データの模式図Schematic diagram of image data captured by the first image sensor and the second image sensor in the first embodiment 実施の形態1における第1のイメージセンサおよび第2のイメージセンサの動作に係る信号のタイミングチャートTiming chart of signals related to operations of first image sensor and second image sensor in the first embodiment ローリングシャッタ歪を示す第1のイメージセンサおよび第2のイメージセンサのタイミングチャートTiming chart of first image sensor and second image sensor showing rolling shutter distortion 実施の形態1における第1のイメージセンサおよび第2のイメージセンサのタイミングチャートTiming chart of first image sensor and second image sensor in Embodiment 1 実施の形態2における第1のイメージセンサおよび第2のイメージセンサのタイミングチャートTiming chart of first image sensor and second image sensor in Embodiment 2 実施の形態3における撮像装置の構成を示すブロック図FIG. 7 is a block diagram illustrating a configuration of an imaging device according to Embodiment 3. 実施の形態3における第1のイメージセンサの動作に係る信号のタイミングチャートTiming chart of signals related to operation of first image sensor according to Embodiment 3

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

(実施の形態1)
以下、図1〜4Bを用いて、実施の形態1を説明する。
(Embodiment 1)
Hereinafter, Embodiment 1 will be described with reference to FIGS.

[1−1.構成]
図1は、実施の形態1にかかる撮像装置100の構成を示すブロック図である。撮像装置100は、第1のイメージセンサ110と、第2のイメージセンサ111と、タイミングジェネレータ(TG)114と、コントローラ112と、メモリ115と、を備える。
[1-1. Constitution]
FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus 100 according to the first embodiment. The imaging apparatus 100 includes a first image sensor 110, a second image sensor 111, a timing generator (TG) 114, a controller 112, and a memory 115.

第1のイメージセンサ110と第2のイメージセンサ111は、被写体像を撮像して画像データを生成する。例えば、水平画素数が3840画素、垂直画素数が2160画素からなり、1秒間に60フレームの4K解像度の画像データを得る。被写体像は光学系(図示せず)により形成される。なお、これらのイメージセンサは、CMOSで構成されることが多い。   The first image sensor 110 and the second image sensor 111 capture a subject image and generate image data. For example, the number of horizontal pixels is 3840 pixels and the number of vertical pixels is 2160 pixels, and 60 frames of 4K resolution image data is obtained per second. The subject image is formed by an optical system (not shown). These image sensors are often composed of CMOS.

TG114は、第1のイメージセンサ110の動作に必要な信号CLK1を生成する。また、コントローラ112の設定に応じて、第2のイメージセンサ111の動作に必要な信号CLK2を生成する。例えば、電子シャッタ動作、静止画像や動画像の撮像動作、データの読出し動作などに係る信号である。この動作の詳細は、後で説明する。   The TG 114 generates a signal CLK1 necessary for the operation of the first image sensor 110. Further, a signal CLK <b> 2 necessary for the operation of the second image sensor 111 is generated according to the setting of the controller 112. For example, it is a signal related to an electronic shutter operation, a still image or moving image imaging operation, a data reading operation, and the like. Details of this operation will be described later.

コントローラ112は、第1のイメージセンサ110と第2のイメージセンサ111の出力画像データに対して各種の画像処理を施す。例えば、コントローラ112は、出力画像データに対して、ホワイトバランス調整処理やガンマ処理、YC変換処理、ローリングシャッタ歪補正、画像合成処理、圧縮処理などを行う。また、コントローラ112は、TG114を制御し、第1のイメージセンサ110と第2のイメージセンサ111の動作タイミングを制御する。さらに、コントローラ112は、ソフトウェアまたはファームウェアで記載されたコンピュータプログラムにしたがって、撮像装置100全体を制御する。   The controller 112 performs various image processing on the output image data of the first image sensor 110 and the second image sensor 111. For example, the controller 112 performs white balance adjustment processing, gamma processing, YC conversion processing, rolling shutter distortion correction, image composition processing, compression processing, and the like on the output image data. The controller 112 also controls the TG 114 to control the operation timing of the first image sensor 110 and the second image sensor 111. Furthermore, the controller 112 controls the entire imaging apparatus 100 according to a computer program described in software or firmware.

メモリ115は、第1のイメージセンサ110と第2のイメージセンサ111の出力である画像データを一時的に記憶する。また、メモリ115は、コントローラ112で処理途上の画像データや、処理が完了した後の画像データを一時的に記憶する。さらに、メモリ115は、コントローラ112のプログラム用メモリとしても利用され、プログラムの命令や、データ、露光制御に関するプログラム線図などを一時的に記憶する。要するに、メモリ115は、第1のイメージセンサ110と第2のイメージセンサ111での画像処理、およびプログラムの実行を実現する為に一時的にデータを記憶する。   The memory 115 temporarily stores image data that is the output of the first image sensor 110 and the second image sensor 111. The memory 115 temporarily stores image data being processed by the controller 112 and image data after the processing is completed. The memory 115 is also used as a program memory for the controller 112, and temporarily stores program instructions, data, a program diagram related to exposure control, and the like. In short, the memory 115 temporarily stores data in order to realize image processing and program execution by the first image sensor 110 and the second image sensor 111.

図2は、第1のイメージセンサ110と第2のイメージセンサ111が静止した被写体200の一部(図2の重複領域)を重複するように撮像した例を示す模式図である。具体的には、図2の(A)は第1のイメージセンサ110が撮像した被写体200の上部(200A)の画像データ120を示し、図2の(C)は第2のイメージセンサ111が撮像した被写体200の下部(200B)の画像データ121を示し、図2の(B)は、第1のイメージセンサ110および第2のイメージセンサ111が撮像した被写体200の画像データを合成した画像データ122を示す。   FIG. 2 is a schematic diagram illustrating an example in which the first image sensor 110 and the second image sensor 111 have captured a part of the stationary subject 200 (overlapping region in FIG. 2) so as to overlap. Specifically, FIG. 2A shows the image data 120 of the upper portion (200A) of the subject 200 imaged by the first image sensor 110, and FIG. 2C shows the image data taken by the second image sensor 111. FIG. 2B shows image data 122 obtained by synthesizing image data of the subject 200 captured by the first image sensor 110 and the second image sensor 111. FIG. Indicates.

第1のイメージセンサ110は、撮像する開始ライン0Haから終了ライン(La)Haまで、1ライン毎にイメージセンサの読出し方向(図2の矢印の方向)に画像データを読み出す。第2のイメージセンサ111は、撮像する開始ライン0Hbから終了ライン(Lb)Hbまで、1ライン毎にイメージセンサの読出し方向(図2の矢印の方向)に画像データを読み出す。第1のイメージセンサ110の光学系と第2のイメージセンサ111の光学系は、撮像する被写体の一部が重複するように読出し方向と垂直な方向に配置されている。図2において、0Hbから(La)Haまでが重複領域である。   The first image sensor 110 reads image data in the reading direction of the image sensor (in the direction of the arrow in FIG. 2) for each line from the start line 0Ha to the end line (La) Ha to be imaged. The second image sensor 111 reads image data in the reading direction of the image sensor (in the direction of the arrow in FIG. 2) for each line from the start line 0Hb to the end line (Lb) Hb for imaging. The optical system of the first image sensor 110 and the optical system of the second image sensor 111 are arranged in a direction perpendicular to the readout direction so that a part of the subject to be imaged overlaps. In FIG. 2, the overlapping area is from 0Hb to (La) Ha.

重複領域に含まれるライン数(ΔL)は、例えばテストチャートなどを第1のイメージセンサ110と第2のイメージセンサ111とで撮像して得られた画像データに対して、画素毎を比較して算出される。   The number of lines (ΔL) included in the overlapping area is determined by comparing each pixel with respect to image data obtained by imaging a test chart or the like with the first image sensor 110 and the second image sensor 111, for example. Calculated.

[1−2.動作]
以上のように構成された撮像装置100について、その動作を以下説明する。
[1-2. Operation]
The operation of the imaging apparatus 100 configured as described above will be described below.

図3は、図1におけるTG114が生成する信号の一例を示すタイミングチャートである。水平同期信号H1は、第1のイメージセンサ110の水平同期タイミングを示す信号である。垂直同期信号V1は、第1のイメージセンサ110の垂直同期タイミングを示す信号である。垂直同期信号V1は、周期T1で動作している。水平同期信号H2は、第2のイメージセンサ111の水平同期タイミングを示す信号である。垂直同期信号V2は、第2のイメージセンサ111の垂直同期タイミングを示す信号である。垂直同期信号V2は、周期T2で動作している。水平同期信号H1と水平同期信号H2は、例えば同じ発信器のクロックを逓倍および分周の少なくとも一方で処理して作られる。したがって、水平同期信号H1と水平同期信号H2は、同期している。垂直同期信号V1は、例えば動作クロックC1(図示せず)を分周して作られる。垂直同期信号V2は、例えば動作クロックC2(図示せず)を分周して作られる。なお、動作クロックC1とC2は、同期している。また、垂直同期信号V2は、コントローラ112からの設定に従って、垂直同期信号V1からΔt遅延したクロックである。   FIG. 3 is a timing chart showing an example of a signal generated by the TG 114 in FIG. The horizontal synchronization signal H1 is a signal indicating the horizontal synchronization timing of the first image sensor 110. The vertical synchronization signal V1 is a signal indicating the vertical synchronization timing of the first image sensor 110. The vertical synchronization signal V1 operates at a cycle T1. The horizontal synchronization signal H2 is a signal indicating the horizontal synchronization timing of the second image sensor 111. The vertical synchronization signal V2 is a signal indicating the vertical synchronization timing of the second image sensor 111. The vertical synchronization signal V2 operates at a period T2. The horizontal synchronization signal H1 and the horizontal synchronization signal H2 are generated, for example, by processing the clock of the same oscillator at least one of multiplication and division. Therefore, the horizontal synchronization signal H1 and the horizontal synchronization signal H2 are synchronized. The vertical synchronization signal V1 is generated, for example, by dividing the operation clock C1 (not shown). The vertical synchronization signal V2 is generated, for example, by dividing the operation clock C2 (not shown). Note that the operation clocks C1 and C2 are synchronized. The vertical synchronization signal V2 is a clock delayed by Δt from the vertical synchronization signal V1 in accordance with the setting from the controller 112.

図4A、図4Bは、第1のイメージセンサ110と第2のイメージセンサ111の露光タイミングを示すタイミングチャートである。ここで、第1のイメージセンサ110と第2のイメージセンサ111を、外部トリガ同期モードで動作させた例について説明する。   4A and 4B are timing charts showing exposure timings of the first image sensor 110 and the second image sensor 111. FIG. Here, an example in which the first image sensor 110 and the second image sensor 111 are operated in the external trigger synchronization mode will be described.

図4A、図4Bにおいて、開始ライン0Haは、第1のイメージセンサ110が撮像する1ライン目を表す。すなわち、1ライン目の撮像開始点(PS1)から撮像終了点(PE1)までのラインである。終了ライン(La)Haは、第1のイメージセンサ110が撮像する終了ラインを表す。すなわち、終了ライン目の撮像開始点(QS1)から撮像終了点(QE1)までのラインである。   4A and 4B, the start line 0Ha represents the first line imaged by the first image sensor 110. That is, it is a line from the imaging start point (PS1) of the first line to the imaging end point (PE1). An end line (La) Ha represents an end line taken by the first image sensor 110. That is, it is a line from the imaging start point (QS1) of the end line to the imaging end point (QE1).

第1のイメージセンサ110の外部トリガ(垂直同期信号V1)の立下りエッジをトリガとして、PE1において開始ライン0Haの露光が終了して読出しが開始される。ラインの読出し完了後、画素に蓄積された電荷がリセットされ次の露光が開始される。外部トリガ(垂直同期信号V1)の立下りエッジから次の立下りエッジの間隔(T1)が第1のイメージセンサ110の露光時間となる。開始ライン0Ha上のPE1から始まり、終了ライン(La)Ha上の矢印の先QE1で終わる一点鎖線に示すように、順次、開始ライン0Haから終了ライン(La)Haまで、各ラインの画像データ(D1)の出力(読出し)、読出し完了後のラインの電荷のリセット、露光が繰り返される。   With the falling edge of the external trigger (vertical synchronization signal V1) of the first image sensor 110 as a trigger, the exposure of the start line 0Ha is completed in PE1, and reading is started. After the completion of line reading, the charge accumulated in the pixel is reset and the next exposure is started. The exposure time of the first image sensor 110 is the interval (T1) between the falling edge and the next falling edge of the external trigger (vertical synchronization signal V1). As shown by the one-dot chain line starting with PE1 on the start line 0Ha and ending with the tip QE1 of the arrow on the end line (La) Ha, the image data of each line (from the start line 0Ha to the end line (La) Ha) sequentially ( The output (reading) of D1), the resetting of the charge of the line after completion of reading, and the exposure are repeated.

期間E1は、第1のイメージセンサ110が撮像する開始ライン0Haの露光開始(PS1)から終了ライン(La)Haの露光開始(QS1)までの時間である。期間R1は、第1のイメージセンサ110が撮像する1フレームの画像データを読み出すのに要する時間である。本実施の形態では、ラインの読出し完了後のライン電荷のリセット時間は期間R1に含まれており、期間R1と期間E1は等しい。   The period E1 is the time from the start of exposure (PS1) of the start line 0Ha imaged by the first image sensor 110 to the start of exposure (QS1) of the end line (La) Ha. The period R1 is the time required to read out one frame of image data captured by the first image sensor 110. In this embodiment, the line charge reset time after completion of line reading is included in the period R1, and the period R1 is equal to the period E1.

開始ライン0Hbは、第2のイメージセンサ111が撮像する1ライン目を表す。すなわち、1ライン目の撮像開始点(MS1)から撮像終了点(ME1)までのラインである。終了ライン(Lb)Hbは、第2のイメージセンサ111が撮像する終了ラインを表す。すなわち、終了ライン目の撮像開始点(NS1)から撮像終了点(NE1)までのラインである。第2のイメージセンサ111の外部トリガ(垂直同期信号V2)の立下りエッジをトリガとして、ME1において開始ライン0Hbの露光が終了して読出しが開始される。ラインの読出し完了後、画素に蓄積された電荷がリセットされ次の露光が開始される。外部トリガ(垂直同期信号V2)の立下りエッジから次の立下りエッジの間隔(T2)が第2のイメージセンサ111の露光時間となる。開始ライン0Hb上のME1から始まり、終了ライン(Lb)Hb上の矢印の先NE1で終わる二点鎖線に示すように、順次、開始ライン0Hbから終了ライン(Lb)Hbまで、各ラインの画像データ(D2)の出力(読出し)、読出し完了後のラインの電荷のリセット、露光が繰り返される。   The start line 0Hb represents the first line imaged by the second image sensor 111. That is, it is a line from the imaging start point (MS1) of the first line to the imaging end point (ME1). An end line (Lb) Hb represents an end line taken by the second image sensor 111. That is, it is a line from the imaging start point (NS1) of the end line to the imaging end point (NE1). With the falling edge of the external trigger (vertical synchronization signal V2) of the second image sensor 111 as a trigger, the exposure of the start line 0Hb is completed in ME1 and reading is started. After the completion of line reading, the charge accumulated in the pixel is reset and the next exposure is started. The interval (T2) from the falling edge to the next falling edge of the external trigger (vertical synchronization signal V2) is the exposure time of the second image sensor 111. Image data of each line from the start line 0Hb to the end line (Lb) Hb sequentially, as shown by the two-dot chain line starting from ME1 on the start line 0Hb and ending at the tip NE1 of the arrow on the end line (Lb) Hb The output (reading) of (D2), the resetting of the charge of the line after the reading is completed, and exposure are repeated.

期間E2は、第2のイメージセンサ111が撮像する開始ライン0Hbの露光開始(MS1)から終了ライン(Lb)Hbの露光開始(NS1)までの時間である。期間R2は、第2のイメージセンサ111が撮像する1フレームの画像データを読み出すのに要する時間である。本実施の形態では、ラインの読出し完了後のライン電荷のリセット時間は期間R2に含まれており、期間R2と期間E2は等しい。   The period E2 is the time from the exposure start (MS1) of the start line 0Hb imaged by the second image sensor 111 to the exposure start (NS1) of the end line (Lb) Hb. The period R2 is the time required to read out one frame of image data captured by the second image sensor 111. In this embodiment, the line charge reset time after completion of line reading is included in the period R2, and the period R2 and the period E2 are equal.

このように、外部トリガ同期モードでは、外部信号(垂直同期信号)をトリガとして、イメージセンサの水平方向に対応する各ラインの露光期間(読出しタイミング)を制御する。   As described above, in the external trigger synchronization mode, the exposure period (reading timing) of each line corresponding to the horizontal direction of the image sensor is controlled using the external signal (vertical synchronization signal) as a trigger.

図4Aは、第1のイメージセンサ110の外部トリガ(垂直同期信号V1)と第2のイメージセンサ111の外部トリガ(垂直同期信号V2)が同期した状態で、被写体201を撮像した場合の露光タイミングを示すタイミングチャートである。ローリングシャッタ方式であるため開始ライン0Ha(PS1−PE1)と終了ライン(La)Ha(QS1−QE1)の露光期間のタイミングが異なる。したがって、例えば、被写体201が撮像装置100に対して相対的に、図中右方向に高速で移動している場合、第1のイメージセンサ110から読み出した画像データは、画像データ202Aのような画像となる。垂直同期信号V1と垂直同期信号V2は同期しているため、第2のイメージセンサ111の開始ライン0Hb(MS1−ME1)の露光期間は、第1のイメージセンサ110の開始ライン0Ha(PS1−PE1)の露光期間のタイミングと同じである。したがって、第2のイメージセンサ111から読み出した画像データは、画像データ203Aのような画像となる。   FIG. 4A shows an exposure timing when the subject 201 is imaged in a state where the external trigger (vertical synchronization signal V1) of the first image sensor 110 and the external trigger (vertical synchronization signal V2) of the second image sensor 111 are synchronized. It is a timing chart which shows. Since it is a rolling shutter system, the timing of the exposure periods of the start line 0Ha (PS1-PE1) and the end line (La) Ha (QS1-QE1) are different. Therefore, for example, when the subject 201 is moving in the right direction in the drawing at a high speed relative to the imaging device 100, the image data read from the first image sensor 110 is an image such as the image data 202A. It becomes. Since the vertical synchronization signal V1 and the vertical synchronization signal V2 are synchronized, the exposure period of the start line 0Hb (MS1-ME1) of the second image sensor 111 is the start line 0Ha (PS1-PE1) of the first image sensor 110. ) Is the same as the exposure period timing. Therefore, the image data read from the second image sensor 111 is an image such as the image data 203A.

また、重複領域が有するライン数がΔLの場合、重複領域の先頭ラインは第1のイメージセンサ110の(La−ΔL)Haラインと第2のイメージセンサ111の0Hbライン(MS1−ME1)に、相当する。重複領域の終了ラインは第1のイメージセンサ110の(La)Haライン(QS1−QE1)と第2のイメージセンサ111の(ΔL)Hbラインに、相当する。しかしながら、互いの露光期間のタイミングが異なる。   When the number of lines in the overlapping area is ΔL, the leading line of the overlapping area is the (La−ΔL) Ha line of the first image sensor 110 and the 0Hb line (MS1-ME1) of the second image sensor 111. Equivalent to. The end line of the overlapping region corresponds to the (La) Ha line (QS1-QE1) of the first image sensor 110 and the (ΔL) Hb line of the second image sensor 111. However, the timings of the exposure periods are different.

このように、図4Aでは、被写体が相対的に移動している場合、第1のイメージセンサ110と第2のイメージセンサ111の重複領域の露光期間のタイミングが異なるため、第1のイメージセンサ110と第2のイメージセンサ111が生成した画像データにおける重複領域には時間的なズレが生じる。   As described above, in FIG. 4A, when the subject is relatively moving, the timing of the exposure period of the overlapping area of the first image sensor 110 and the second image sensor 111 is different, and thus the first image sensor 110. There is a temporal shift in the overlapping area in the image data generated by the second image sensor 111.

図4Bは、本実施の形態における第1のイメージセンサ110と第2のイメージセンサ111のタイミングチャートである。図4Aと異なり、第1のイメージセンサ110の外部トリガ(垂直同期信号V1)に対して第2のイメージセンサ111の外部トリガ(垂直同期信号V2)だけをΔtだけ遅延させたタイミングで被写体201を撮像した場合の露光タイミングを示すタイミングチャートである。   FIG. 4B is a timing chart of the first image sensor 110 and the second image sensor 111 in the present embodiment. Unlike FIG. 4A, the subject 201 is moved at a timing when only the external trigger (vertical synchronization signal V2) of the second image sensor 111 is delayed by Δt with respect to the external trigger (vertical synchronization signal V1) of the first image sensor 110. It is a timing chart which shows the exposure timing at the time of imaging.

図4Bにおいて、第1のイメージセンサ110は、周期T1である垂直同期信号V1をトリガとして各ラインを読み出す。ラインの読出し完了後、次の露光を開始する。周期T1は、第1のイメージセンサ110の露光期間である。第2のイメージセンサ111は、垂直同期信号V1からΔtだけ遅延した周期T2である垂直同期信号V2をトリガとして各ラインを読み出す。具体的には、ラインの読出し完了後、画素に蓄積された電荷がリセットされ、次の露光を開始する。例えば、被写体201が撮像装置100に対して相対的に、図中右方向に高速で移動している場合、第1のイメージセンサ110から読み出した開始ライン0Ha上のPE1から始まり、終了ライン(La)Ha上の矢印の先QE1で終わる一点鎖線の期間の画像データは、図4Aの画像データ202Aと同じく、画像データ202Bのような画像となる。一方、図4Aとは異なり、第2のイメージセンサ111の開始ライン0Hbは、第1のイメージセンサ110の開始ライン0HaよりΔt遅延した露光タイミングである。したがって、第2のイメージセンサ111から読み出した開始ライン0Hb上のME1から始まり、終了ライン(Lb)Hb上の矢印の先NE1で終わる二点鎖線の期間の画像データは、画像データ203Bのような画像となる。   In FIG. 4B, the first image sensor 110 reads each line using a vertical synchronization signal V1 having a period T1 as a trigger. After completion of line reading, the next exposure is started. A period T1 is an exposure period of the first image sensor 110. The second image sensor 111 reads each line using the vertical synchronization signal V2 having a period T2 delayed by Δt from the vertical synchronization signal V1 as a trigger. Specifically, after the completion of line reading, the charge accumulated in the pixel is reset, and the next exposure is started. For example, when the subject 201 is moving at a high speed in the right direction in the figure relative to the imaging device 100, the subject 201 starts with PE1 on the start line 0Ha read from the first image sensor 110, and ends with the end line (La ) The image data in the period of the alternate long and short dash line that ends at the point QE1 of the arrow on Ha is an image like the image data 202B, similar to the image data 202A in FIG. On the other hand, unlike FIG. 4A, the start line 0Hb of the second image sensor 111 is the exposure timing delayed by Δt from the start line 0Ha of the first image sensor 110. Therefore, the image data in the period of the two-dot chain line starting from ME1 on the start line 0Hb read from the second image sensor 111 and ending at the tip NE1 of the arrow on the end line (Lb) Hb is like the image data 203B. It becomes an image.

また、重複領域が有するライン数がΔLの場合、重複領域の先頭ラインは第1のイメージセンサ110の(La−ΔL)Haラインと第2のイメージセンサ111の0Hbライン(MS1−ME1)に、相当する。重複領域の終了ラインは第1のイメージセンサ110の(La)Haライン(QS1−QE1)と第2のイメージセンサ111の(ΔL)Hbラインに、相当する。そして、重複領域の各ラインの露光期間のタイミングが一致する。   When the number of lines in the overlapping area is ΔL, the leading line of the overlapping area is the (La−ΔL) Ha line of the first image sensor 110 and the 0Hb line (MS1-ME1) of the second image sensor 111. Equivalent to. The end line of the overlapping region corresponds to the (La) Ha line (QS1-QE1) of the first image sensor 110 and the (ΔL) Hb line of the second image sensor 111. And the timing of the exposure period of each line of the overlapping region matches.

重複領域の画像データは同じであるため、例えば、コントローラ112は、第1のイメージセンサ110の画像データとして重複領域終了ライン(QS1−QE1)まで(D1の斜線部)のデータを利用し、第2のイメージセンサ111の画像データとして重複領域終了後のラインから(D2の斜線部)のデータを利用する。この時、一部の区間では2つのイメージセンサからの読出しは輻輳している(重なり合っている)。   Since the image data of the overlapping area is the same, for example, the controller 112 uses the data up to the overlapping area end line (QS1-QE1) (hatched portion of D1) as the image data of the first image sensor 110, and As the image data of the second image sensor 111, data from the line after the end of the overlapping region (the hatched portion of D2) is used. At this time, reading from the two image sensors is congested (overlapped) in some sections.

[1−3.効果等]
以上のように、本実施の形態において、撮像装置100は、第1のイメージセンサ110と、第2のイメージセンサ111と、TG114と、コントローラ112と、を備える。第1のイメージセンサ110と第2のイメージセンサ111は、被写体像の一部が重複するように撮像して画像データを生成する。コントローラ112は、生成された画像データの重複する領域が有する各ラインの露光期間のタイミングが合うようTG114を制御する。
[1-3. Effect]
As described above, in the present embodiment, the imaging apparatus 100 includes the first image sensor 110, the second image sensor 111, the TG 114, and the controller 112. The first image sensor 110 and the second image sensor 111 capture an image so that part of the subject image overlaps to generate image data. The controller 112 controls the TG 114 so that the exposure periods of the respective lines included in the overlapping areas of the generated image data are matched.

これにより、第1のイメージセンサ110と第2のイメージセンサ111が撮像する重複領域の各ラインにおける露光期間のタイミング差が小さくなる。そのため、第1のイメージセンサ110と第2のイメージセンサ111が撮像する境界付近の画像の時間的なズレが低減される。   Thereby, the timing difference of the exposure period in each line of the overlapping area imaged by the first image sensor 110 and the second image sensor 111 is reduced. For this reason, temporal deviation of the image near the boundary captured by the first image sensor 110 and the second image sensor 111 is reduced.

また、本実施の形態において、コントローラ112は、重複領域が有するライン数ΔLに応じて、第1のイメージセンサ110のフレーム同期タイミング(V1)に対して、第2のイメージセンサ111のフレーム同期タイミング(V2)を遅延させるように、タイミングジェネレータ(TG)114を制御する。   Further, in the present embodiment, the controller 112 determines the frame synchronization timing of the second image sensor 111 with respect to the frame synchronization timing (V1) of the first image sensor 110 according to the number of lines ΔL included in the overlapping region. The timing generator (TG) 114 is controlled so as to delay (V2).

これにより、第1のイメージセンサ110および第2のイメージセンサ111の各ラインの露光期間のタイミングをフレーム周期で制御できる。そのため、コントローラ112の負荷が低減される。   Thereby, the timing of the exposure period of each line of the first image sensor 110 and the second image sensor 111 can be controlled by the frame period. Therefore, the load on the controller 112 is reduced.

また、本実施の形態において、コントローラ112は、第1のイメージセンサ110の露光タイミングに対して、第2のイメージセンサ111の露光タイミングを以下の条件(1)を満足するΔt[秒]だけ遅延させるようTG114を制御するのが望ましい。   In this embodiment, the controller 112 delays the exposure timing of the second image sensor 111 by Δt [seconds] that satisfies the following condition (1) with respect to the exposure timing of the first image sensor 110. It is desirable to control the TG 114 to make it happen.

Δt/E1 = 1−ΔL/L1・・・(1)
ここで、
E1: 第1のイメージセンサ110が撮像する開始ラインの露光開始から終了ラインの露光開始までの時間[秒]、
L1: 第1のイメージセンサ110が撮像する水平ライン数、
ΔL: 第1のイメージセンサ110における重複領域が有するライン数、
である。
Δt / E1 = 1−ΔL / L1 (1)
here,
E1: Time [seconds] from the start of exposure of the start line to the start of exposure of the end line taken by the first image sensor 110;
L1: Number of horizontal lines taken by the first image sensor 110,
ΔL: the number of lines that the overlapping area in the first image sensor 110 has,
It is.

これにより、第1のイメージセンサ110と第2のイメージセンサ111が撮像する重複領域が有する各ラインにおける露光期間のタイミングを適切に制御でき、第1のイメージセンサ110と第2のイメージセンサ111が撮像する境界付近の画像の時間的なズレが低減される。そのため、生成された画像データは、1つのローリングシャッタ方式のイメージセンサから得る画像と同様に画像処理を行うことにより、ローリングシャッタ歪を補正できる。   Thereby, the timing of the exposure period in each line of the overlapping area captured by the first image sensor 110 and the second image sensor 111 can be appropriately controlled, and the first image sensor 110 and the second image sensor 111 can be controlled. The time shift of the image near the boundary to be imaged is reduced. Therefore, the generated image data can be corrected for rolling shutter distortion by performing image processing in the same manner as an image obtained from one rolling shutter type image sensor.

また、本実施の形態において、コントローラ112は、第1のイメージセンサ110と第2のイメージセンサ111が生成する画像データのうち、指定された範囲の画像を合成する。   In the present embodiment, the controller 112 synthesizes an image in a specified range among the image data generated by the first image sensor 110 and the second image sensor 111.

これにより、1つのイメージセンサから得られる解像度を維持したまま更に広角の映像を撮像することができる。   As a result, it is possible to capture a wider-angle video while maintaining the resolution obtained from one image sensor.

また、本実施の形態において、コントローラ112は、生成した画像データの一部を切り出す。   In the present embodiment, the controller 112 cuts out part of the generated image data.

これにより、例えばスタジアム全体を見渡すように設置された撮像装置100の広角映像から注目している被写体を含む映像を切り出すことができる。そのため、任意の画角の映像を取得できるようになり、取得映像の選択肢を広げることができる。   Thereby, for example, an image including a subject of interest can be cut out from a wide-angle image of the imaging device 100 installed so as to look over the entire stadium. Therefore, it becomes possible to acquire an image with an arbitrary angle of view, and the options for the acquired image can be expanded.

(実施の形態2)
以下、図5を用いて、実施の形態2を説明する。実施の形態2は、実施の形態1の変形例である。
(Embodiment 2)
The second embodiment will be described below with reference to FIG. The second embodiment is a modification of the first embodiment.

[2−1.構成など]
構成および重複領域は、実施の形態1と同様である。
[2-1. Configuration etc.]
The configuration and the overlapping area are the same as those in the first embodiment.

[2−2.動作]
図5は、第1のイメージセンサ110の外部トリガ(垂直同期信号V1)に対して第2のイメージセンサ111の外部トリガ(垂直同期信号V2)をΔtだけ遅延させたタイミングで被写体201を撮像した場合の露光タイミングを示すタイミングチャートである。
[2-2. Operation]
In FIG. 5, the subject 201 is imaged at a timing when the external trigger (vertical synchronization signal V2) of the second image sensor 111 is delayed by Δt with respect to the external trigger (vertical synchronization signal V1) of the first image sensor 110. It is a timing chart which shows the exposure timing in the case.

第1のイメージセンサ110は、周期T1である垂直同期信号V1をトリガとして各ラインの露光を開始する。露光時間は、第1のイメージセンサ110に設定した時間(0Haの露光開始から第1のイメージセンサ110の読み出し開始までの時間)である。周期T1は、第1のイメージセンサ110の1ライン目(PS1−PE1)の露光を開始してから、第2のイメージセンサ111の終了ライン(NS1−NE1)の読出しが完了するまでの時間であり、1フレームの周期である。   The first image sensor 110 starts exposure of each line with a vertical synchronization signal V1 having a cycle T1 as a trigger. The exposure time is the time set for the first image sensor 110 (the time from the start of 0 Ha exposure to the start of reading of the first image sensor 110). The period T1 is the time from the start of exposure of the first line (PS1-PE1) of the first image sensor 110 to the completion of reading of the end line (NS1-NE1) of the second image sensor 111. Yes, one frame period.

期間E1は、第1のイメージセンサ110が撮像する開始ライン0Haの露光開始点(PS1)から終了ライン(La)Haの露光開始点(QS1)までの時間である。期間R1は、第1のイメージセンサ110が撮像する1フレームの画像データを読み出す時間である。本実施の形態では、期間R1と期間E1は等しい。   The period E1 is the time from the exposure start point (PS1) of the start line 0Ha imaged by the first image sensor 110 to the exposure start point (QS1) of the end line (La) Ha. The period R1 is a time for reading out one frame of image data captured by the first image sensor 110. In the present embodiment, the period R1 and the period E1 are equal.

第2のイメージセンサ111は、垂直同期信号V1からΔtだけ遅延した周期T2である垂直同期信号V2の立下りエッジをトリガとして、各ラインの露光を開始する。露光時間は、第2のイメージセンサ111に設定した時間(0Hbの露光開始から第2のイメージセンサ111の読み出し開始までの時間)であり、第1のイメージセンサ110の露光時間と等しい。例えば、被写体201が撮像装置100に対して相対的に、図中右方向に高速で移動している場合、第1のイメージセンサ110から読み出した画像データは、図4Bの画像データ202Bと同じく、画像データ202Cのような画像となる。第2のイメージセンサ111の開始ライン0Hb(MS1−ME1)の露光開始は、第1のイメージセンサ110の開始ライン0Ha(PS1−PE1)の露光開始よりΔt遅延した露光タイミングである。したがって、第2のイメージセンサ111から読み出した画像データは、画像データ203Cのような画像となる。   The second image sensor 111 starts exposure of each line with a falling edge of the vertical synchronization signal V2 having a period T2 delayed by Δt from the vertical synchronization signal V1 as a trigger. The exposure time is the time set for the second image sensor 111 (the time from the start of 0 Hb exposure to the start of reading of the second image sensor 111), and is equal to the exposure time of the first image sensor 110. For example, when the subject 201 is moving at a high speed in the right direction in the figure relative to the imaging device 100, the image data read from the first image sensor 110 is the same as the image data 202B in FIG. An image such as the image data 202C is obtained. The exposure start of the start line 0Hb (MS1-ME1) of the second image sensor 111 is an exposure timing delayed by Δt from the start of exposure of the start line 0Ha (PS1-PE1) of the first image sensor 110. Accordingly, the image data read from the second image sensor 111 is an image such as the image data 203C.

また、重複領域が有するライン数がΔLの場合、重複領域の先頭ラインは第1のイメージセンサ110の(La−ΔL)Haラインと第2のイメージセンサ111の0Hbライン(MS1−ME1)に、相当する。重複領域の終了ラインは第1のイメージセンサ110の(La)Haライン(QS1−QE1)と第2のイメージセンサ111の(ΔL)Hbラインに、相当する。したがって、重複領域の各ラインの露光期間のタイミングが一致する。   When the number of lines in the overlapping area is ΔL, the leading line of the overlapping area is the (La−ΔL) Ha line of the first image sensor 110 and the 0Hb line (MS1-ME1) of the second image sensor 111. Equivalent to. The end line of the overlapping region corresponds to the (La) Ha line (QS1-QE1) of the first image sensor 110 and the (ΔL) Hb line of the second image sensor 111. Therefore, the timings of the exposure periods of the respective lines in the overlapping area coincide.

重複領域の画像データは同じであるため、例えば、各フレームに対してコントローラ112は、第1のイメージセンサ110の画像データとして重複領域終了ライン(QS1−QE1)まで(D1の斜線部)のデータを、第2のイメージセンサ111の画像データとして重複領域終了後のラインから(D2の斜線部)のデータを、順に読み出す。   Since the image data of the overlapping area is the same, for example, for each frame, the controller 112 outputs data up to the overlapping area end line (QS1-QE1) (shaded portion of D1) as the image data of the first image sensor 110. Are sequentially read out from the line after the end of the overlapping area as the image data of the second image sensor 111 (shaded portion of D2).

[2−3.効果等]
図5が示すとおり、第1のイメージセンサ110と第2のイメージセンサ111からの読出しが輻輳しない(重なり合わない)。これにより、メモリ115の帯域を小さくすることができる。そのため、設計の自由度が向上する。
[2-3. Effect]
As shown in FIG. 5, reading from the first image sensor 110 and the second image sensor 111 is not congested (does not overlap). Thereby, the bandwidth of the memory 115 can be reduced. As a result, the degree of freedom in design is improved.

(実施の形態3)
以下、図6、図7を用いて、実施の形態3を説明する。
(Embodiment 3)
Hereinafter, the third embodiment will be described with reference to FIGS.

[3−1.構成]
実施の形態3にかかる撮像装置600の構成の概要について説明する。
[3-1. Constitution]
An outline of the configuration of the imaging apparatus 600 according to the third embodiment will be described.

図6は撮像装置600の構成を示すブロック図である。   FIG. 6 is a block diagram illustrating a configuration of the imaging apparatus 600.

撮像装置600は、第1の撮像部300と、第2の撮像部400と、外部装置500と、を備える。   The imaging device 600 includes a first imaging unit 300, a second imaging unit 400, and an external device 500.

第1の撮像部300は、第1のイメージセンサ310と、タイミングジェネレータ(TG)314と、コントローラ312と、メモリ315と、を備える。コントローラ312は、第1のイメージセンサ310が生成した画像データを、外部接続された外部装置500に出力する。   The first imaging unit 300 includes a first image sensor 310, a timing generator (TG) 314, a controller 312, and a memory 315. The controller 312 outputs the image data generated by the first image sensor 310 to the external device 500 connected externally.

第2の撮像部400は、第1の撮像部300と同じ構成であり、第2のイメージセンサ410と、タイミングジェネレータ(TG)414と、コントローラ412と、メモリ415と、を備える。コントローラ412は、第2のイメージセンサ410が生成した画像データを、外部接続された外部装置500に出力する。   The second imaging unit 400 has the same configuration as the first imaging unit 300, and includes a second image sensor 410, a timing generator (TG) 414, a controller 412, and a memory 415. The controller 412 outputs the image data generated by the second image sensor 410 to the external device 500 connected externally.

外部装置500は、コントローラ512と、メモリ515と、表示部518を備える。   The external device 500 includes a controller 512, a memory 515, and a display unit 518.

第1のイメージセンサ310と第2のイメージセンサ410は、被写体像を撮像して画像データを生成する。例えば、水平画素数が3840画素、垂直画素数が2160画素からなり、1秒間に60フレームの4K解像度の画像データを得る。被写体像は光学系(図示せず)により形成される。なお、これらのイメージセンサは、CMOSで構成されることが多い。   The first image sensor 310 and the second image sensor 410 capture a subject image and generate image data. For example, the number of horizontal pixels is 3840 pixels and the number of vertical pixels is 2160 pixels, and 60 frames of 4K resolution image data is obtained per second. The subject image is formed by an optical system (not shown). These image sensors are often composed of CMOS.

TG314は、第1のイメージセンサ310の動作に必要な信号CLK3を生成する。また、コントローラ512から外部信号CLK5Aが入力されると、例えばPLL(Phase Locked Loop)などを介してCLK3信号を外部信号CLK5Aに切り替える。TG414は、第2のイメージセンサ410の動作に必要な信号CLK4を生成する。また、コントローラ512から外部信号CLK5Bが入力されると、例えばPLLなどを介してCLK4信号を外部信号CLK5Bに切り替える。信号の切り替えについては後述する。   The TG 314 generates a signal CLK3 necessary for the operation of the first image sensor 310. When the external signal CLK5A is input from the controller 512, the CLK3 signal is switched to the external signal CLK5A via, for example, a PLL (Phase Locked Loop). The TG 414 generates a signal CLK4 necessary for the operation of the second image sensor 410. Further, when the external signal CLK5B is input from the controller 512, the CLK4 signal is switched to the external signal CLK5B through, for example, a PLL. Signal switching will be described later.

コントローラ512は、第1のイメージセンサ310と第2のイメージセンサ410の出力画像データに対して各種の画像処理を施す。例えば、コントローラ512は、その出力画像データに対して、ホワイトバランス調整処理やガンマ処理、YC変換処理、ローリングシャッタ歪補正、画像合成処理、画像切出し処理、圧縮処理などを行う。また、コントローラ512は、TG314およびTG414を制御し、第1のイメージセンサ310と第2のイメージセンサ410の動作タイミングを制御する。コントローラ512は、ソフトウェアまたはファームウェアで記載されたコンピュータプログラムにしたがって、撮像装置600全体を制御する。   The controller 512 performs various image processing on the output image data of the first image sensor 310 and the second image sensor 410. For example, the controller 512 performs white balance adjustment processing, gamma processing, YC conversion processing, rolling shutter distortion correction, image composition processing, image cutout processing, compression processing, and the like on the output image data. The controller 512 also controls the TG 314 and the TG 414 to control the operation timing of the first image sensor 310 and the second image sensor 410. The controller 512 controls the entire imaging apparatus 600 according to a computer program described in software or firmware.

メモリ315は、第1のイメージセンサ310の出力である画像データを一時的に記憶する。また、メモリ315は、コントローラ312で処理途上の画像データや、処理が完了した後の画像データを一時的に記憶する。さらに、メモリ315は、コントローラ312のプログラム用メモリとしても利用され、プログラムの命令や、データ、露光制御に関するプログラム線図などを一時的に記憶する。要するに、メモリ315は、第1のイメージセンサ310での画像処理、およびプログラムの実行を実現する為に一時的にデータを記憶する。   The memory 315 temporarily stores image data that is the output of the first image sensor 310. The memory 315 temporarily stores image data being processed by the controller 312 and image data after the processing is completed. The memory 315 is also used as a program memory for the controller 312 and temporarily stores program instructions, data, a program diagram related to exposure control, and the like. In short, the memory 315 temporarily stores data for realizing image processing and program execution in the first image sensor 310.

メモリ415は、第2のイメージセンサ410の出力である画像データを一時的に記憶する。また、メモリ415は、コントローラ412で処理途上の画像データや、処理が完了した後の画像データを一時的に記憶する。さらに、メモリ415は、コントローラ412のプログラム用メモリとしても利用され、プログラムの命令や、データ、露光制御に関するプログラム線図などを一時的に記憶する。要するに、メモリ415は、第2のイメージセンサ410での画像処理、およびプログラムの実行を実現する為に一時的にデータを記憶する。   The memory 415 temporarily stores image data that is the output of the second image sensor 410. The memory 415 temporarily stores image data being processed by the controller 412 and image data after the processing is completed. Further, the memory 415 is also used as a program memory of the controller 412, and temporarily stores program instructions, data, a program diagram related to exposure control, and the like. In short, the memory 415 temporarily stores data for realizing the image processing in the second image sensor 410 and the execution of the program.

メモリ515は、第1のイメージセンサ310と第2のイメージセンサ410の出力である画像データを一時的に記憶する。また、メモリ515は、コントローラ512で処理途上の画像データや、処理が完了した後の画像データを一時的に記憶する。さらに、メモリ515は、コントローラ512のプログラム用メモリとしても利用され、プログラムの命令や、データ、露光制御に関するプログラム線図などを一時的に記憶する。要するに、メモリ515は、第1のイメージセンサ310と第2のイメージセンサ410での画像処理、およびプログラムの実行を実現する為に一時的にデータを記憶する。   The memory 515 temporarily stores image data that is the output of the first image sensor 310 and the second image sensor 410. The memory 515 temporarily stores image data being processed by the controller 512 and image data after the processing is completed. Further, the memory 515 is also used as a program memory of the controller 512, and temporarily stores program instructions, data, a program diagram related to exposure control, and the like. In short, the memory 515 temporarily stores data in order to realize image processing and program execution by the first image sensor 310 and the second image sensor 410.

表示部518は、コントローラ512によって画像処理された画像データを表示するディスプレイであり、液晶ディスプレイなどである。第1のイメージセンサ310と第2のイメージセンサ410の合成データ、第1のイメージセンサ310と第2のイメージセンサ410の一部を切り出したデータ、操作パネルなどを表示する。   The display unit 518 is a display that displays the image data image-processed by the controller 512, and is a liquid crystal display or the like. The composite data of the first image sensor 310 and the second image sensor 410, data obtained by cutting out a part of the first image sensor 310 and the second image sensor 410, an operation panel, and the like are displayed.

第1の撮像部300が生成する画像データと、第2の撮像部400が撮像する画像データは、実施の形態1と同様に、撮像する被写体の一部が重複(ライン数ΔL)するように読出し方向と垂直な方向に配置されている。   As in the first embodiment, the image data generated by the first imaging unit 300 and the image data captured by the second imaging unit 400 are overlapped (number of lines ΔL) as part of the subject to be imaged. It is arranged in a direction perpendicular to the reading direction.

[3−2.動作]
図7は実施の形態3における第1のイメージセンサ310の動作に係る信号の一例を示すタイミングチャートである。水平同期信号H3は、第1のイメージセンサ310の水平同期タイミングを示す信号である。垂直同期信号V3は、第1のイメージセンサ310の垂直同期タイミングを示す信号である。外部信号CLK5Aが入力されるまで、第1の撮像部300はTG314が生成した信号CLK3で動作する。外部信号CLK5Aとして例えば水平同期タイミングの信号が入力されると、水平同期信号H3は、PLLを介してCLK5Aとの位相差がフィードバックされ、次第にCLK5Aに同期する(Tlock)。第2の撮像部400も同様に、外部信号CLK5Bが入力されると同期する。
[3-2. Operation]
FIG. 7 is a timing chart showing an example of signals related to the operation of the first image sensor 310 in the third embodiment. The horizontal synchronization signal H3 is a signal indicating the horizontal synchronization timing of the first image sensor 310. The vertical synchronization signal V3 is a signal indicating the vertical synchronization timing of the first image sensor 310. Until the external signal CLK5A is input, the first imaging unit 300 operates with the signal CLK3 generated by the TG 314. When, for example, a signal of horizontal synchronization timing is input as the external signal CLK5A, the phase difference of the horizontal synchronization signal H3 from the CLK5A is fed back via the PLL, and is gradually synchronized with the CLK5A (Tlock). Similarly, the second imaging unit 400 is synchronized when the external signal CLK5B is input.

コントローラ512は、重複ライン数ΔLに応じて、第1のイメージセンサ310の垂直同期信号V3(フレーム同期タイミング)に対して、第2のイメージセンサ410の垂直同期タイミングをΔtだけ遅延させる。この遅延量については、実施の形態1および実施の形態2と同様である。   The controller 512 delays the vertical synchronization timing of the second image sensor 410 by Δt with respect to the vertical synchronization signal V3 (frame synchronization timing) of the first image sensor 310 according to the number of overlapping lines ΔL. This delay amount is the same as in the first and second embodiments.

[3−3.効果等]
1つのイメージセンサのみを有する撮像装置を複数組み合わせて、それらの映像から広角画像をつくりだす場合にも、実施の形態1と2と同じく重複領域の時間的なズレを軽減できる効果が得られる。
[3-3. Effect]
Even when a plurality of imaging devices having only one image sensor are combined to produce a wide-angle image from these images, the effect of reducing the temporal shift of the overlapping region as in the first and second embodiments can be obtained.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。
(Other embodiments)
As described above, Embodiments 1 to 3 have been described as examples of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments that have been changed, replaced, added, omitted, and the like.

そこで、以下、他の実施の形態を例示する。   Therefore, other embodiments will be exemplified below.

実施の形態1〜3では、イメージセンサの一例としてCMOSイメージセンサ(110、111、310、410)を説明した。本開示においては、イメージセンサはローリングシャッタを持つイメージセンサであれば良い。したがって、イメージセンサはCMOSイメージセンサに限定されない。また、イメージセンサの全画素を用いて画像データとして記録する例を示したが、全画素の一部を有効画素として用いても良い。この場合は、無効画素を用いて重複領域の有するライン数ΔLの算出を行うことができる。   In the first to third embodiments, the CMOS image sensor (110, 111, 310, 410) has been described as an example of the image sensor. In the present disclosure, the image sensor may be an image sensor having a rolling shutter. Therefore, the image sensor is not limited to a CMOS image sensor. Moreover, although the example which records as image data using all the pixels of an image sensor was shown, you may use a part of all the pixels as an effective pixel. In this case, it is possible to calculate the number of lines ΔL that the overlapping area has using invalid pixels.

実施の形態1〜3では、撮像装置(100、600)や撮像部(300、400)を制御する一例としてコントローラ(112、312、412、512)について説明した。本開示においては、コントローラ(112、312、412、512)はハードロジックで構成しても良いし、プログラムを用いたマイクロコンピュータなどで構成しても良い。コントローラ(112、312、412、512)をハードロジックで実現すれば処理速度の向上につながる。マイクロコンピュータで実現すればプログラムの変更で処理内容を変更できるため、コントローラの設計自由度を向上させることができる。コントローラ(112、312、412、512)で行う各種の画像処理というのは、ホワイトバランス調整処理、ガンマ補正処理、キズ補正処理、収差補正処理、YC変換処理、ローリングシャッタ歪補正等であるが、これらに限定されるものではなく、全ての画像処理を行うものであっても良いし、その一部だけ行うものであっても良い。また、このような画像処理は、コントローラ(112、312、412、512)の外部のイメージプロセッサで行っても良く、イメージプロセッサはイメージセンサにモジュール化されていても良い。   In the first to third embodiments, the controller (112, 312, 412, 512) has been described as an example of controlling the imaging device (100, 600) and the imaging unit (300, 400). In the present disclosure, the controllers (112, 312, 412, 512) may be configured by hard logic, or may be configured by a microcomputer using a program. If the controllers (112, 312, 412, 512) are realized by hard logic, the processing speed can be improved. If it is realized by a microcomputer, the processing contents can be changed by changing the program, so that the degree of freedom in designing the controller can be improved. Various image processing performed by the controllers (112, 312, 412, 512) includes white balance adjustment processing, gamma correction processing, scratch correction processing, aberration correction processing, YC conversion processing, rolling shutter distortion correction, and the like. The present invention is not limited to these, and all image processing may be performed, or only a part thereof may be performed. Such image processing may be performed by an image processor outside the controller (112, 312, 412, 512), and the image processor may be modularized in the image sensor.

実施の形態1〜3では、イメージセンサ(110、111、310、410)の読出し開始のトリガを立ち下がり信号で表しているが、これに限定するものではなく、立ち上がり信号であっても良い。また、第1のイメージセンサ110と第2のイメージセンサ111の読出しライン数が等しく、第1のイメージセンサ310と第2のイメージセンサ410の読出しライン数、が等しい場合を示しているが、これに限定するものではない。第1のイメージセンサ(110または310)の読出しライン数が多くても、第2のイメージセンサ(111または410)の読出しライン数が多くても良い。   In the first to third embodiments, the trigger for starting reading of the image sensors (110, 111, 310, 410) is represented by a falling signal, but the present invention is not limited to this, and a rising signal may be used. Further, the case where the number of readout lines of the first image sensor 110 and the second image sensor 111 is equal and the number of readout lines of the first image sensor 310 and the second image sensor 410 is equal is shown. It is not limited to. The number of readout lines of the first image sensor (110 or 310) may be large, or the number of readout lines of the second image sensor (111 or 410) may be large.

実施の形態1〜3では、外部トリガのエッジからエッジの間隔でイメージセンサの露光期間を制御する例を示したが、これに限定するものではなく、イメージセンサに露光期間(読出しタイミング)を設定しても良い。使用するイメージセンサの仕様に応じて、イメージセンサの露光期間(読出しタイミング)を制御すればよい。   In the first to third embodiments, the example in which the exposure period of the image sensor is controlled at the edge-to-edge interval of the external trigger is not limited to this, and the exposure period (reading timing) is set in the image sensor. You may do it. What is necessary is just to control the exposure period (reading timing) of an image sensor according to the specification of the image sensor to be used.

実施の形態1〜3では、イメージセンサの露光開始タイミングを制御するトリガとして、垂直同期信号を用いた、外部トリガ同期モードを例について説明した。イメージセンサが撮像する各ラインの露光期間を制御するトリガとして、水平同期信号を用いて、各ラインの露光期間を制御しても良い。使用するイメージセンサの仕様に応じて、イメージセンサが撮像する各ラインの露光期間(読出しタイミング)を制御すれば良い。   In the first to third embodiments, the external trigger synchronization mode using the vertical synchronization signal as the trigger for controlling the exposure start timing of the image sensor has been described as an example. You may control the exposure period of each line using a horizontal synchronizing signal as a trigger which controls the exposure period of each line which an image sensor images. What is necessary is just to control the exposure period (reading timing) of each line which an image sensor images according to the specification of the image sensor to be used.

実施の形態1〜3では、図4B、図5を用いて、第1のイメージセンサ(110、310)と第2のイメージセンサ(111、410)の読出しタイミングを説明した。図4B、図5では、第1のイメージセンサ110に対して、第2のイメージセンサ111の読出しをΔtだけ遅延させたが、イメージセンサの読み出し方向が反対方向であれば、第2のイメージセンサ111に対して第1のイメージセンサ110の読み出しタイミングをΔtだけ遅延させても良い。   In the first to third embodiments, the read timing of the first image sensor (110, 310) and the second image sensor (111, 410) has been described with reference to FIGS. 4B and 5. 4B and 5, the reading of the second image sensor 111 is delayed by Δt with respect to the first image sensor 110, but if the reading direction of the image sensor is the opposite direction, the second image sensor The readout timing of the first image sensor 110 may be delayed by Δt with respect to 111.

実施の形態1〜3では、TGをコントローラの外部に設けたが、コントローラや、イメージセンサの内部にあっても良く、イメージセンサが撮像する各ラインの露光期間(読出しタイミング)を制御することができればどこにあっても良い。   In the first to third embodiments, the TG is provided outside the controller. However, the TG may be provided inside the controller or the image sensor, and the exposure period (reading timing) of each line captured by the image sensor may be controlled. It can be anywhere if possible.

実施の形態1、2では、重複領域の画像データとして、第1のイメージセンサ110の画像データの映像を用いた例を示した。しかし、重複領域の画像データは、第2のイメージセンサ111の画像データを使ってもよいし、または両者の画像データを元に画像処理を施した映像を使っても良い。   In the first and second embodiments, the example in which the video of the image data of the first image sensor 110 is used as the image data of the overlapping region is shown. However, the image data of the overlapping area may be the image data of the second image sensor 111, or may be a video that has been subjected to image processing based on both image data.

実施の形態1〜3では、図3、図7を用いてイメージセンサの制御に係る同期について説明した。図3、図7は水平同期信号を一例として同期を説明したが、同期する信号は、イメージセンサの動作クロックであっても垂直同期信号であっても良い。イメージセンサの動作の基準となるクロックであればよく、これに限定されるものではない。   In the first to third embodiments, the synchronization related to the control of the image sensor has been described with reference to FIGS. 3 and 7. 3 and 7 have been described with reference to the horizontal synchronization signal as an example, the signal to be synchronized may be an operation clock of the image sensor or a vertical synchronization signal. Any clock can be used as a reference for the operation of the image sensor, and the present invention is not limited to this.

実施の形態3では、表示部518に液晶ディスプレイを用いた。本開示においては、これに限定したものではなく、例えば有機EL(Electro−Luminescence)ディスプレイでも良いし、外部接続されたモニタでも良い。   In Embodiment 3, a liquid crystal display is used for the display portion 518. The present disclosure is not limited to this, and may be, for example, an organic EL (Electro-Luminescence) display or an externally connected monitor.

なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   The above-described embodiments are for illustrating the technique in the present disclosure, and various modifications, replacements, additions, omissions, and the like can be made within the scope of the claims and their equivalents.

本開示は、複数の映像を組み合わせることで広角映像をつくりだし、任意の範囲を切り出す撮像装置に適用可能である。具体的には、デジタルカメラ、デジタルビデオカメラ、監視カメラ、カメラ機能付き携帯電話、スマートフォンなどに、本開示は適用可能である。   The present disclosure is applicable to an imaging apparatus that creates a wide-angle image by combining a plurality of images and cuts out an arbitrary range. Specifically, the present disclosure can be applied to a digital camera, a digital video camera, a surveillance camera, a mobile phone with a camera function, a smartphone, and the like.

100 撮像装置
110 第1のイメージセンサ
111 第2のイメージセンサ
112 コントローラ
114 タイミングジェネレータ(TG)
115 メモリ
CLK1 第1のイメージセンサ110の動作信号
CLK2 第2のイメージセンサ111の動作信号
V1 第1のイメージセンサ110の垂直同期信号
H1 第1のイメージセンサ110の水平同期信号
V2 第2のイメージセンサ111の垂直同期信号
H2 第2のイメージセンサ111の水平同期信号
120 被写体の上部の画像データ
121 被写体の下部の画像データ
122 合成した画像データ
200 被写体
200A 被写体の上部
200B 被写体の下部
201 被写体
202A 第1のイメージセンサ110が生成した画像データ
202B 第1のイメージセンサ110が生成した画像データ
202C 第1のイメージセンサ110が生成した画像データ
203A 第2のイメージセンサ111が生成した画像データ
203B 第2のイメージセンサ111が生成した画像データ
203C 第2のイメージセンサ111が生成した画像データ
300 第1の撮像部
310 第1のイメージセンサ
312 コントローラ
314 タイミングジェネレータ(TG)
315 メモリ
CLK3 第1のイメージセンサ310の動作信号
400 第2の撮像部
410 第2のイメージセンサ
412 コントローラ
414 タイミングジェネレータ(TG)
415 メモリ
CLK4 第2のイメージセンサ410の動作信号
500 外部装置
512 コントローラ
515 メモリ
518 表示部
CLK5A 外部装置500から第1の撮像部300へ送られる外部信号
CLK5B 外部装置500から第2の撮像部400へ送られる外部信号
600 撮像装置
DESCRIPTION OF SYMBOLS 100 Image pick-up device 110 1st image sensor 111 2nd image sensor 112 Controller 114 Timing generator (TG)
115 Memory CLK1 Operation signal of the first image sensor 110 CLK2 Operation signal of the second image sensor 111 V1 Vertical synchronization signal of the first image sensor 110 H1 Horizontal synchronization signal of the first image sensor 110 V2 Second image sensor 111 Vertical synchronization signal H2 Horizontal synchronization signal of the second image sensor 111 120 Image data of the upper part of the subject 121 Image data of the lower part of the subject 122 Combined image data 200 Subject 200A Upper part of the subject 200B Lower part of the subject 201 Subject 202A First 202B Image data generated by the first image sensor 110 202C Image data generated by the first image sensor 110 202C Image data generated by the first image sensor 110 203A Image data generated by the second image sensor 111 3B the second image data 300 a first image sensor 111 is image data 203C second image sensor 111 that generated the production of the imaging unit 310 first image sensor 312 controller 314 a timing generator (TG)
315 Memory CLK3 Operation signal of the first image sensor 310 400 Second imaging unit 410 Second image sensor 412 Controller 414 Timing generator (TG)
415 Memory CLK4 Operation signal of second image sensor 410 500 External device 512 Controller 515 Memory 518 Display unit CLK5A External signal sent from external device 500 to first imaging unit 300 CLK5B From external device 500 to second imaging unit 400 External signal sent 600 Imaging device

Claims (5)

被写体の一部が重複するように撮像して画像データを生成するローリングシャッタ方式である第1のイメージセンサおよび第2のイメージセンサと、
前記第1のイメージセンサおよび前記第2のイメージセンサの動作タイミングを制御するタイミングジェネレータと、
前記生成された画像データに対して画像処理を施すとともに、前記タイミングジェネレータを制御するコントローラと、
を備え、
前記コントローラは、前記第1のイメージセンサと第2のイメージセンサにより生成された重複領域が有する各ラインの露光期間のタイミングが合うように前記タイミングジェネレータを制御する、
撮像装置。
A first image sensor and a second image sensor, which are rolling shutter systems that capture and capture image data so that part of the subject overlaps;
A timing generator for controlling operation timing of the first image sensor and the second image sensor;
A controller for performing image processing on the generated image data and controlling the timing generator;
With
The controller controls the timing generator so that the timing of the exposure period of each line included in the overlapping area generated by the first image sensor and the second image sensor matches.
Imaging device.
前記コントローラは、前記重複領域が有するライン数に応じて、前記第1のイメージセンサのフレーム同期タイミングに対して、前記第2のイメージセンサのフレーム同期タイミングを遅延させるよう前記タイミングジェネレータを制御する、
請求項1に記載の撮像装置。
The controller controls the timing generator to delay the frame synchronization timing of the second image sensor with respect to the frame synchronization timing of the first image sensor according to the number of lines included in the overlapping region.
The imaging device according to claim 1.
前記コントローラは、前記第1のイメージセンサのフレーム同期タイミングに対して、前記第2のイメージセンサのフレーム同期タイミングを、以下の条件(1)を満足するΔt秒遅延するように前記タイミングジェネレータを制御する、
請求項1に記載の撮像装置:
Δt/E1 = 1−ΔL/L1・・・(1)
ここで、
E1: 前記第1のイメージセンサが撮像する開始ラインの露光開始から終了ラインの露光開始までの時間[秒]、
L1: 前記第1のイメージセンサが撮像する水平ライン数、
ΔL: 前記第1のイメージセンサが撮像する、前記重複領域が有するライン数、
である。
The controller controls the timing generator so that the frame synchronization timing of the second image sensor is delayed by Δt seconds that satisfies the following condition (1) with respect to the frame synchronization timing of the first image sensor. To
The imaging device according to claim 1:
Δt / E1 = 1−ΔL / L1 (1)
here,
E1: Time [seconds] from the start of exposure of the start line to the start of exposure of the end line taken by the first image sensor;
L1: Number of horizontal lines taken by the first image sensor,
ΔL: the number of lines of the overlapping region that the first image sensor captures,
It is.
前記コントローラは、前記第1のイメージセンサおよび前記第2のイメージセンサが生成する画像データのうち、指定された範囲の画像を合成する、
請求項1に記載の撮像装置。
The controller synthesizes an image in a specified range among image data generated by the first image sensor and the second image sensor.
The imaging device according to claim 1.
前記コントローラは、前記第1のイメージセンサおよび前記第2のイメージセンサが生成する画像データのうち、指定された範囲の画像を切り出す、
請求項1に記載の撮像装置。
The controller cuts out an image in a specified range from image data generated by the first image sensor and the second image sensor.
The imaging device according to claim 1.
JP2017003806A 2016-03-30 2017-01-13 Imaging apparatus Pending JP2017188871A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/429,323 US10044963B2 (en) 2016-03-30 2017-02-10 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016067203 2016-03-30
JP2016067203 2016-03-30

Publications (1)

Publication Number Publication Date
JP2017188871A true JP2017188871A (en) 2017-10-12

Family

ID=60045012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017003806A Pending JP2017188871A (en) 2016-03-30 2017-01-13 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2017188871A (en)

Similar Documents

Publication Publication Date Title
JP6834976B2 (en) Multi-camera system, multi-camera system control method and camera
KR20080064719A (en) Image display control device
JP2012105254A (en) Imaging device
JP4199238B2 (en) Shooting system
JP2014197832A (en) Image-capturing device and drive method thereof
US20200021736A1 (en) Signal processing circuit and imaging apparatus
JP5310647B2 (en) Imaging device
JP6601020B2 (en) Imaging display device
JP2015220498A (en) Display processing apparatus and imaging device
US20070188645A1 (en) Image output apparatus, method and program thereof, and imaging apparatus
US8947556B2 (en) Image pickup apparatus, control method therefor, and storage medium storing control program therefor
JP6325886B2 (en) Display processing apparatus and imaging apparatus
JP6645279B2 (en) Imaging equipment
US8908060B2 (en) Imaging apparatus generating evaluation values at a high frame rate and having a live view function of displaying a video smoothly at a low frame rate
JP2013048333A (en) Image processor, image processing method and image processing system
JP2017188871A (en) Imaging apparatus
US10044963B2 (en) Imaging apparatus
US11356603B2 (en) Image capturing apparatus and control method therefor
JP5582229B2 (en) Camera, display device and image processing device
JP2014099714A (en) Image processing apparatus, imaging device, image processing method, and program
JP2013098877A (en) Stereo imaging device, synchronous imaging method and electronic information apparatus
JP6481701B2 (en) Imaging display device, control method, control device, display device, and imaging device
JP5965173B2 (en) Moving image processing system, image processing apparatus, and moving image processing system operating method
JP2018137003A (en) Image processing device and image processing method
JP6103106B2 (en) Imaging display device, imaging control method thereof, control device, display device, and imaging device.

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210817