JP2014003417A - Image pickup device - Google Patents

Image pickup device Download PDF

Info

Publication number
JP2014003417A
JP2014003417A JP2012136574A JP2012136574A JP2014003417A JP 2014003417 A JP2014003417 A JP 2014003417A JP 2012136574 A JP2012136574 A JP 2012136574A JP 2012136574 A JP2012136574 A JP 2012136574A JP 2014003417 A JP2014003417 A JP 2014003417A
Authority
JP
Japan
Prior art keywords
image
image sensor
main subject
subject
rolling shutter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012136574A
Other languages
Japanese (ja)
Inventor
Masanari Kendo
真成 犬童
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012136574A priority Critical patent/JP2014003417A/en
Publication of JP2014003417A publication Critical patent/JP2014003417A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce rolling shutter distortion appropriately even in cases where the subject moves fast.SOLUTION: An image pickup device 100 comprises: a first image sensor 101 for picking up a subject image; a second image sensor 111 for picking up a subject image; first rolling shutter control means 103 for differentiating the exposure timing of the first image sensor 101 in a designated direction for each pixel row; second rolling shutter control means 113 for differentiating the exposure timing of the second image sensor 111 in a direction opposite to the designated direction for each pixel row; determination means 117 for determining a correction target region on the basis of a difference between a first image acquired by the first image sensor 101 and a second image acquired by the second image sensor 111; and correction means 115 for shifting for each pixel row a main subject region within the correction target region, of the first image, which was determined by the determination means 117.

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

固体撮像素子の水平ライン間で露光タイミングが異なることに起因して、取得される画像に歪み(ローリングシャッタ歪み)が生じることがある。このローリングシャッタ歪みを抑えるため、第1撮像を行った後で水平ライン間の走査方向を変えて第2撮像を行い、得られた2つの画像に基づいて画像の歪みを補正する技術が知られている(特許文献1参照)。   Due to the difference in exposure timing between horizontal lines of the solid-state image sensor, distortion (rolling shutter distortion) may occur in the acquired image. In order to suppress the rolling shutter distortion, a technique is known in which after the first imaging, the second imaging is performed by changing the scanning direction between the horizontal lines, and the distortion of the image is corrected based on the two obtained images. (See Patent Document 1).

特開2010−154390号公報JP 2010-154390 A

従来技術では、2つの撮像タイミングに時間差があるので、速く移動する被写体を撮影する場合への適用が困難という問題があった。   In the conventional technique, there is a time difference between the two imaging timings, and thus there is a problem that it is difficult to apply to shooting a fast moving subject.

本発明による撮像装置は、被写体像を撮像する第1撮像素子と、被写体像を撮像する第2撮像素子と、第1撮像素子の露光タイミングを画素列ごとに所定方向に異ならせる第1ローリングシャッタ制御手段と、第2撮像素子の露光タイミングを画素列ごとに所定方向と反対向きに異ならせる第2ローリングシャッタ制御手段と、第1撮像素子で取得される第1画像と第2撮像素子で取得される第2画像との差分に基づいて補正対象領域を決定する決定手段と、第1画像のうち、決定手段で決定された補正対象領域内の主要被写体領域を画素列ごとにずらす補正手段と、を備えることを特徴とする。   An image pickup apparatus according to the present invention includes a first image pickup element that picks up a subject image, a second image pickup element that picks up a subject image, and a first rolling shutter that varies the exposure timing of the first image pickup element in a predetermined direction for each pixel column. Acquired by the control means, the second rolling shutter control means for changing the exposure timing of the second image sensor in a direction opposite to the predetermined direction for each pixel row, and the first image and the second image sensor acquired by the first image sensor. Determining means for determining a correction target area based on a difference from the second image to be corrected; and correcting means for shifting a main subject area in the correction target area determined by the determining means for each pixel column in the first image; It is characterized by providing.

本発明による撮像装置では、ローリングシャッタ歪みを適切に低減できる。   In the imaging apparatus according to the present invention, rolling shutter distortion can be appropriately reduced.

本発明の一実施の形態によるカメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of the camera by one embodiment of the present invention. CPUが実行する撮影処理の流れを例示するフローチャートである。It is a flowchart which illustrates the flow of the imaging | photography process which CPU performs. ローリングシャッタ歪み補正処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of a rolling shutter distortion correction process. 静止する主要被写体を撮影した第1画像を例示する図である。It is a figure which illustrates the 1st picture which photoed the main subject which stops. 画面左から右へ移動する主要被写体を撮影した第1画像を例示する図である。It is a figure which illustrates the 1st picture which photoed the main subject moving from the screen left to the right. 画面左から右へ移動する主要被写体を撮影した第2画像を例示する図である。It is a figure which illustrates the 2nd picture which photoed the main subject moving from the screen left to the right. 第1画像と第2画像との差分を例示する図である。It is a figure which illustrates the difference of the 1st image and the 2nd image. 水平ラインごとにデータを移動した後の第1画像を例示する図である。It is a figure which illustrates the 1st image after moving data for every horizontal line. 水平ラインごとにデータを補間した後の第1画像を例示する図である。It is a figure which illustrates the 1st image after interpolating data for every horizontal line. 画面右から左へ移動する主要被写体を撮影した第1画像を例示する図である。It is a figure which illustrates the 1st image which photoed the main subject which moves from the screen right to the left. 画面右から左へ移動する主要被写体を撮影した第2画像を例示する図である。It is a figure which illustrates the 2nd image which photoed the main subject which moves from the screen right to the left. 第1画像と第2画像との差分を例示する図である。It is a figure which illustrates the difference of the 1st image and the 2nd image. 水平ラインごとにデータを移動した後の第1画像を例示する図である。It is a figure which illustrates the 1st image after moving data for every horizontal line. 水平ラインごとにデータを補間した後の第1画像を例示する図である。It is a figure which illustrates the 1st image after interpolating data for every horizontal line. 画面左から右へ移動して停止する主要被写体を撮影した第1画像を例示する図である。It is a figure which illustrates the 1st image which imaged the main subject which moves from the screen left to the right and stops. 画面左から右へ移動して停止する主要被写体を撮影した第2画像を例示する図である。It is a figure which illustrates the 2nd image which imaged the main subject which moves from the screen left to the right and stops. 第1画像と第2画像との差分を例示する図である。It is a figure which illustrates the difference of the 1st image and the 2nd image. 水平ラインごとにデータを移動した後の第1画像を例示する図である。It is a figure which illustrates the 1st image after moving data for every horizontal line. 水平ラインごとにデータを補間した後の第1画像を例示する図である。It is a figure which illustrates the 1st image after interpolating data for every horizontal line.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態によるカメラ100の構成を例示するブロック図である。本実施形態のカメラ100は、2つの撮像素子101、111によって同一の被写体を撮像する。このためにカメラ100は、第1撮像素子101と、A/D変換部102と、撮像制御部103と、第2撮像素子111と、A/D変部112と、撮像制御部113と、画像処理部115と、メモリ116と、CPU117と、操作部材118と、撮影レンズ121と、レンズ駆動部122と、絞り駆動部123と、ビームスプリッタ124と、を有する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of a camera 100 according to an embodiment of the present invention. The camera 100 of the present embodiment images the same subject using the two imaging elements 101 and 111. For this purpose, the camera 100 includes a first image sensor 101, an A / D converter 102, an image controller 103, a second image sensor 111, an A / D converter 112, an image controller 113, and an image. The processing unit 115, the memory 116, the CPU 117, the operation member 118, the photographing lens 121, the lens driving unit 122, the aperture driving unit 123, and the beam splitter 124 are included.

撮影レンズ121は、ビームスプリッタ124を介して第1撮像素子101および第2撮像素子111の撮像面にそれぞれ被写体像を結像させる。レンズ駆動部122は、CPU117からの指示に基づいて、図示しないフォーカシングレンズおよびズームレンズをそれぞれ光軸方向に進退移動させる。   The photographing lens 121 forms subject images on the imaging surfaces of the first imaging element 101 and the second imaging element 111 via the beam splitter 124. The lens driving unit 122 moves a focusing lens and a zoom lens (not shown) forward and backward in the optical axis direction based on instructions from the CPU 117.

絞り駆動部123は、CPU117からの指示に基づいて図示しない絞りを駆動することにより、撮影レンズ121からビームスプリッタ124へ入射される光束を制限する。ビームスプリッタ124は、例えばハーフミラーで構成される。ビームスプリッタ124は、入射された被写体光を2光束に分岐し、一方の光束を第2撮像素子111へ向けて射出し、他方の光束を第1撮像素子101へ向けて射出する。これにより、第1撮像素子101および第2撮像素子111のそれぞれの撮像面に被写体像が結像される。   The aperture driving unit 123 limits the luminous flux incident on the beam splitter 124 from the photographing lens 121 by driving an aperture (not shown) based on an instruction from the CPU 117. The beam splitter 124 is composed of, for example, a half mirror. The beam splitter 124 splits the incident subject light into two light beams, emits one light beam toward the second image sensor 111, and emits the other light beam toward the first image sensor 101. As a result, subject images are formed on the respective imaging surfaces of the first imaging element 101 and the second imaging element 111.

第1撮像素子101および第2撮像素子111は、同じ画素数のCMOSイメージセンサによって構成される。両撮像素子101、111はそれぞれ、水平ラインごとに露光を開始させて順次光電変換信号を読み出すように撮像制御される(ローリングシャッタ制御)。撮像制御部103は、画面上側の水平ラインから画面下側の水平ラインへ向けて露光および読み出しを行うように第1撮像素子101を撮像制御する。撮像制御部113は、画面下側の水平ラインから画面上側の水平ラインへ向けて露光および読み出しを行うように第2撮像素子111を撮像制御する。   The first image sensor 101 and the second image sensor 111 are constituted by CMOS image sensors having the same number of pixels. Both the image sensors 101 and 111 are controlled so as to start exposure for each horizontal line and sequentially read out photoelectric conversion signals (rolling shutter control). The imaging control unit 103 controls imaging of the first imaging element 101 so that exposure and readout are performed from the horizontal line on the upper side of the screen toward the horizontal line on the lower side of the screen. The imaging control unit 113 controls imaging of the second imaging element 111 so that exposure and readout are performed from the horizontal line on the lower side of the screen toward the horizontal line on the upper side of the screen.

A/D変換部102は、第1撮像素子101から読み出された光電変換信号をデジタルデータに変換する。A/D変換部112は、第2撮像素子111から読み出された光電変換信号をデジタルデータに変換する。画像処理部115は、デジタル変換後の画像データに対して後述するローリングシャッタ歪み補正処理、および所定の画像処理を施す。メモリ116は、画像データの一時保存やCPU117のワークメモリとして用いられる。CPU117は、所定のプログラムを実行してカメラ100全体の動作を制御する。操作部材118は、ユーザ操作に応じた操作信号をCPU117へ送出する。   The A / D converter 102 converts the photoelectric conversion signal read from the first image sensor 101 into digital data. The A / D conversion unit 112 converts the photoelectric conversion signal read from the second image sensor 111 into digital data. The image processing unit 115 performs rolling shutter distortion correction processing, which will be described later, and predetermined image processing on the image data after digital conversion. The memory 116 is used as a temporary storage for image data and a work memory for the CPU 117. The CPU 117 controls the overall operation of the camera 100 by executing a predetermined program. The operation member 118 sends an operation signal corresponding to the user operation to the CPU 117.

上述したカメラ100のCPU117が実行する撮影処理の流れについて、図2に例示するフローチャートを参照して説明する。CPU117は、ローリングシャッタ歪み補正処理を行う設定がなされた電源オン状態で、図2による処理を繰り返し行う。ローリングシャッタ歪み補正処理を行うか否かの設定切替えは、例えばメニュー操作によって行われる。   A flow of photographing processing executed by the CPU 117 of the camera 100 described above will be described with reference to a flowchart illustrated in FIG. The CPU 117 repeatedly performs the process of FIG. 2 in the power-on state in which the setting for performing the rolling shutter distortion correction process is performed. Switching between setting whether or not to perform the rolling shutter distortion correction processing is performed by, for example, a menu operation.

図2のステップS10において、CPU117は、操作部材118を構成するレリーズ釦が半押し操作されたか否かを判断する。CPU117は、操作部材118から半押し操作信号が入力されるとステップS10を肯定判断してステップS20へ進み、操作部材118から半押し操作信号が入力されない場合にはステップS10を否定判定し、図2による処理を終了する。   In step S <b> 10 of FIG. 2, the CPU 117 determines whether or not the release button constituting the operation member 118 has been half-pressed. When the half-press operation signal is input from the operation member 118, the CPU 117 makes a positive determination in step S10 and proceeds to step S20. When the half-press operation signal is not input from the operation member 118, the CPU 117 makes a negative determination in step S10. The process according to 2 ends.

ステップS20において、CPU117は撮像制御部103へ指示を送り、ライブビュー表示および露出制御用のために撮像素子101を撮像制御させる。ステップS30において、CPU117は露出演算およびライブビュー表示用処理を行う。これにより、撮像素子101で取得された画像データに基づいて露出演算が行われるとともに、取得された画像データにライブビュー表示用処理が施され、不図示の液晶モニタにライブビュー画像が表示される。ライブビュー画像は、撮影指示前に所定間隔(例えば30フレーム/秒)で取得するモニタ用画像のことをいう。   In step S20, the CPU 117 sends an instruction to the imaging control unit 103 to cause the imaging device 101 to perform imaging control for live view display and exposure control. In step S30, the CPU 117 performs exposure calculation and live view display processing. Thus, exposure calculation is performed based on the image data acquired by the image sensor 101, live view display processing is performed on the acquired image data, and a live view image is displayed on a liquid crystal monitor (not shown). . The live view image refers to a monitor image acquired at a predetermined interval (for example, 30 frames / second) before a shooting instruction.

ステップS40において、CPU117はAF演算を行う。本実施形態では、コントラスト検出方式によるAF演算を行う。具体的には、ライブビュー画像に基づいてコントラストを検出しながら、ステップS50においてレンズ駆動部122へ指示を送り、コントラストがより高く検出される向きへフォーカシングレンズを移動させる。   In step S40, the CPU 117 performs AF calculation. In the present embodiment, AF calculation is performed by a contrast detection method. Specifically, while detecting the contrast based on the live view image, an instruction is sent to the lens driving unit 122 in step S50, and the focusing lens is moved in a direction in which the contrast is detected to be higher.

ステップS60において、CPU117は、操作部材118を構成するレリーズ釦が全押し操作されたか否かを判断する。CPU117は、操作部材118から全押し操作信号が入力された場合にステップS60を肯定判断してステップS70へ進む。CPU117は、操作部材118から全押し操作信号が入力されない場合には、ステップS60を否定判定してステップS10へ戻る。   In step S60, the CPU 117 determines whether or not the release button constituting the operation member 118 has been fully pressed. When the full-press operation signal is input from the operation member 118, the CPU 117 makes a positive determination in step S60 and proceeds to step S70. If the full-press operation signal is not input from the operation member 118, the CPU 117 makes a negative determination in step S60 and returns to step S10.

ステップS70において、CPU117は、ステップS30での露出演算結果に基づいて自動露出制御(AE制御)を行う。具体的には、絞り制御部123へ指示を送り、演算結果に基づく絞り値に制御する。ステップS80において、CPU117は、ステップS30での露出演算結果に基づいて撮像制御部103へ指示を送り、第1撮像素子101を撮像制御させる。ステップS90において、CPU117は、ステップS30での露出演算結果に基づいて撮像制御部113へ指示を送り、第2撮像素子111を撮像制御させる。ステップS80およびステップS90による撮像を並行して行うことにより、両撮像素子101、111で略同時に取得された画像データを画像処理部115へ送る。   In step S70, the CPU 117 performs automatic exposure control (AE control) based on the exposure calculation result in step S30. Specifically, an instruction is sent to the aperture control unit 123 to control the aperture value based on the calculation result. In step S <b> 80, the CPU 117 sends an instruction to the imaging control unit 103 based on the exposure calculation result in step S <b> 30 to cause the first imaging element 101 to perform imaging control. In step S <b> 90, the CPU 117 sends an instruction to the imaging control unit 113 based on the exposure calculation result in step S <b> 30 to cause the second imaging element 111 to perform imaging control. By performing the imaging in step S80 and step S90 in parallel, the image data acquired by the imaging elements 101 and 111 substantially simultaneously is sent to the image processing unit 115.

ステップS100において、CPU117は画像処理部115へ指示を送り、ローリングシャッタ歪み補正処理を行う。本実施形態では、第1撮像素子101で取得された第1画像と第2撮像素子111で取得された第2画像との差に基づいてローリングシャッタ歪みが生じる範囲を求め、この範囲内で必要な補正処理を行う。ローリングシャッタ歪み補正処理の詳細については後述する。ステップS110において、CPU117はさらに、ローリングシャッタ歪み補正後の画像に輪郭強調処理やホワイトバランス処理などの画像処理を行ってステップS120へ進む。   In step S100, the CPU 117 sends an instruction to the image processing unit 115, and performs rolling shutter distortion correction processing. In the present embodiment, a range in which rolling shutter distortion occurs is obtained based on the difference between the first image acquired by the first image sensor 101 and the second image acquired by the second image sensor 111, and is necessary within this range. Corrective processing is performed. Details of the rolling shutter distortion correction processing will be described later. In step S110, the CPU 117 further performs image processing such as contour emphasis processing and white balance processing on the image after the rolling shutter distortion correction, and proceeds to step S120.

ステップS120において、CPU117は、画像処理後の画像を不図示の液晶モニタに表示させてステップS130へ進む。ステップS130において、CPU117はユーザによるOK操作を受け付ける。例えば、液晶モニタに表示された画像処理後の画像を確認したユーザは、操作部材118を構成する図示しないOK釦を操作する。CPU117は、操作部材118からOK操作信号が入力されるとステップS130を肯定判定してステップS140へ進み、操作部材118からOK操作信号が入力されない場合にはステップS130を否定判定してステップS10へ戻る。ステップS10へ戻る場合のCPU117は、撮影した画像データを記録せずに次の撮影に備える。ステップS140では、CPU117は、撮影した画像データを不図示の記録媒体へ記録して一連の撮影処理を終了し、図2による処理を終了する。   In step S120, the CPU 117 displays the image after image processing on a liquid crystal monitor (not shown), and proceeds to step S130. In step S130, the CPU 117 accepts an OK operation by the user. For example, a user who has confirmed the image after image processing displayed on the liquid crystal monitor operates an OK button (not shown) constituting the operation member 118. If an OK operation signal is input from the operation member 118, the CPU 117 makes an affirmative determination in step S130 and proceeds to step S140. If an OK operation signal is not input from the operation member 118, the CPU 117 makes a negative determination in step S130 and proceeds to step S10. Return. When returning to step S10, the CPU 117 prepares for the next shooting without recording the shot image data. In step S140, the CPU 117 records the captured image data on a recording medium (not shown), ends a series of shooting processes, and ends the process of FIG.

<ローリングシャッタ歪み補正>
本実施形態の特徴であるローリングシャッタ歪み補正処理(S100)の詳細について、図3に例示するフローチャートを参照して説明する。図3のステップS101において、CPU117は画像処理部115へ指示を送り、画素単位で第1画像と第2画像との差分演算を行わせる。
<Rolling shutter distortion correction>
Details of the rolling shutter distortion correction process (S100), which is a feature of the present embodiment, will be described with reference to the flowchart illustrated in FIG. In step S101 in FIG. 3, the CPU 117 sends an instruction to the image processing unit 115 to perform a difference calculation between the first image and the second image in units of pixels.

差分演算を図4〜図7を参照して説明する。図4は、静止する主要被写体を撮影した場合に第1撮像素子101で取得される第1画像(画像Pとする)を例示する図である。画像データは20水平ライン×40垂直ラインで構成されており、座標(16,6)、(16,15)、(25,6)、(25,15)をそれぞれ頂点とする四角形が、撮像面中央部の主要被写体を表している。なお、主要被写体が静止する状態では、第2撮像素子111で取得される第2画像も画像Pと略同一となる。   The difference calculation will be described with reference to FIGS. FIG. 4 is a diagram illustrating a first image (referred to as an image P) acquired by the first image sensor 101 when a still main subject is photographed. The image data is composed of 20 horizontal lines × 40 vertical lines, and a quadrangle having coordinates (16,6), (16,15), (25,6), and (25,15) as vertices is the imaging surface. It represents the main subject in the center. Note that the second image acquired by the second image sensor 111 is substantially the same as the image P when the main subject is stationary.

(画面左から右へ移動する主要被写体)
図5は、主要被写体が画面左から右へ移動する場合において第1撮像素子101で取得される第1画像(画像Aとする)を例示する図である。図4の場合と同様に20水平ライン×40垂直ラインで構成されており、座標(16,6)、(25,15)、(25,6)、(34,15)をそれぞれ頂点とする四角形が主要被写体を表す。上述したローリングシャッタ制御によって画面上側の水平ラインほど画面下側の水平ラインより露光タイミングが早いので、ローリングシャッタ歪みに起因して主要被写体像が画像Pと比べて変形している。
(Main subject moving from left to right on the screen)
FIG. 5 is a diagram illustrating a first image (referred to as image A) acquired by the first image sensor 101 when the main subject moves from the left to the right of the screen. As in the case of FIG. 4, it is composed of 20 horizontal lines × 40 vertical lines, and is a rectangle having coordinates (16,6), (25,15), (25,6), and (34,15) as vertices. Represents the main subject. Due to the rolling shutter control described above, the exposure timing is earlier in the horizontal line on the upper side of the screen than on the horizontal line on the lower side of the screen, so that the main subject image is deformed compared to the image P due to rolling shutter distortion.

図6は、主要被写体が画面左から右へ移動する場合において第2撮像素子111で取得される第2画像(画像Bとする)を例示する図である。画像Aと画像Bは水平ラインの走査方向が異なるだけで、略同時刻に取得される。図6の場合も20水平ライン×40垂直ラインで構成されており、座標(25,6)、(16,15)、(34,6)、(25,15)をそれぞれ頂点とする四角形が主要被写体を表す。上述したローリングシャッタ制御によって画面下側の水平ラインほど画面上側の水平ラインより露光タイミングが早いので、ローリングシャッタ歪みに起因して主要被写体像が画像Pと比べて変形している。   FIG. 6 is a diagram illustrating a second image (referred to as image B) acquired by the second image sensor 111 when the main subject moves from the left to the right of the screen. Image A and image B are acquired at substantially the same time except that the scanning direction of the horizontal lines is different. In the case of FIG. 6 as well, it is composed of 20 horizontal lines × 40 vertical lines, and a rectangle having vertices at coordinates (25,6), (16,15), (34,6), and (25,15) is the main. Represents the subject. Due to the rolling shutter control described above, the exposure timing is earlier in the horizontal line on the lower side of the screen than in the horizontal line on the upper side of the screen, so that the main subject image is deformed compared to the image P due to rolling shutter distortion.

図7は、ステップS101(図3)による差分演算結果(画像ABとする)を例示する図である。画像処理部115は、画像Aと画像Bの差をとって、画像Aおよび画像Bの少なくとも一方でローリングシャッタ歪みが生じる領域を検出する。なお、画像A、画像Bに含まれるノイズ等の影響を除くため、演算結果が所定値(例えば、±5LSB(最下位ビット))未満のデータを0として扱う。本実施形態では、演算結果が0でない領域を補正処理対象領域とする。   FIG. 7 is a diagram illustrating the difference calculation result (image AB) in step S101 (FIG. 3). The image processing unit 115 takes a difference between the image A and the image B and detects an area where rolling shutter distortion occurs in at least one of the image A and the image B. In order to eliminate the influence of noise and the like included in images A and B, data whose calculation result is less than a predetermined value (for example, ± 5 LSB (least significant bit)) is treated as 0. In the present embodiment, a region where the calculation result is not 0 is set as a correction processing target region.

図3のステップS102において、CPU117はローリングシャッタ歪み領域があるか否かを判定する。CPU117は、上述した差分演算結果が0でない補正処理対象領域が存在する場合にステップS102を肯定判定してステップS103へ進む。CPU117は、補正処理対象領域が存在しない場合は歪み補正処理が不要であるため、以降の処理をスキップして図3による処理を終了する。   In step S102 of FIG. 3, the CPU 117 determines whether there is a rolling shutter distortion region. The CPU 117 makes an affirmative determination in step S102 when the correction processing target area for which the difference calculation result is not 0 is present, and proceeds to step S103. The CPU 117 skips the subsequent processes and ends the process of FIG. 3 because the distortion correction process is unnecessary when the correction process target area does not exist.

ステップS103において、CPU117は画像処理部115へ指示を送り、第1画像(画像A)から補正処理対象領域かつ主要被写体に対応する領域aを抽出させる。また、ステップS104において、CPU117は画像処理部115へ指示を送り、第2画像(画像B)から補正処理対象領域かつ主要被写体に対応する領域bを抽出させる。   In step S103, the CPU 117 sends an instruction to the image processing unit 115 to extract the correction processing target area and the area a corresponding to the main subject from the first image (image A). In step S104, the CPU 117 sends an instruction to the image processing unit 115 to extract the correction processing target area and the area b corresponding to the main subject from the second image (image B).

ステップS105において、CPU117は画像処理部115へ指示を送り、抽出した領域bにおいて水平ラインごとに領域aのデータと合致するデータを探索させる。例えば、領域aを構成する水平ライン方向のデータ列の1番左(座標(xa,y)とする)の画素データから所定画素分(例えば5画素)のデータからなるデータ列をテンプレートとして、このテンプレートと合致する(差が±5LSB未満)データ列を同じ水平ライン上で領域bを構成するデータから探す。この探索によって検出した領域bのデータ列の1番左の画素データの座標を(xb,y)とする。   In step S105, the CPU 117 sends an instruction to the image processing unit 115 to search for data that matches the data in the area a for each horizontal line in the extracted area b. For example, a data string including data of a predetermined pixel (for example, 5 pixels) from pixel data on the leftmost side (coordinate (xa, y)) of the data line in the horizontal line direction constituting the area a is used as a template. A data string that matches the template (difference is less than ± 5 LSB) is searched from data constituting the region b on the same horizontal line. The coordinate of the leftmost pixel data in the data string of the area b detected by this search is defined as (xb, y).

ステップS106において、CPU117は画像処理部115へ指示を送り、水平ラインごとに領域aのラインデータに対する移動量を算出する。本実施形態では、領域aおよび領域b間における対応するデータの距離の1/2、すなわち、(xb - xa)/2 をそのラインにおける領域aのラインデータに対する移動量とする。上記距離の1/2を移動量とするのは、演算を簡単にするためである。   In step S <b> 106, the CPU 117 sends an instruction to the image processing unit 115, and calculates a movement amount for the line data in the area “a” for each horizontal line. In the present embodiment, ½ of the distance of the corresponding data between the area a and the area b, that is, (xb−xa) / 2 is set as the movement amount for the line data of the area a in the line. The reason why the movement amount is ½ of the distance is to simplify the calculation.

ステップS107において、CPU117は画像処理部115へ指示を送り、水平ラインごとに領域aを構成するラインデータを水平方向に(xb - xa)/2だけ移動させる。具体的には、領域aの各データを座標(xa,y)から座標(((xb - xa)/2+xa),y)へ平行移動させる 。図8は、画像Aから水平ラインごとにデータを移動した後の第1画像(画像Dとする)を例示する図である。   In step S107, the CPU 117 sends an instruction to the image processing unit 115, and moves the line data constituting the area a for each horizontal line by (xb−xa) / 2 in the horizontal direction. Specifically, each data of the area a is translated from the coordinate (xa, y) to the coordinate (((xb−xa) / 2 + xa), y). FIG. 8 is a diagram illustrating a first image (referred to as an image D) after data is moved from the image A for each horizontal line.

ステップS108において、CPU117は画像処理部115へ指示を送り、水平ラインごとに、ステップS107による移動によって空いたデータ位置を、対応する第2画像(画像B)のデータで埋めて補間する。具体的には、画像Bにおいて領域bと隣接するデータを貼り付ける。図9は、画像Dに対して水平ラインごとにデータを補間した後の第1画像(画像Eとする)を例示する図である。   In step S108, the CPU 117 sends an instruction to the image processing unit 115, and for each horizontal line, the data position vacated by the movement in step S107 is filled with the data of the corresponding second image (image B) and interpolated. Specifically, data adjacent to region b in image B is pasted. FIG. 9 is a diagram illustrating a first image (referred to as an image E) after data is interpolated from the image D for each horizontal line.

ステップS109において、CPU117は、補正処理対象領域の全ての水平ラインについてS105〜S108の処理を終了したか否かを判定する。CPU117は、全水平ラインについて終了した場合にステップS109を肯定判定して図3の処理を終了して図2のステップS110へ進む。CPU117は、全水平ラインについて終了していない場合には、ステップS109を否定判定してステップS105へ戻る。ステップS105へ戻る場合は次の水平ラインについて上述した処理を繰り返す。   In step S109, the CPU 117 determines whether or not the processing of S105 to S108 has been completed for all the horizontal lines in the correction processing target area. When the CPU 117 completes all horizontal lines, it makes a positive determination in step S109, ends the processing in FIG. 3, and proceeds to step S110 in FIG. If the CPU 117 has not finished processing for all horizontal lines, the CPU 117 makes a negative determination in step S109 and returns to step S105. When returning to step S105, the processing described above is repeated for the next horizontal line.

(主要被写体が画面右から左へ移動する場合)
主要被写体の移動方向が上述した移動方向と異なる例を説明する。図10は、主要被写体が画面右から左へ移動する場合において第1撮像素子101で取得される第1画像(画像A1とする)を例示する図である。20水平ライン×40垂直ラインで構成されており、座標(25,6)、(16,15)、(34,6)、(25,15)をそれぞれ頂点とする四角形が主要被写体を表す。上述したローリングシャッタ制御によって画面上側の水平ラインほど画面下側の水平ラインより露光タイミングが早いので、ローリングシャッタ歪みに起因して本来は長方形である主要被写体像が変形している。
(When the main subject moves from right to left on the screen)
An example in which the moving direction of the main subject is different from the moving direction described above will be described. FIG. 10 is a diagram illustrating a first image (referred to as image A1) acquired by the first image sensor 101 when the main subject moves from the right to the left of the screen. A quadrangle composed of 20 horizontal lines × 40 vertical lines, each having a vertex at coordinates (25,6), (16,15), (34,6), and (25,15) represents the main subject. Since the exposure timing is earlier in the horizontal line on the upper side of the screen than the horizontal line on the lower side of the screen by the rolling shutter control described above, the main subject image that is originally rectangular is deformed due to the rolling shutter distortion.

図11は、主要被写体が画面右から左へ移動する場合において第2撮像素子111で取得される第2画像(画像B1とする)を例示する図である。画像A1と画像B1は水平ラインの走査方向が異なるだけで、略同時刻に取得される。図11の場合も20水平ライン×40垂直ラインで構成されており、座標(16,6)、(25,15)、(25,6)、(34,15)をそれぞれ頂点とする四角形が主要被写体を表す。上述したローリングシャッタ制御によって画面下側の水平ラインほど画面上側の水平ラインより露光タイミングが早いので、ローリングシャッタ歪みに起因して本来は長方形である主要被写体像が変形している。   FIG. 11 is a diagram illustrating a second image (referred to as image B1) acquired by the second image sensor 111 when the main subject moves from the right to the left of the screen. The image A1 and the image B1 are acquired at substantially the same time except that the scanning direction of the horizontal line is different. Also in the case of FIG. 11, it is composed of 20 horizontal lines × 40 vertical lines, and a quadrangle having coordinates (16,6), (25,15), (25,6), and (34,15) as vertices is mainly used. Represents the subject. Due to the rolling shutter control described above, the exposure timing is earlier in the lower horizontal line than in the upper horizontal screen, so that the main subject image, which is originally rectangular, is deformed due to the rolling shutter distortion.

図12は、ステップS101(図3)による差分演算結果(画像AB1とする)を例示する図である。画像A1および画像B1間の差をとって、画像A1および画像B1の少なくとも一方でローリングシャッタ歪みが生じる領域を検出する。なお、演算結果が所定値未満のデータを0として扱う点、および、演算結果が0でない領域を補正処理対象領域とする点は、上述した通りである。   FIG. 12 is a diagram illustrating a difference calculation result (image AB1) in step S101 (FIG. 3). A difference between the image A1 and the image B1 is taken to detect a region where rolling shutter distortion occurs in at least one of the image A1 and the image B1. As described above, data whose calculation result is less than a predetermined value is treated as 0, and an area where the calculation result is not 0 is set as a correction processing target area.

図13は、画像A1から水平ラインごとにデータを移動した後の第1画像(画像D1とする)を例示する図である。図14は、画像D1に対して水平ラインごとにデータを補間した後の第1画像(画像E1とする)を例示する図である。図14によれば、図10の場合に比べて主要被写体の変形が抑えられる。   FIG. 13 is a diagram illustrating a first image (referred to as image D1) after data is moved from the image A1 for each horizontal line. FIG. 14 is a diagram illustrating a first image (referred to as image E1) after data is interpolated for each horizontal line with respect to image D1. According to FIG. 14, the deformation of the main subject can be suppressed compared to the case of FIG.

(主要被写体が画面左ら右へ移動して停止する場合)
主要被写体の移動後に停止する例を説明する。図15は、主要被写体が画面左から右へ移動して停止する場合において第1撮像素子101で取得される第1画像(画像A2とする)を例示する図である。20水平ライン×40垂直ラインで構成されており、座標(16,6)、(23,13)、(23,15)、(25,6)、(32,13)、(32,15)をそれぞれ頂点とする六角形が主要被写体を表す。上述したローリングシャッタ制御によって画面上側の水平ラインほど画面下側の水平ラインより露光タイミングが早いので、ローリングシャッタ歪みに起因して本来は長方形である主要被写体像が変形している。
(When the main subject moves from left to right on the screen and stops)
An example of stopping after the main subject moves will be described. FIG. 15 is a diagram illustrating a first image (referred to as image A2) acquired by the first image sensor 101 when the main subject moves from the left to the right on the screen and stops. It consists of 20 horizontal lines x 40 vertical lines, and coordinates (16,6), (23,13), (23,15), (25,6), (32,13), (32,15) Each hexagon with its apex represents the main subject. Since the exposure timing is earlier in the horizontal line on the upper side of the screen than the horizontal line on the lower side of the screen by the rolling shutter control described above, the main subject image that is originally rectangular is deformed due to the rolling shutter distortion.

図16は、主要被写体が画面左から右へ移動して停止する場合において第2撮像素子111で取得される第2画像(画像B2とする)を例示する図である。画像A2と画像B2は水平ラインの走査方向が異なるだけで、略同時刻に取得される。図16の場合も20水平ライン×40垂直ラインで構成されており、座標(23,6)、(23,8)、(16,15)、(32,6)、(32,8)、(25,15)をそれぞれ頂点とする六角形が主要被写体を表す。上述したローリングシャッタ制御によって画面下側の水平ラインほど画面上側の水平ラインより露光タイミングが早いので、ローリングシャッタ歪みに起因して本来は長方形である主要被写体像が変形している。   FIG. 16 is a diagram illustrating a second image (referred to as image B2) acquired by the second imaging element 111 when the main subject moves from the left to the right on the screen and stops. The image A2 and the image B2 are acquired at substantially the same time except that the scanning direction of the horizontal line is different. 16 also includes 20 horizontal lines × 40 vertical lines, and coordinates (23,6), (23,8), (16,15), (32,6), (32,8), ( Hexagons with vertices 25 and 15) represent the main subject. Due to the rolling shutter control described above, the exposure timing is earlier in the lower horizontal line than in the upper horizontal screen, so that the main subject image, which is originally rectangular, is deformed due to the rolling shutter distortion.

図17は、ステップS101(図3)による差分演算結果(画像AB2とする)を例示する図である。画像A2および画像B2間の差をとって、画像A2および画像B2の少なくとも一方でローリングシャッタ歪みが生じる領域を検出する。なお、演算結果が所定値未満のデータを0として扱う点、および、演算結果が0でない領域を補正処理対象領域とする点は、上述した通りである。   FIG. 17 is a diagram illustrating the difference calculation result (referred to as image AB2) in step S101 (FIG. 3). A difference between the image A2 and the image B2 is taken to detect a region where rolling shutter distortion occurs in at least one of the image A2 and the image B2. As described above, data whose calculation result is less than a predetermined value is treated as 0, and an area where the calculation result is not 0 is set as a correction processing target area.

図18は、画像A2から水平ラインごとにデータを移動した後の第1画像(画像D2とする)を例示する図である。図19は、画像D1に対して水平ラインごとにデータを補間した後の第1画像(画像E2とする)を例示する図である。図19によれば、図15の場合に比べて主要被写体の変形が抑えられる。   FIG. 18 is a diagram illustrating a first image (referred to as an image D2) after data is moved from the image A2 for each horizontal line. FIG. 19 is a diagram illustrating a first image (referred to as an image E2) after data is interpolated for each horizontal line with respect to the image D1. According to FIG. 19, the deformation of the main subject can be suppressed compared to the case of FIG.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)カメラ100は、被写体像を撮像する第1撮像素子101と、被写体像を撮像する第2撮像素子111と、第1撮像素子101の露光タイミングを画面上側から画面下側に向けて水平ラインごとに異ならせる撮像駆動部103と、第2撮像素子111の露光タイミングを画面下側から画面上側に向けて水平ラインごとに異ならせる撮像駆動部113と、第1撮像素子101で取得される第1画像Aと第2撮像素子111で取得される第2画像Bとの差分に基づいて補正対象領域を決定するCPU117と、第1画像Aのうち、CPU117で決定された補正対象領域内の主要被写体領域aを水平ラインごとにずらす画像処理部115と、を備えるようにした。これにより、被写体が速く移動する場合であっても適切にローリングシャッタ歪みを低減できる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The camera 100 is arranged such that the first image sensor 101 that captures a subject image, the second image sensor 111 that captures a subject image, and the exposure timing of the first image sensor 101 are horizontal from the upper side of the screen toward the lower side of the screen. The image pickup drive unit 103 that varies for each line, the image pickup drive unit 113 that varies the exposure timing of the second image sensor 111 from the lower side of the screen toward the upper side of the screen, and the first image sensor 101. The CPU 117 that determines the correction target area based on the difference between the first image A and the second image B acquired by the second image sensor 111, and the correction target area in the correction target area determined by the CPU 117 in the first image A And an image processing unit 115 for shifting the main subject area a for each horizontal line. Thereby, even when the subject moves fast, the rolling shutter distortion can be appropriately reduced.

(2)上記カメラ100において、画像処理部115は、水平ラインごとに、第1画像Aの主要被写体領域aからテンプレートを抽出し、第2画像Bの主要被写体領域bからテンプレートと合致するデータを検出し、テンプレートと検出データとの間の相対距離(xb - xa)に基づいて主要被写体領域aのずらし量を決めるようにした。ローリングシャッタ歪みが生じている範囲のみ、主要被写体領域aのデータを水平方向にシフトするという簡単な処理を第1画像A側のみに行うので、軽い処理負荷でローリングシャッタ歪みを低減できる。 (2) In the camera 100, the image processing unit 115 extracts a template from the main subject region a of the first image A for each horizontal line, and extracts data that matches the template from the main subject region b of the second image B. Detection is performed, and the shift amount of the main subject area a is determined based on the relative distance (xb−xa) between the template and the detection data. Since only the first image A side is subjected to a simple process of shifting the data of the main subject area a in the horizontal direction only in a range where the rolling shutter distortion occurs, the rolling shutter distortion can be reduced with a light processing load.

(3)上記カメラ100において、画像処理部115は、テンプレートと検出データとの間の相対距離の略1/2に相当する位置(xb - xa)/2へテンプレートが移動するように主要被写体領域のずらし量を決めるようにしたので、演算を簡単にして軽い処理負荷でローリングシャッタ歪みを低減できる。 (3) In the camera 100, the image processing unit 115 causes the main subject region so that the template moves to a position (xb−xa) / 2 corresponding to approximately ½ of the relative distance between the template and the detection data. Since the shift amount is determined, the calculation can be simplified and the rolling shutter distortion can be reduced with a light processing load.

(4)上記カメラ100において、画像処理部115はさらに、補正対象領域内で主要被写体領域aをずらすことによって空いたデータ位置を第2画像Bの対応するデータで補間するようにしたので、複雑な補間演算をすることなしに補間でき、ローリングシャッタ歪み補正後の画像サイズが小さくならないようにすることができる。 (4) In the camera 100, the image processing unit 115 further interpolates the vacant data position by shifting the main subject area a within the correction target area with the corresponding data of the second image B. Thus, the interpolation can be performed without performing a simple interpolation calculation, and the image size after the rolling shutter distortion correction can be prevented from being reduced.

(5)上記カメラ100において、被写体光束を第1光束および第2光束に分岐するビームスプリッタ124をさらに備え、第1撮像素子101は、第1光束による被写体像を撮像し、第2撮像素子111は、第2光束による被写体像を撮像するようにした。1つの撮影レンズ121を通して2つの被写体像が得られるので、撮影レンズを2つ備える場合に比べてコンパクトに構成できる。 (5) The camera 100 further includes a beam splitter 124 that branches the subject light beam into the first light beam and the second light beam, and the first image sensor 101 captures a subject image by the first light beam, and the second image sensor 111. Took a subject image by the second light flux. Since two subject images can be obtained through one photographing lens 121, it can be made more compact than a case where two photographing lenses are provided.

(変形例1)
上述したステップS106(図3)の説明において、水平ラインごとの領域aのデータに対する移動量を算出する際に、領域aおよび領域b間で対応するデータの距離の1/2、すなわち、(xb - xa)/2 をそのラインにおける領域aのデータに対する移動量とする例を説明した。これによって、移動後のデータが領域aおよび領域bの略中央に位置することになる。この代わりに、移動後のデータが領域aおよび領域bの最左部に位置するように移動量を算出してもよい。また、領域aおよび領域bの最右部に位置するように移動量を算出してもよい。
(Modification 1)
In the description of step S106 (FIG. 3) described above, when calculating the movement amount for the data of the area a for each horizontal line, the distance of the corresponding data between the area a and the area b, that is, (xb In the example described above, xa) / 2 is set as the movement amount with respect to the data of the region a in the line. As a result, the data after movement is positioned at the approximate center of the region a and the region b. Instead, the amount of movement may be calculated so that the data after movement is located at the leftmost part of the region a and the region b. Further, the movement amount may be calculated so as to be located at the rightmost part of the region a and the region b.

(変形例2)
撮像素子101および撮像素子111の各画素にカラーフィルタが設けられている場合、上述した歪み補正処理は同色の画素データ同士で行う。例えば、RGBのカラーフィルタが設けられる場合には、R色フィルタが設けられた画素データ、G色フィルタが設けられた画素データ、B色フィルタが設けられた画素データごとに、それぞれ上述した歪み補正処理を行う。
(Modification 2)
When a color filter is provided for each pixel of the image sensor 101 and the image sensor 111, the above-described distortion correction processing is performed between pixel data of the same color. For example, when an RGB color filter is provided, the above-described distortion correction is performed for each of pixel data provided with an R color filter, pixel data provided with a G color filter, and pixel data provided with a B color filter. Process.

(変形例3)
なお、撮像素子101および撮像素子111の各画素にカラーフィルタが設けられている場合において、いずれか一色(例えばG色)のカラーフィルタが設けられた画素データのみに上記歪み補正処理を行い、得られた結果を他の色(R色、B色)の画素データに反映させるようにしてもよい。あるいは、RGBデータにも度ついて輝度Yを算出して輝度Yのデータのみ上記処理を行い、得られた結果を全ての色(R、G、B)の画素データに反映させるようにしてもよい。
(Modification 3)
Note that in the case where a color filter is provided for each pixel of the image sensor 101 and the image sensor 111, the above distortion correction processing is performed only on pixel data in which any one color (for example, G color) color filter is provided. The obtained result may be reflected in pixel data of other colors (R color, B color). Alternatively, the luminance Y may be calculated for the RGB data, the above processing is performed only for the luminance Y data, and the obtained result may be reflected in the pixel data of all colors (R, G, B). .

(変形例4)
上述した説明では、CMOSイメージセンサを第1撮像素子101および第2撮像素子111として用いた場合のローリングシャッタ制御について説明した。この他にも、CCDイメージセンサを第1撮像素子101および第2撮像素子111として用いる場合にも本発明を適用できる。この場合には、2つのCCDイメージセンサの撮像面側にそれぞれフォーカルプレーンシャッタを設け、これらフォーカルプレーンシャッタの羽根で水平ライン方向のスリットを形成させる。そして、水平方向のスリット開口を垂直方向へ移動させて、いわゆるスリット露光を行うようにフォーカルプレーンシャッターを開閉制御する。ここで、第1撮像素子101側のスリット開口は画面上から下へ向かって移動し、第2撮像素子111側のスリット開口は画面下から上へ向かって移動させる。
(Modification 4)
In the above description, the rolling shutter control when the CMOS image sensor is used as the first image sensor 101 and the second image sensor 111 has been described. In addition, the present invention can be applied to a case where a CCD image sensor is used as the first image sensor 101 and the second image sensor 111. In this case, focal plane shutters are provided on the imaging surfaces of the two CCD image sensors, and slits in the horizontal line direction are formed by the blades of these focal plane shutters. Then, the focal plane shutter is controlled to be opened and closed so as to perform so-called slit exposure by moving the horizontal slit opening in the vertical direction. Here, the slit opening on the first image sensor 101 side moves from the top to the bottom of the screen, and the slit opening on the second image sensor 111 side moves from the bottom to the top of the screen.

2つのCCDイメージセンサの蓄積時間は、上記スリット開口の移動開始時点から移動終了時点までとする。変形例4のようなメカニカルにローリングシャッタ制御を行う場合にもローリングシャッタ歪みが生じるが、上述した実施形態と同様に歪み補正処理を施すことにより、適切な歪み補正が可能である。   The accumulation time of the two CCD image sensors is from the movement start point to the movement end point of the slit opening. Rolling shutter distortion also occurs when mechanically performing rolling shutter control as in Modification 4. However, by performing distortion correction processing as in the above-described embodiment, appropriate distortion correction is possible.

(変形例5)
上記実施形態では、1つの撮影レンズを通過した被写体光束をビームスプリッタ124で分岐することにより、第1撮像素子101と第2撮像素子111とによって2つの撮影画像を取得する例を説明した。この代わりに、第1撮像素子に被写体像を結像する第1撮影レンズと、第2撮像素子に被写体像を結像する第2撮影レンズとを備え、両撮像素子でそれぞれ同じ被写体像を取得する構成にしてもよい。両撮像素子は、水平ラインの走査方向が異なるだけで、略同時に撮像を行う。
(Modification 5)
In the above embodiment, an example in which two photographed images are acquired by the first image sensor 101 and the second image sensor 111 by branching the subject light flux that has passed through one photographing lens by the beam splitter 124 has been described. Instead, a first photographing lens that forms a subject image on the first image sensor and a second photographing lens that forms a subject image on the second image sensor, both of which acquire the same subject image. You may make it the structure to carry out. Both image sensors pick up images at substantially the same time only in the scanning direction of the horizontal line.

(変形例6)
以上の説明では、第1撮像素子101をローリングシャッタ制御する走査方向は、画面上側の水平ラインから画面下側の水平ラインへ向かう向きとし、第2撮像素子111をローリングシャッタ制御する走査方向は、画面下側の水平ラインから画面上側の水平ラインへ向かう向きとした。これらの走査方向は、第1撮像素子101と第2撮像素子101との間で相対的に反対向きであればよく、画面の垂直ラインを画面の左右方向に走査するようにしてもよい。
(Modification 6)
In the above description, the scanning direction for rolling shutter control of the first image sensor 101 is the direction from the horizontal line on the upper side of the screen to the horizontal line on the lower side of the screen, and the scanning direction for controlling the rolling shutter of the second image sensor 111 is The orientation was from the horizontal line at the bottom of the screen to the horizontal line at the top of the screen. These scanning directions need only be relatively opposite to each other between the first image sensor 101 and the second image sensor 101, and the vertical lines of the screen may be scanned in the left-right direction of the screen.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

100…カメラ
101…第1撮像素子
102、112…A/D変換部
103、113…撮像駆動部
111…第2撮像素子
115…画像処理部
116…メモリ
117…CPU
118…操作部材
121…撮影レンズ
DESCRIPTION OF SYMBOLS 100 ... Camera 101 ... 1st image sensor 102, 112 ... A / D conversion part 103, 113 ... Imaging drive part 111 ... 2nd image sensor 115 ... Image processing part 116 ... Memory 117 ... CPU
118: Operation member 121 ... Photography lens

Claims (5)

被写体像を撮像する第1撮像素子と、
前記被写体像を撮像する第2撮像素子と、
前記第1撮像素子の露光タイミングを所定方向に画素列ごとに異ならせる第1ローリングシャッタ制御手段と、
前記第2撮像素子の露光タイミングを前記所定方向と反対向きに画素列ごとに異ならせる第2ローリングシャッタ制御手段と、
前記第1撮像素子で取得される第1画像と前記第2撮像素子で取得される第2画像との差分に基づいて補正対象領域を決定する決定手段と、
前記第1画像のうち、前記決定手段で決定された補正対象領域内の主要被写体領域を前記画素列ごとにずらす補正手段と、
を備えることを特徴とする撮像装置。
A first image sensor that images a subject image;
A second image sensor that images the subject image;
First rolling shutter control means for varying the exposure timing of the first image sensor for each pixel column in a predetermined direction;
Second rolling shutter control means for varying the exposure timing of the second image sensor for each pixel column in a direction opposite to the predetermined direction;
Determining means for determining a correction target region based on a difference between a first image acquired by the first image sensor and a second image acquired by the second image sensor;
Correction means for shifting a main subject area in the correction target area determined by the determination means in the first image for each pixel column;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記補正手段は、前記画素列ごとに、
前記第1画像の前記主要被写体領域からテンプレートを抽出し、
前記第2画像の前記主要被写体領域から前記テンプレートと合致するデータを検出し、
前記テンプレートと前記検出データとの間の相対距離に基づいて前記主要被写体領域のずらし量を決めることを特徴とする撮像装置。
The imaging device according to claim 1,
The correcting means is provided for each pixel column.
Extracting a template from the main subject area of the first image;
Detecting data matching the template from the main subject area of the second image;
An image pickup apparatus, wherein a shift amount of the main subject region is determined based on a relative distance between the template and the detection data.
請求項2に記載の撮像装置において、
前記補正手段は、前記テンプレートと前記検出データとの間の相対距離の略1/2に相当する位置へ前記テンプレートが移動するように前記主要被写体領域のずらし量を決めることを特徴とする撮像装置。
The imaging device according to claim 2,
The correction device determines an amount of shift of the main subject region so that the template moves to a position corresponding to approximately a half of a relative distance between the template and the detection data. .
請求項3に記載の撮像装置において、
前記補正手段はさらに、前記補正対象領域内で前記主要被写体領域をずらすことによって空く位置を前記第2画像の対応するデータで補間することを特徴とする撮像装置。
The imaging device according to claim 3.
The image pickup apparatus according to claim 1, wherein the correction unit further interpolates a position vacated by shifting the main subject area within the correction target area using corresponding data of the second image.
請求項1〜4のいずれか一項に記載の撮像装置において、
被写体光束を第1光束および第2光束に分岐する分岐手段をさらに備え、
前記第1撮像素子は、前記第1光束による被写体像を撮像し、
前記第2撮像素子は、前記第2光束による被写体像を撮像することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
Branching means for branching the subject light beam into the first light beam and the second light beam;
The first imaging element captures a subject image by the first light flux,
The image pickup apparatus, wherein the second image pickup device picks up a subject image by the second light flux.
JP2012136574A 2012-06-18 2012-06-18 Image pickup device Pending JP2014003417A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012136574A JP2014003417A (en) 2012-06-18 2012-06-18 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012136574A JP2014003417A (en) 2012-06-18 2012-06-18 Image pickup device

Publications (1)

Publication Number Publication Date
JP2014003417A true JP2014003417A (en) 2014-01-09

Family

ID=50036210

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012136574A Pending JP2014003417A (en) 2012-06-18 2012-06-18 Image pickup device

Country Status (1)

Country Link
JP (1) JP2014003417A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2524795A (en) * 2014-04-03 2015-10-07 Nokia Technologies Oy Apparatus, method and computer program for obtaining images
JP2016105547A (en) * 2014-12-01 2016-06-09 株式会社ソシオネクスト Image processing device and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2524795A (en) * 2014-04-03 2015-10-07 Nokia Technologies Oy Apparatus, method and computer program for obtaining images
JP2016105547A (en) * 2014-12-01 2016-06-09 株式会社ソシオネクスト Image processing device and image processing method

Similar Documents

Publication Publication Date Title
JP6460653B2 (en) Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program
US9538067B2 (en) Imaging sensor capable of detecting phase difference of focus
JP5652157B2 (en) Imaging apparatus, image processing method, and computer program
JP5195660B2 (en) Imaging apparatus, focusing method, and program
JP5572700B2 (en) Imaging apparatus and imaging method
JP5657184B2 (en) Imaging apparatus and signal processing method
WO2017057492A1 (en) Imaging device and image processing device
JP6644641B2 (en) Imaging device, control method, and program
WO2013069445A1 (en) Three-dimensional imaging device and image processing method
JP2009044637A (en) Imaging apparatus
JP2012231262A (en) Imaging apparatus, blur correction method, control program, and recording medium for recording control program
JP2007221268A (en) Imaging apparatus
JP2013160991A (en) Imaging apparatus
JP2011101158A (en) Imaging apparatus
JP2010193178A (en) Unit, method and program for processing image
JP6270400B2 (en) Image processing apparatus, image processing method, and image processing program
JP2014003417A (en) Image pickup device
JP5397426B2 (en) Imaging apparatus, focusing method, and program
JP2010134309A (en) Autofocus device, autofocus method and imaging apparatus
JP2007251636A (en) Object tracking system
JP6590899B2 (en) Imaging apparatus, imaging method, and program
JP2008283477A (en) Image processor, and image processing method
JP2011176457A (en) Electronic camera
JP6547742B2 (en) Imaging control apparatus, imaging apparatus and imaging control method
JP6566800B2 (en) Imaging apparatus and imaging method