JP2011087203A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2011087203A
JP2011087203A JP2009239966A JP2009239966A JP2011087203A JP 2011087203 A JP2011087203 A JP 2011087203A JP 2009239966 A JP2009239966 A JP 2009239966A JP 2009239966 A JP2009239966 A JP 2009239966A JP 2011087203 A JP2011087203 A JP 2011087203A
Authority
JP
Japan
Prior art keywords
image
distortion
images
captured image
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009239966A
Other languages
Japanese (ja)
Inventor
Kanichi Furuyama
貫一 古山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009239966A priority Critical patent/JP2011087203A/en
Publication of JP2011087203A publication Critical patent/JP2011087203A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably remove focal plane distortion. <P>SOLUTION: An imaging apparatus performs photographing using a solid-state imaging device (CMOS image sensor) having exposure timing different between adjacent horizontal lines. When photographing and recording a moving image at 30 fps, acquisition of high-speed photographing images (I<SB>S</SB>[1], I<SB>S</SB>[2], ...) under a high-speed photographing condition equivalent to 330 fps and acquisition of ordinary photographing images (I<SB>L</SB>[1], I<SB>L</SB>[2], ...) under an ordinary imaging condition equivalent to 33 fps are alternately carried out. Considering that a high-speed photographing image having a small exposure timing difference between adjacent horizontal lines does not almost contain focal plane distortion, focal plane distortion contained in an ordinary photographing image I<SB>L</SB>[i] is removed by image processing based on an optical flow between a high-speed photographing image I<SB>S</SB>[i] and the ordinary photographing image I<SB>L</SB>[i]. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、デジタルビデオカメラ、デジタルスチルカメラ等の撮像装置に関し、特にフォーカルプレーン歪みを除去する技術に関する。   The present invention relates to an imaging apparatus such as a digital video camera or a digital still camera, and more particularly to a technique for removing focal plane distortion.

固体撮像素子に用いられる電子シャッタは、撮像面の全受光画素が共通タイミングで露光されるグローバルシャッタと、異なる水平ライン間で露光タイミングが異なるローリングシャッタに大別される。ローリングシャッタは、画素単位で受光画素の出力信号を読み出すことのできるXYアドレス型の固体撮像素子、例えば、CMOSイメージセンサで利用される。   Electronic shutters used in solid-state imaging devices are roughly classified into a global shutter in which all light receiving pixels on the imaging surface are exposed at a common timing, and a rolling shutter in which exposure timing is different between different horizontal lines. The rolling shutter is used in an XY address type solid-state imaging device, for example, a CMOS image sensor, which can read out an output signal of a light receiving pixel in pixel units.

ローリングシャッタを採用した撮像装置では、撮影者の手ブレ等の影響によって撮影時に固体撮像素子に位置的変化が生じると、原理上、撮影画像にフォーカルプレーン歪みが発生することが知られている。但し、撮影画像に対して適切な画像処理を行えば、フォーカルプレーン歪みを低減することが可能である。   In an imaging apparatus employing a rolling shutter, it is known that, in principle, focal plane distortion occurs in a captured image when a positional change occurs in a solid-state imaging device during imaging due to the influence of a camera shake of a photographer. However, the focal plane distortion can be reduced by performing appropriate image processing on the captured image.

例えば、下記特許文献1には、各フレームの歪み量をフレーム間の動きベクトルから求める方法が提案されている。この方法では、時間的に隣接する第1及び第2フレーム間の動きベクトルから第2フレームの歪み量(フォーカルプレーン歪みの量)を検出し、検出歪み量を用いてフォーカルプレーン歪みを除去しようとしている。   For example, Patent Document 1 below proposes a method for obtaining the distortion amount of each frame from a motion vector between frames. In this method, the amount of distortion (focal plane distortion) of the second frame is detected from the motion vector between the first and second frames that are temporally adjacent, and the focal plane distortion is removed using the detected distortion amount. Yes.

特開2007−208580号公報JP 2007-208580 A

しかしながら、この方法は、第1フレームにフォーカルプレーン歪みが含まれていないという前提の下でのみ有効に機能するものである。実際には、第1フレームにも、第2フレームと同程度のフォーカルプレーン歪みが含まれていることが想定される、或いは、第1フレームに含まれるフォーカルプレーン歪みの量が不明である。従って、特許文献1の方法では、安定的にフォーカルプレーン歪みを除去することが困難である。   However, this method works effectively only on the assumption that the first frame does not include focal plane distortion. Actually, it is assumed that the first frame includes the same focal plane distortion as the second frame, or the amount of the focal plane distortion included in the first frame is unknown. Therefore, with the method of Patent Document 1, it is difficult to stably remove the focal plane distortion.

そこで本発明は、フォーカルプレーン歪みの安定的な低減に寄与する撮像装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide an imaging apparatus that contributes to stable reduction of focal plane distortion.

本発明に係る撮像装置は、複数の水平ラインに含まれる第1及び第2水平ライン間で露光タイミングを異ならせつつ画像撮影を行う撮像素子と、前記第1及び第2水平ライン間の露光タイミング差が比較的短い露光による画像信号を前記撮像素子から読み出すことで第1画像を取得する一方、前記露光タイミング差が比較的長い露光による画像信号を前記撮像素子から読み出すことで第2画像を取得する画像取得部と、前記第1及び第2画像の画像信号に基づいて前記第1及び第2画像間のオプティカルフローを導出する動き検出部と、前記オプティカルフローに基づいて前記第2画像を補正する補正部と、を備えたことを特徴とする。   An image pickup apparatus according to the present invention includes an image pickup device that takes an image while changing exposure timing between first and second horizontal lines included in a plurality of horizontal lines, and exposure timing between the first and second horizontal lines. A first image is obtained by reading out an image signal from the image sensor with an exposure with a relatively short difference, while a second image is obtained by reading out an image signal with an exposure with a relatively long exposure timing difference from the image sensor. An image acquisition unit for performing an operation, a motion detection unit for deriving an optical flow between the first and second images based on the image signals of the first and second images, and correcting the second image based on the optical flow And a correction unit.

第1画像は、第2画像と比較して上記露光タイミング差が短い状態で撮影されるため、第1画像に含まれるフォーカルプレーン歪みは比較的小さい。従って、第1及び第2画像間のオプティカルフローを導出することで、第2画像に含まれるフォーカルプレーン歪みを正確に見積もることができ、該オプティカルフローを用いて第2画像を補正すれば、第2画像のフォーカルプレーン歪みを適切に低減することが可能となる。   Since the first image is shot in a state where the exposure timing difference is shorter than that of the second image, the focal plane distortion included in the first image is relatively small. Accordingly, by deriving the optical flow between the first and second images, it is possible to accurately estimate the focal plane distortion included in the second image, and if the second image is corrected using the optical flow, It is possible to appropriately reduce the focal plane distortion of the two images.

尚、上記の第1及び第2水平ラインは、撮像素子上で互いに隣接しあう2本の水平ラインであっても良いし、撮像素子上で互いに隣接しあわない2本の水平ラインであっても良い。   The first and second horizontal lines may be two horizontal lines adjacent to each other on the image sensor, or two horizontal lines that are not adjacent to each other on the image sensor. Also good.

即ち例えば、前記補正部は、前記第1及び第2水平ライン間で露光タイミングが異なることによって前記第2画像に生じた歪みを、前記オプティカルフローに基づいて補正することができる。   That is, for example, the correction unit can correct distortion generated in the second image due to different exposure timings between the first and second horizontal lines based on the optical flow.

具体的には例えば、前記動き検出部は、前記第1及び第2画像の画像信号に基づき、前記オプティカルフローを形成する複数の動きベクトルを導出し、前記補正部は、前記第2画像に生じた前記歪みを各動きベクトルに基づいて補正する。   Specifically, for example, the motion detection unit derives a plurality of motion vectors forming the optical flow based on the image signals of the first and second images, and the correction unit is generated in the second image. The distortion is corrected based on each motion vector.

より具体的には例えば、前記補正部は、各動きベクトルに基づく幾何学的変換を前記第2画像に施すことで前記歪みを補正する。   More specifically, for example, the correction unit corrects the distortion by applying a geometric transformation based on each motion vector to the second image.

また例えば、前記画像取得部は、前記第1及び第2画像の交互撮影を繰り返し実行し、当該撮像装置は、前記補正部の補正によって得た各第2画像に基づく各補正画像を所定の記録フレームレートにて記録媒体に記録し、1枚の第1画像を得るために必要な時間と1枚の第2画像を得るために必要な時間との合計は、前記記録フレームレートの逆数以下に設定される。   Further, for example, the image acquisition unit repeatedly executes the alternate shooting of the first and second images, and the imaging device records each correction image based on each second image obtained by the correction of the correction unit in a predetermined recording manner. Recording on the recording medium at the frame rate, the sum of the time required to obtain one first image and the time required to obtain one second image is equal to or less than the reciprocal of the recording frame rate. Is set.

これにより、所定の記録フレームレートに従いつつ、記録動画像のフォーカルプレーン歪みを安定的に低減することができる。   Thereby, the focal plane distortion of the recorded moving image can be stably reduced while following a predetermined recording frame rate.

本発明によれば、フォーカルプレーン歪みの安定的な低減に寄与する撮像装置を提供することが可能となる。   According to the present invention, it is possible to provide an imaging apparatus that contributes to stable reduction of focal plane distortion.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

本発明の実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 図1の撮像部の内部構成図である。It is an internal block diagram of the imaging part of FIG. 撮像素子上に設定された水平ラインを示す図である。It is a figure which shows the horizontal line set on the image pick-up element. 撮像素子上の水平ライン間で露光タイミングが異なる様子を示した図である。It is the figure which showed a mode that exposure timing differed between the horizontal lines on an image pick-up element. 本発明の実施形態に係り、フォーカルプレーン歪みの除去に寄与する部位のブロック図である。It is a block diagram of the site | part which concerns on embodiment of this invention and contributes to removal of focal plane distortion. 動画像撮影時に撮影される画像列と該画像列の撮影タイミングを示す図である。It is a figure which shows the image sequence imaged at the time of moving image imaging | photography, and the imaging timing of this image sequence. 撮像面の共通エリア内の受光画素から高速撮影画像と通常撮影画像が得られる様子を示す図である。It is a figure which shows a mode that a high-speed picked-up image and a normal picked-up image are obtained from the light receiving pixel in the common area of an imaging surface. サイズ正規化後の高速撮影画像と通常撮影画像の夫々が、複数の検出用ブロックに分割される様子を示す図である。It is a figure which shows a mode that each of the high-speed captured image after size normalization and a normal captured image is divided | segmented into several detection blocks. サイズ正規化後の高速撮影画像と通常撮影画像との間におけるオプティカルフローを示す図である。It is a figure which shows the optical flow between the high-speed captured image after size normalization, and a normal captured image. フォーカルプレーン歪みが除去された補正画像の生成概念図である。FIG. 6 is a conceptual diagram of generation of a corrected image from which focal plane distortion has been removed. 本発明の第1実施例に係り、動画像の撮影及び記録の動作フローチャートである。5 is an operation flowchart for capturing and recording a moving image according to the first embodiment of the present invention. 本発明の第2実施例に係り、シャッタボタンの押下操作に伴い、高速撮影画像と通常撮影画像が連続的に撮影される様子を示した図である。FIG. 10 is a diagram illustrating a state in which a high-speed photographed image and a normal photographed image are continuously photographed in accordance with a second embodiment of the present invention as a shutter button is pressed. 本発明の第2実施例に係り、連写操作に伴い、1枚の高速撮影画像と3枚の通常撮影画像が連続的に撮影される様子を示した図である。FIG. 10 is a diagram illustrating a state in which one high-speed photographed image and three normal photographed images are continuously photographed according to a continuous shooting operation according to the second embodiment of the present invention. 本発明の第2実施例に係り、連写操作に伴い、1枚の高速撮影画像と1枚の通常撮影画像の連続撮影が3回繰り返される様子を示した図である。FIG. 10 is a diagram illustrating a state in which continuous shooting of one high-speed photographed image and one normal photographed image is repeated three times according to a continuous shooting operation according to the second embodiment of the present invention. 本発明の第4実施例に係り、画像が水平及び垂直方向に沿って分割される様子を示した図である。FIG. 10 is a diagram illustrating a manner in which an image is divided along horizontal and vertical directions according to the fourth embodiment of the present invention. 本発明の第5実施例に係り、高速撮影画像列及び通常撮影画像列と、それらの撮影タイミングを示す図である。It is a figure which concerns on 5th Example of this invention and shows a high-speed picked-up image sequence, a normal picked-up image sequence, and those image pick-up timings. 本発明の第5実施例に係り、サイズ正規化後の高速撮影画像と、通常撮影画像と、を示す図である。FIG. 16 is a diagram illustrating a high-speed captured image after size normalization and a normal captured image according to the fifth embodiment of the present invention. 図17に対して、複数の特徴点の組と各特徴点の動きベクトルを重畳した図である。FIG. 18 is a diagram in which a set of a plurality of feature points and a motion vector of each feature point are superimposed on FIG. 本発明の第5実施例に係り、通常撮影画像から補正画像を生成する方法を説明するための図である。FIG. 10 is a diagram for describing a method of generating a corrected image from a normal captured image according to the fifth embodiment of the present invention. 本発明の第5実施例に係る補正画像を示す図である。It is a figure which shows the correction | amendment image which concerns on 5th Example of this invention. 本発明の第6実施例に係り、高速撮影画像列及び通常撮影画像列と、それらの撮影タイミングを示す図である。It is a figure which concerns on 6th Example of this invention and shows a high-speed picked-up image sequence and a normal picked-up image sequence, and those image pick-up timings. 本発明の第6実施例に係り、サイズ正規化後の高速撮影画像と、通常撮影画像と、を示す図である。FIG. 20 is a diagram illustrating a high-speed captured image after size normalization and a normal captured image according to the sixth embodiment of the present invention. 本発明の第6実施例に係る補正画像を示す図である。It is a figure which shows the correction | amendment image which concerns on 6th Example of this invention.

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.

図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、符号11〜28によって参照される各部位を有する。撮像装置1は、デジタルビデオカメラであり、動画像及び静止画像を撮影可能となっていると共に動画像撮影中に静止画像を同時に撮影することも可能となっている。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。尚、表示部27及び/又はスピーカ28は撮像装置1の外部装置(不図示)に設けられたものである、と解釈するようにしても良い。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 has each part referred by the codes | symbols 11-28. The imaging device 1 is a digital video camera, and can capture a moving image and a still image, and also can simultaneously capture a still image during moving image capturing. Each part in the imaging apparatus 1 exchanges signals (data) between the parts via the bus 24 or 25. The display unit 27 and / or the speaker 28 may be interpreted as being provided in an external device (not shown) of the imaging device 1.

撮像部11は、撮像素子を用いて被写体の撮影を行う。図2は、撮像部11の内部構成図である。撮像部11は、光学系35と、絞り32と、固体撮像素子である撮像素子33と、光学系35や絞り32を駆動制御するためのドライバ34と、を有している。光学系35は、撮像部11の画角を調節するためのズームレンズ30及び焦点を合わせるためのフォーカスレンズ31を含む複数枚のレンズから形成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。CPU23からの制御信号に基づき、光学系35内におけるズームレンズ30及びフォーカスレンズ31の位置並びに絞り32の開度が制御されることによって、撮像部11の焦点距離(画角)及び焦点位置並びに撮像素子33への入射光量が制御される。   The imaging unit 11 captures a subject using an imaging element. FIG. 2 is an internal configuration diagram of the imaging unit 11. The imaging unit 11 includes an optical system 35, a diaphragm 32, an imaging element 33 that is a solid-state imaging element, and a driver 34 that drives and controls the optical system 35 and the diaphragm 32. The optical system 35 is formed of a plurality of lenses including a zoom lens 30 for adjusting the angle of view of the imaging unit 11 and a focus lens 31 for focusing. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction. Based on the control signal from the CPU 23, the position of the zoom lens 30 and the focus lens 31 in the optical system 35 and the opening of the diaphragm 32 are controlled, so that the focal length (field angle) and the focal position of the imaging unit 11 and the imaging are controlled. The amount of light incident on the element 33 is controlled.

撮像素子33は、水平及び垂直方向に複数の受光画素が配列されることによって形成される。撮像素子33の各受光画素は、光学系35及び絞り32を介して入射した被写体の光学像を光電変換し、該光電変換によって得られた電気信号をAFE12(Analog Front End)に出力する。   The image sensor 33 is formed by arranging a plurality of light receiving pixels in the horizontal and vertical directions. Each light receiving pixel of the image sensor 33 photoelectrically converts an optical image of a subject incident through the optical system 35 and the diaphragm 32, and outputs an electric signal obtained by the photoelectric conversion to an AFE 12 (Analog Front End).

AFE12は、撮像素子33(各受光画素)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから映像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU(Central Processing Unit)23によって制御される。映像信号処理部13は、AFE12の出力信号によって表される画像に対して必要な画像処理を施し、画像処理後の画像についての映像信号を生成する。マイク14は、撮像装置1の周辺音をアナログの音声信号に変換し、音声信号処理部15は、このアナログの音声信号をデジタルの音声信号に変換する。   The AFE 12 amplifies the analog signal output from the image sensor 33 (each light receiving pixel), converts the amplified analog signal into a digital signal, and outputs the digital signal to the video signal processing unit 13. The amplification degree of signal amplification in the AFE 12 is controlled by a CPU (Central Processing Unit) 23. The video signal processing unit 13 performs necessary image processing on the image represented by the output signal of the AFE 12, and generates a video signal for the image after the image processing. The microphone 14 converts the ambient sound of the imaging device 1 into an analog audio signal, and the audio signal processing unit 15 converts the analog audio signal into a digital audio signal.

圧縮処理部16は、映像信号処理部13からの映像信号及び音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。内部メモリ17は、DRAM(Dynamic Random Access Memory)などから成り、各種のデータを一時的に保存する。記録媒体としての外部メモリ18は、半導体メモリや磁気ディスクなどの不揮発性メモリであり、圧縮処理部16による圧縮後の映像信号及び音声信号を記録する。   The compression processing unit 16 compresses the video signal from the video signal processing unit 13 and the audio signal from the audio signal processing unit 15 using a predetermined compression method. The internal memory 17 is composed of a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores various data. The external memory 18 as a recording medium is a non-volatile memory such as a semiconductor memory or a magnetic disk, and records a video signal and an audio signal compressed by the compression processing unit 16.

伸張処理部19は、外部メモリ18から読み出された圧縮された映像信号及び音声信号を伸張する。伸張処理部19による伸張後の映像信号又は映像信号処理部13からの映像信号は、表示処理部20を介して、液晶ディスプレイ等から成る表示部27に送られて画像として表示される。また、伸張処理部19による伸張後の音声信号は、音声出力回路21を介してスピーカ28に送られて音として出力される。   The decompression processing unit 19 decompresses the compressed video signal and audio signal read from the external memory 18. The video signal expanded by the expansion processing unit 19 or the video signal from the video signal processing unit 13 is sent to the display unit 27 such as a liquid crystal display via the display processing unit 20 and displayed as an image. Further, the audio signal that has been expanded by the expansion processing unit 19 is sent to the speaker 28 via the audio output circuit 21 and output as sound.

TG(タイミングジェネレータ)22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。TG22は、更に、CPU23の制御の下、撮像素子33の駆動パルスを生成して撮像素子33に供給する。CPU23は、撮像装置1内の各部位の動作を統括的に制御する。操作部26は、動画像の撮影及び記録の開始/終了を指示するための録画ボタン26a、静止画像の撮影及び記録を指示するためのシャッタボタン26b、並びに、ズーム倍率を指定するためのズームボタン26c等を有し、ユーザによる各種操作を受け付ける。操作部26に対する操作内容はCPU23に伝達される。   The TG (timing generator) 22 generates a timing control signal for controlling the timing of each operation in the entire imaging apparatus 1, and gives the generated timing control signal to each unit in the imaging apparatus 1. The timing control signal includes a vertical synchronization signal Vsync and a horizontal synchronization signal Hsync. The TG 22 further generates a drive pulse for the image sensor 33 under the control of the CPU 23 and supplies the drive pulse to the image sensor 33. The CPU 23 comprehensively controls the operation of each part in the imaging apparatus 1. The operation unit 26 includes a recording button 26a for instructing start / end of moving image shooting and recording, a shutter button 26b for instructing shooting and recording of a still image, and a zoom button for designating a zoom magnification. 26c and the like, and accepts various operations by the user. The operation content for the operation unit 26 is transmitted to the CPU 23.

撮像素子33は、電子シャッタ機能を備えており、所謂ローリングシャッタによって各受光画素の露光を実施する。撮像素子33には、複数の受光画素によって形成される撮像面が設けられており、撮像面上に定義された複数の水平ライン及び複数の垂直ラインに沿って受光画素が二次元配列されている。ローリングシャッタでは、撮像面の各受光画素が露光されるタイミングが水平ラインごとに異なる。つまり、撮像面における異なる水平ライン間で受光画素の露光タイミングが異なる。   The image sensor 33 has an electronic shutter function, and performs exposure of each light receiving pixel by a so-called rolling shutter. The imaging element 33 is provided with an imaging surface formed by a plurality of light receiving pixels, and the light receiving pixels are two-dimensionally arrayed along a plurality of horizontal lines and a plurality of vertical lines defined on the imaging surface. . In the rolling shutter, the timing at which each light receiving pixel on the imaging surface is exposed differs for each horizontal line. That is, the exposure timing of the light receiving pixels is different between different horizontal lines on the imaging surface.

図3及び図4を参照しつつ、撮像素子33のローリングシャッタについて説明を補足する。図3に示す如く、撮像面において、垂直ラインに沿った方向(即ち撮像面の垂直方向)が上下方向であり、撮像面の有効画素領域の最上端に配置された水平ラインが第1水平ラインであって且つ撮像面の有効画素領域の最下端に配置された水平ラインが第M水平ラインであるとする(Mは、2以上の整数であり、一般的には数100から数1000である)。そうすると、図4に示す如く、或る1つの注目フレームについて、第(i+1)水平ライン上の受光画素における露光の開始時刻は、第i水平ライン上の受光画素における露光の開始時刻よりもΔt秒だけ遅い(Δt>0且つiは整数)。1つのフレームにおいて、第i水平ライン上の受光画素の露光が行われる時間の長さは第(i+1)水平ライン上の受光画素のそれと同じであると共に、Δtはiの値に依存せず一定である。各受光画素の露光の終了後に、各受光画素の出力信号を読み出すことができ、読み出された出力信号はAFE12に送られる。   A supplementary description of the rolling shutter of the image sensor 33 will be given with reference to FIGS. 3 and 4. As shown in FIG. 3, on the imaging surface, the direction along the vertical line (that is, the vertical direction of the imaging surface) is the vertical direction, and the horizontal line arranged at the uppermost end of the effective pixel area on the imaging surface is the first horizontal line. And the horizontal line arranged at the lowermost end of the effective pixel area of the imaging surface is the Mth horizontal line (M is an integer equal to or greater than 2, and is generally several hundred to several thousand) ). Then, as shown in FIG. 4, for a certain target frame, the exposure start time at the light receiving pixels on the (i + 1) th horizontal line is Δt seconds from the exposure start time at the light receiving pixels on the i th horizontal line. Slow (Δt> 0 and i is an integer). In one frame, the exposure time of the light receiving pixels on the i-th horizontal line is the same as that of the light receiving pixels on the (i + 1) -th horizontal line, and Δt is constant regardless of the value of i. It is. After the exposure of each light receiving pixel is completed, the output signal of each light receiving pixel can be read, and the read output signal is sent to the AFE 12.

Δt及びΔtの整数倍を、異なる水平ライン間における露光タイミング差という。Δtは、隣接水平ライン間における露光タイミング差である。   An integer multiple of Δt and Δt is called an exposure timing difference between different horizontal lines. Δt is an exposure timing difference between adjacent horizontal lines.

尚、第1〜第M水平ラインの内、露光タイミングが互いに同じとなる複数の水平ラインが存在していても構わない。例えば、2本の水平ラインごとに露光タイミングが異なっていても構わない。この場合、第2水平ラインの露光タイミングと第3水平ラインの露光タイミングが異なるものの、第1及び第2水平ラインの露光タイミングが同じであって且つ第3及び第4水平ラインの露光タイミングが同じとなる。また、1つの水平ラインにおいても各受光画素の露光タイミングは順次ずれるが、1つの水平ライン上の異なる受光画素間の露光タイミング差は、異なる水平ライン間のそれよりも十分小さいため、1つの水平ライン上における各受光画素の露光タイミングを同じとみなすことができる。   Of the first to Mth horizontal lines, there may be a plurality of horizontal lines having the same exposure timing. For example, the exposure timing may be different for every two horizontal lines. In this case, although the exposure timing of the second horizontal line and the exposure timing of the third horizontal line are different, the exposure timing of the first and second horizontal lines is the same and the exposure timing of the third and fourth horizontal lines is the same. It becomes. Further, although the exposure timing of each light receiving pixel is sequentially shifted in one horizontal line, the difference in exposure timing between different light receiving pixels on one horizontal line is sufficiently smaller than that between different horizontal lines, so The exposure timing of each light receiving pixel on the line can be regarded as the same.

撮像素子33は、例えば、XYアドレス型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである。CMOSを形成可能な半導体基板上に、複数の受光画素から成る撮像面、垂直走査回路、水平走査回路及び画素信号出力回路等を形成することによって、CMOSイメージセンサが形成される。但し、撮像素子33がローリングシャッタによって各受光画素の露光を実施するものであるならば、撮像素子33は、XYアドレス走査型のCMOSイメージセンサでなくても構わない。   The image sensor 33 is, for example, an XY address type CMOS (Complementary Metal Oxide Semiconductor) image sensor. A CMOS image sensor is formed by forming an imaging surface composed of a plurality of light receiving pixels, a vertical scanning circuit, a horizontal scanning circuit, a pixel signal output circuit, and the like on a semiconductor substrate capable of forming a CMOS. However, if the image pickup device 33 performs exposure of each light receiving pixel by a rolling shutter, the image pickup device 33 may not be an XY address scanning type CMOS image sensor.

背景技術の説明でも述べたように、ローリングシャッタにて撮影された画像には、フォーカルプレーン歪み(以下、FP歪みという)が発生する。FP歪みは、Δtが0よりも大きいことに起因して生じ、Δtが大きいほどFP歪みは増加する傾向にある。撮像装置1には、このFP歪みを適切に除去する機能が備えられている。   As described in the description of the background art, focal plane distortion (hereinafter referred to as FP distortion) occurs in an image captured by a rolling shutter. The FP distortion occurs due to Δt being larger than 0, and the FP distortion tends to increase as Δt increases. The imaging device 1 has a function of appropriately removing this FP distortion.

図5に、この機能を担う主たる部位のブロック図を示す。画像取得部51は、図1の映像信号処理部13、TG22及びCPU23によって形成される。歪み検出部52は、CPU23によって或いは映像信号処理部13及びCPU23によって形成される。歪み補正部53は、映像信号処理部13に設けられる。歪み検出部52には、動き検出部54が内包されている。後述するように、歪み検出部52の検出対象であるFP歪み量は動き検出部54の検出対象である動きベクトルから直接的に導かれるため、歪み検出部52は動き検出部54そのものである、と考えることも可能である。   FIG. 5 shows a block diagram of main parts responsible for this function. The image acquisition unit 51 is formed by the video signal processing unit 13, the TG 22, and the CPU 23 of FIG. The distortion detection unit 52 is formed by the CPU 23 or by the video signal processing unit 13 and the CPU 23. The distortion correction unit 53 is provided in the video signal processing unit 13. The distortion detector 52 includes a motion detector 54. As will be described later, since the FP distortion amount that is the detection target of the distortion detection unit 52 is directly derived from the motion vector that is the detection target of the motion detection unit 54, the distortion detection unit 52 is the motion detection unit 54 itself. It is also possible to think.

撮像素子33を用いた撮影のフレームレート(以下、撮影フレームレートという)は可変となっており、画像取得部51は、撮影フレームレートの制御を行うと共に、撮像素子33の各受光画素の露光タイミングの制御及び各受光画素の出力信号を読み出すタイミングの制御を行う。これらの制御の下、撮像素子33の各受光画素の出力信号は、画像信号として画像取得部51に与えられる。但し、各受光画素の出力信号に必要な信号処理を施して得た画像信号が画像取得部51に与えられるものとする。ここにおける信号処理には、AFE12における信号増幅が含まれる。画像取得部51において、所謂デモザイキング処理を用い、画像信号の信号形式をRAWデータ形式からYUV形式に変換することができる。YUV形式の画像信号は、輝度信号と色差信号から形成される。但し、この変換は、画像取得部51の前段部位又は後段部位にて行われても良い。本明細書において、画像信号と映像信号は同義である。   The shooting frame rate (hereinafter referred to as shooting frame rate) using the image sensor 33 is variable, and the image acquisition unit 51 controls the shooting frame rate and exposes the light receiving pixels of the image sensor 33. And the timing for reading out the output signal of each light receiving pixel. Under these controls, the output signal of each light receiving pixel of the image sensor 33 is given to the image acquisition unit 51 as an image signal. However, it is assumed that an image signal obtained by performing necessary signal processing on the output signal of each light receiving pixel is given to the image acquisition unit 51. The signal processing here includes signal amplification in the AFE 12. The image acquisition unit 51 can convert the signal format of the image signal from the RAW data format to the YUV format by using so-called demosaicing processing. The YUV image signal is formed from a luminance signal and a color difference signal. However, this conversion may be performed at the front part or the rear part of the image acquisition unit 51. In this specification, an image signal and a video signal are synonymous.

画像取得部51は、複数の撮影条件にて撮像素子33に撮影を行わせる。複数の撮影条件には、高速撮影条件と通常撮影条件とが含まれる。高速撮影条件では、露光タイミング差Δtが比較的短いΔtSに設定され、通常撮影条件では、露光タイミング差Δtが比較的長いΔtLに設定される。また、高速撮影条件では、各受光画素の露光時間が比較的短い露光時間TSであって、通常撮影条件では、各受光画素の露光時間が比較的長い露光時間TLであるとする。従って、不等式「0<ΔtS<ΔtL」且つ「0<TS<TL」が成立する。受光画素の露光時間とは、受光画素が信号電荷を蓄積するための時間を指す。尚、上述の想定とは異なるが、露光時間TSと露光時間TLは同じであっても構わない。 The image acquisition unit 51 causes the image sensor 33 to perform shooting under a plurality of shooting conditions. The plurality of shooting conditions include high-speed shooting conditions and normal shooting conditions. Under high-speed shooting conditions, the exposure timing difference Δt is set to a relatively short Δt S , and under normal shooting conditions, the exposure timing difference Δt is set to a relatively long Δt L. Further, in the high-speed imaging conditions, a relatively short exposure time T S is the exposure time of the light receiving pixels, the normal imaging conditions, the exposure time of the light receiving pixel is relatively long exposure time T L. Therefore, the inequalities “0 <Δt S <Δt L ” and “0 <T S <T L ” hold. The exposure time of the light receiving pixels refers to the time for the light receiving pixels to accumulate signal charges. Although different from the above assumption, the exposure time T S and the exposure time T L may be the same.

高速撮影条件の下で撮像素子33により撮影された画像を高速撮影画像と呼び、通常撮影条件の下で撮像素子33により撮影された画像を通常撮影画像と呼ぶ。高速撮影画像の画像信号と通常撮影画像の画像信号が、順次、画像取得部51に入力されるように、画像取得部51は撮影フレームレート等を制御する。   An image photographed by the image sensor 33 under the high-speed photographing condition is called a high-speed photographed image, and an image photographed by the image sensor 33 under the normal photographing condition is called a normal photographed image. The image acquisition unit 51 controls the shooting frame rate and the like so that the image signal of the high-speed captured image and the image signal of the normal captured image are sequentially input to the image acquisition unit 51.

図6に、動画像撮影時に撮影される画像列と該画像列の撮影タイミングを示す。本例では、外部メモリ18に記録される動画像のフレームレート(以下、記録フレームレートという)が30fps(frame per second)に設定されていることを想定する。   FIG. 6 shows an image sequence captured at the time of moving image shooting and the shooting timing of the image sequence. In this example, it is assumed that the frame rate of moving images recorded in the external memory 18 (hereinafter referred to as recording frame rate) is set to 30 fps (frame per second).

図1の録画ボタン26aの押下操作によって動画像の撮影及び記録が開始されると、画像取得部51は、高速撮影画像と通常撮影画像の撮影が交互に行われるように撮像素子33を制御する。次々と撮影される高速撮影画像の内、第i番目に撮影される高速撮影画像をIS[i]によって表し、次々と撮影される通常撮影画像の内、第i番目に撮影される通常撮影画像をIL[i]によって表す。そうすると、IS[1]、IL[1]、IS[2]、IL[2]、・・・、の順番で撮影が行われる。尚、本明細書では、記述の簡略化上、記号を記載することによって該記号に対応する画像等の名称を略記することがある。例えば、高速撮影画像IS[i]を単に画像IS[i]と略記することがあり、通常撮影画像IL[i]を単に画像IL[i]と略記することがある。 When shooting and recording of a moving image is started by pressing the recording button 26a in FIG. 1, the image acquisition unit 51 controls the image sensor 33 so that high-speed shot images and normal shot images are shot alternately. . Of the high-speed shot images taken one after another, the i-th high-speed shot image is represented by I S [i], and the normal shot taken i-th among the normal shot images taken one after another The image is represented by I L [i]. Then, photographing is performed in the order of I S [1], I L [1], I S [2], I L [2],. In this specification, for simplification of description, the name of an image or the like corresponding to the symbol may be abbreviated by describing the symbol. For example, the high-speed captured image I S [i] may be simply abbreviated as the image I S [i], and the normal captured image I L [i] may be simply abbreviated as the image I L [i].

300fpsにて動画像撮影を行う時における、撮像素子33の駆動条件を300fps駆動条件と呼び、33fpsにて動画像撮影を行う時における、撮像素子33の駆動条件を33fps駆動条件と呼ぶ。   The driving condition of the image sensor 33 when performing moving image shooting at 300 fps is referred to as a 300 fps driving condition, and the driving condition of the image sensor 33 when performing moving image shooting at 33 fps is referred to as a 33 fps driving condition.

高速撮影画像の次に通常撮影画像が撮影されるため、高速撮影画像列IS[1]、IS[2]、IS[3]・・・から成る動画像の撮影フレームレートは実際には300fpsではないが、1枚1枚の高速撮影画像は、300fps駆動条件にて撮影される。従って、1枚の高速撮影画像の取得に必要な時間は、300fps相当のそれ、即ち約3.3ms(ミリ秒)である。 Since a normal photographed image is photographed next to the high-speed photographed image, the photographing frame rate of the moving image composed of the high-speed photographed image sequence I S [1], I S [2], I S [3]. Is not 300 fps, but one high-speed photographed image is photographed under a 300 fps drive condition. Therefore, the time required to acquire one high-speed captured image is equivalent to 300 fps, that is, about 3.3 ms (milliseconds).

通常撮影画像の次に高速撮影画像が撮影されるため、通常撮影画像列IL[1]、IL[2]、IL[3]・・・から成る動画像の撮影フレームレートは実際には33fpsではないが、1枚1枚の通常撮影画像は、33fps駆動条件にて撮影される。従って、1枚の通常撮影画像の取得に必要な時間は、33fps相当のそれ、即ち約30msである。 Since a high-speed photographed image is photographed next to the normal photographed image, the photographing frame rate of the moving image composed of the normal photographed image sequence I L [1], I L [2], I L [3]. Is not 33 fps, but one normal shot image is shot under a 33 fps drive condition. Therefore, the time required to acquire one normal photographed image is that corresponding to 33 fps, that is, about 30 ms.

このように、1枚の高速撮影画像の取得に必要な時間と1枚の通常撮影画像の取得に必要な時間との合計時間は、記録フレームレートの逆数(約33.3ms)以下に設定される。本例では、該合計時間が記録フレームレートの逆数と略同じとなっているが、該合計時間を記録フレームレートの逆数よりも随分小さくすることも可能ではある。   As described above, the total time of the time required to acquire one high-speed captured image and the time required to acquire one normal captured image is set to be equal to or less than the reciprocal of the recording frame rate (about 33.3 ms). The In this example, the total time is substantially the same as the reciprocal of the recording frame rate, but the total time can be made much smaller than the reciprocal of the recording frame rate.

図6は、直立した人物を被写体とする動画像の撮影中において、撮像素子33が横方向に位置変化したことを想定しており、この結果、露光タイミング差Δtが大きい各通常撮影画像に大きなFP歪みが発生している。一方で、高速撮影画像に対する露光タイミング差Δtは十分に小さいため、各高速撮影画像に含まれるFP歪みは無視できる程度に小さい。   FIG. 6 assumes that the position of the image sensor 33 is changed in the horizontal direction during shooting of a moving image with an upright person as a subject. As a result, each normal captured image having a large exposure timing difference Δt is large. FP distortion has occurred. On the other hand, since the exposure timing difference Δt with respect to the high-speed captured image is sufficiently small, the FP distortion included in each high-speed captured image is small enough to be ignored.

時間的に隣接する画像IS[i]及びIL[i]は、共通の被写体を撮影したものである。高速撮影画像IS[i]の画角と通常撮影画像IL[i]の画角は等しく、図7に示すように、撮像面の有効画素領域に属する共通エリア210内の受光画素の出力信号から画像IS[i]及びIL[i]が生成される。従って、共通エリア210の左上隅、右上隅、左下隅及び右下隅に配置された受光画素の出力信号から、夫々、高速撮影画像IS[i]の左上隅、右上隅、左下隅及び右下隅に配置された画素の画像信号が形成されると共に、通常撮影画像IL[i]の左上隅、右上隅、左下隅及び右下隅に配置された画素の画像信号が形成される。 The temporally adjacent images I S [i] and I L [i] are obtained by photographing a common subject. The angle of view of the high-speed photographed image I S [i] and the angle of view of the normal photographed image I L [i] are equal, and as shown in FIG. 7, the output of the light receiving pixels in the common area 210 belonging to the effective pixel area of the imaging surface. Images I S [i] and I L [i] are generated from the signal. Accordingly, the upper left corner, upper right corner, lower left corner, and lower right corner of the high-speed photographed image I S [i] are respectively obtained from the output signals of the light receiving pixels arranged in the upper left corner, upper right corner, lower left corner, and lower right corner of the common area 210. Are formed, and image signals of pixels arranged in the upper left corner, upper right corner, lower left corner, and lower right corner of the normal captured image I L [i] are formed.

但し、共通エリア210内の全受光画素の出力信号を個別に読み出すことで通常撮影画像IL[i]が得られるのに対し、高速撮影画像用の読み出し時間が短いことに起因して、高速撮影画像IS[i]の生成の際には、共通エリア210内の一部の受光画素が間引かれる(即ち、所謂間引き読出しが行われる)、或いは、共通エリア210内の複数の受光画素の出力信号の加算信号を1つの受光画素の出力信号とみなした上で受光画素の出力信号の読み出しが成される(即ち、所謂加算読み出しが行われる)。このため、高速撮影画像IS[i]の画像サイズは、通常撮影画像IL[i]の画像サイズよりも小さい。本例では、図7に示す如く、任意の整数iに対して、高速撮影画像IS[i]の水平及び垂直方向の画素数が夫々448及び336であって、通常撮影画像IL[i]の水平及び垂直方向の画素数が夫々1280及び720であるものとする。以下、或る画像の水平及び垂直方向の画素数が夫々NX及びNYであることを、画像サイズが(NX×NY)であると表現する。尚、上述の想定とは異なるが、高速撮影画像IS[i]の画像サイズと通常撮影画像IL[i]の画像サイズが同じであっても構わない。 However, while the normal captured image I L [i] is obtained by individually reading the output signals of all the light receiving pixels in the common area 210, the high-speed captured image has a short readout time, resulting in high speed. When the captured image I S [i] is generated, some light receiving pixels in the common area 210 are thinned out (that is, so-called thinning readout is performed), or a plurality of light receiving pixels in the common area 210 is generated. The output signal of the light receiving pixel is read after the addition signal of the output signals is regarded as the output signal of one light receiving pixel (that is, so-called addition reading is performed). For this reason, the image size of the high-speed captured image I S [i] is smaller than the image size of the normal captured image I L [i]. In this example, as shown in FIG. 7, for an arbitrary integer i, the number of pixels in the horizontal and vertical directions of the high-speed captured image I S [i] is 448 and 336, respectively, and the normal captured image I L [i ] In the horizontal and vertical directions are 1280 and 720, respectively. Hereinafter, the fact that the number of pixels in the horizontal and vertical directions of an image is N X and N Y , respectively, is expressed as an image size (N X × N Y ). Although different from the above assumption, the image size of the high-speed captured image I S [i] and the image size of the normal captured image I L [i] may be the same.

また、高速撮影画像IS[i]の明るさと通常撮影画像IL[i]の明るさが同程度となるように、両画像の露光時間の比(TS:TL)に基づき、高速撮影画像IS[i]の画像信号の生成時におけるAFE12の信号増幅度は、通常撮影画像IL[i]のそれのよりも大きくされる。但し、AFE12の信号増幅度を画像IS[i]及びIL[i]間で同じとしておき、歪み検出部52において高速撮影画像IS[i]の各画素の輝度レベルを増大させることで、高速撮影画像IS[i]と通常撮影画像IL[i]の明るさを合わせるようにしても良い。 Further, based on the exposure time ratio (T S : T L ) of both images so that the brightness of the high-speed captured image I S [i] and the brightness of the normal captured image I L [i] are comparable. The signal amplification degree of the AFE 12 at the time of generating the image signal of the captured image I S [i] is made larger than that of the normal captured image I L [i]. However, by setting the signal amplification degree of the AFE 12 to be the same between the images I S [i] and I L [i], the distortion detection unit 52 increases the luminance level of each pixel of the high-speed captured image I S [i]. The brightness of the high-speed captured image I S [i] and the normal captured image I L [i] may be matched.

画像処理部51に与えられた各高速撮影画像の画像信号及び各通常撮影画像の画像信号は、歪み検出部52及び動き検出部54に与えられる。歪み検出部52又は動き検出部54は、まず、高速撮影画像の画像サイズと通常撮影画像の画像サイズを同じにするためのサイズ正規化を実行する。通常撮影画像の画像サイズを低減することによってサイズ正規化を実現しても良いが、本例では、高速撮影画像の画像サイズを増大させる画像サイズ拡大処理をサイズ正規化として実行する。即ち、サイズ正規化としての画像サイズ拡大処理では、サイズ正規化後の高速撮影画像の画像サイズが(1280×720)になるように、画像処理部51から与えられた高速撮影画像の画像サイズを増大させる。サイズ正規化後の高速撮影画像IS[i]を、IS’[i]にて表す。画像サイズ拡大処理は、画素の補間等を利用した公知の幾何学的変換によって実現される。 The image signal of each high-speed captured image and the image signal of each normal captured image provided to the image processing unit 51 are provided to the distortion detection unit 52 and the motion detection unit 54. First, the distortion detection unit 52 or the motion detection unit 54 performs size normalization so that the image size of the high-speed captured image is the same as the image size of the normal captured image. Although size normalization may be realized by reducing the image size of the normal captured image, in this example, image size enlargement processing for increasing the image size of the high-speed captured image is executed as size normalization. That is, in the image size enlargement process as size normalization, the image size of the high-speed captured image given from the image processing unit 51 is set so that the image size of the high-speed captured image after size normalization becomes (1280 × 720). Increase. The high-speed photographed image I S [i] after size normalization is represented by I S '[i]. The image size enlargement process is realized by a known geometric transformation using pixel interpolation or the like.

歪み検出部52又は動き検出部54は、サイズ正規化後の高速撮影画像を複数の検出用ブロックにて分割すると共に、それと同じ分割条件にて、通常撮影画像を複数の検出用ブロックにて分割する。図8(a)の画像220はサイズ正規化後の高速撮影画像を表し、図8(b)の画像230は通常撮影画像を表している。画像220に対して、画像220の水平方向に平行な境界線を(n−1)本設定することで画像220をn個の検出用ブロックに切り分ける(nは2以上の整数)。同様に、画像230に対して、画像230の水平方向に平行な境界線を(n−1)本設定することで画像230をn個の検出用ブロックに切り分ける。画像220に設けられたn個の検出用ブロックをBL[1]〜BL[n]にて表し、画像230に設けられたn個の検出用ブロックもBL[1]〜BL[n]にて表す。各検出用ブロックは、複数の画素から形成されている。   The distortion detection unit 52 or the motion detection unit 54 divides the high-speed captured image after size normalization into a plurality of detection blocks, and divides a normal captured image into a plurality of detection blocks under the same division conditions. To do. An image 220 in FIG. 8A represents a high-speed captured image after size normalization, and an image 230 in FIG. 8B represents a normal captured image. By setting (n−1) boundary lines parallel to the horizontal direction of the image 220 to the image 220, the image 220 is divided into n detection blocks (n is an integer of 2 or more). Similarly, by setting (n−1) boundary lines parallel to the horizontal direction of the image 230, the image 230 is divided into n detection blocks. The n detection blocks provided in the image 220 are represented by BL [1] to BL [n], and the n detection blocks provided in the image 230 are also represented by BL [1] to BL [n]. To express. Each detection block is formed of a plurality of pixels.

画像220上の検出用ブロックBL[j]と画像230上の検出用ブロックBL[j]には、共通の水平ラインが属している(jは整数)。従って、被写体及び撮像素子33の位置が固定されていると仮定したならば、理想的には、画像220上の検出用ブロックBL[j]内の画像と画像230上の検出用ブロックBL[j]内の画像は同じとなる。各検出用ブロックに属する水平ラインの本数は1本でもいいし、複数本でも良い。仮に例えば、3本の水平ラインごとに検出用ブロックを設定する場合には、画像220及び230上の各検出用ブロックBL[1]は画像220及び230上の第1〜第3水平ラインを内包し、画像220及び230上の各検出用ブロックBL[2]は画像220及び230上の第4〜第6水平ラインを内包することになる。   A common horizontal line belongs to the detection block BL [j] on the image 220 and the detection block BL [j] on the image 230 (j is an integer). Therefore, assuming that the position of the subject and the image sensor 33 is fixed, ideally, the image in the detection block BL [j] on the image 220 and the detection block BL [j on the image 230 are displayed. The images in] are the same. The number of horizontal lines belonging to each detection block may be one or plural. For example, when a detection block is set for every three horizontal lines, each detection block BL [1] on the images 220 and 230 includes the first to third horizontal lines on the images 220 and 230. Each detection block BL [2] on the images 220 and 230 includes the fourth to sixth horizontal lines on the images 220 and 230.

動き検出部54は、公知のブロックマッチング、代表点マッチング又は勾配法等を用い、画像220及び230の画像信号に基づいて画像220及び230間のオプティカルフローを導出する。オプティカルフローは動きベクトルの束である。検出用ブロックごとに1つの動きベクトルが求められるように画像220及び230間のオプティカルフローは導出される。検出用ブロックBL[j]についての画像220及び230間の動きベクトルは、検出用ブロックBL[j]内の被写体の、画像220及び230間の動きの向き及び大きさを表すベクトルである。ここで、被写体の動きを、画像220を基準にして考える。従って例えば、画像220の検出用ブロックBL[j]内の注目被写体の位置に対して、画像230の検出用ブロックBL[j]内の該注目被写体の位置が右側に位置している時、検出用ブロックBL[j]の動きベクトルの向きは右向きになる。   The motion detection unit 54 derives an optical flow between the images 220 and 230 based on the image signals of the images 220 and 230 using known block matching, representative point matching, a gradient method, or the like. An optical flow is a bundle of motion vectors. The optical flow between the images 220 and 230 is derived so that one motion vector is obtained for each detection block. The motion vector between the images 220 and 230 for the detection block BL [j] is a vector representing the direction and magnitude of the motion between the images 220 and 230 of the subject in the detection block BL [j]. Here, the movement of the subject is considered with reference to the image 220. Therefore, for example, when the position of the subject of interest in the detection block BL [j] of the image 230 is located on the right side of the position of the subject of interest in the detection block BL [j] of the image 220, the detection is performed. The direction of the motion vector of the block BL [j] is rightward.

図9に、高速撮影画像IS’[1]及び通常撮影画像IL[1]に対して求められたオプティカルフローを示す。このようなオプティカルフローは、高速撮影画像IS’[2]及び通常撮影画像IL[2]に対して、高速撮影画像IS’[3]及び通常撮影画像IL[3]に対して、・・・、次々と導出される。 FIG. 9 shows optical flows obtained for the high-speed captured image I S ′ [1] and the normal captured image I L [1]. Such an optical flow is performed for the high-speed captured image I S '[2] and the normal captured image I L [2], and for the high-speed captured image I S ' [3] and the normal captured image I L [3]. ... are derived one after another.

歪み検出部52は、高速撮影画像IS’[i]及び通常撮影画像IL[i]に対して求められた、検出用ブロックBL[j]についての動きベクトルを、通常撮影画像IL[i]の検出用ブロックBL[j]におけるFP歪み量として取り扱う。FP歪み量とは、通常撮影画像に存在しているFP歪みを表す量である。FP歪み量は、動きベクトルと同様、向きと大きさを持つ量である。 The distortion detection unit 52 uses the motion vector for the detection block BL [j] obtained for the high-speed captured image I S ′ [i] and the normal captured image I L [i] as the normal captured image I L [ i] is treated as the FP distortion amount in the detection block BL [j]. The FP distortion amount is an amount representing FP distortion existing in a normal captured image. Similar to the motion vector, the FP distortion amount is an amount having a direction and a magnitude.

歪み補正部53は、歪み検出部52にて求められたFP歪み量に基づいて、画像取得部51からの各通常撮影画像の画像信号を補正することにより、各通常撮影画像のFP歪みを除去する。このFP歪みの除去を介して、歪み補正部53にて生成される画像を補正画像といい、通常撮影画像IL[i]に基づく補正画像をIC[i]にて表す。尚、ここにおける除去とは、FP歪みの完全なる除去又は一部の除去を意味し、低減とも読み替えられる。 The distortion correction unit 53 corrects the image signal of each normal captured image from the image acquisition unit 51 based on the FP distortion amount obtained by the distortion detection unit 52, thereby removing the FP distortion of each normal captured image. To do. An image generated by the distortion correction unit 53 through the removal of the FP distortion is referred to as a corrected image, and a corrected image based on the normal captured image I L [i] is represented by I C [i]. Here, the removal means complete removal or partial removal of FP distortion, and can be read as reduction.

歪み補正部53は、通常撮影画像IL[i]の各画素の位置を通常撮影画像IL[i]のFP歪み量の向きと反対向きにFP歪み量の大きさだけ平行移動させる幾何学的変換を実行する。この幾何学的変換は、検出用ブロックごとに行われる。これにより、通常撮影画像IL[i]に含まれるFP歪みが除去される。そして、この幾何学的変換の結果画像(即ち、この幾何学的変換後の通常撮影画像IL[i])から補正画像IC[i]を生成する。図10は、この幾何学的変換の様子を含む、補正画像の生成概念図である。 Distortion correction unit 53 is normally captured image I L [i] geometry is translated by the magnitude of the FP distortion amount FP distortion amount of orientation in the opposite direction to the direction of the normal captured image I L [i] the position of each pixel in the Perform dynamic conversion. This geometric transformation is performed for each detection block. Thereby, the FP distortion included in the normal captured image I L [i] is removed. Then, a corrected image I C [i] is generated from the image obtained as a result of this geometric transformation (that is, the normal photographed image I L [i] after this geometric transformation). FIG. 10 is a conceptual diagram of generation of a corrected image including the state of this geometric transformation.

例えば、通常撮影画像IL[i]の検出用ブロックBL[j]について、FP歪み量の向きが右向きであって且つFP歪み量の大きさが5画素分である場合、通常撮影画像IL[i]の検出用ブロックBL[j]内の画像は、FP歪みによって右向きに5画素分だけ理想的な位置からずれている。従って、この場合、歪み補正部53は、通常撮影画像IL[i]の検出用ブロックBL[j]に属する各画素の位置を、左向きに5画素分だけ平行移動させる幾何学的変換を行う。図10において、通常撮影画像IL[i]内の矢印は、この幾何学的変換の様子を示している。このような幾何学的変換を通常撮影画像IL[i]の全検出用ブロックに対して行うことで、FP歪みが除去された変換画像ICA[i]を得る。 For example, regarding the detection block BL [j] of the normal captured image I L [i], when the direction of the FP distortion amount is rightward and the magnitude of the FP distortion amount is 5 pixels, the normal captured image I L The image in the detection block BL [j] of [i] is shifted from the ideal position by 5 pixels to the right due to FP distortion. Therefore, in this case, the distortion correction unit 53 performs a geometric transformation in which the position of each pixel belonging to the detection block BL [j] of the normal captured image I L [i] is translated leftward by 5 pixels. . In FIG. 10, the arrow in the normal photographed image I L [i] indicates the state of this geometric transformation. By performing such geometric conversion on all the detection blocks of the normal captured image I L [i], a converted image I CA [i] from which FP distortion has been removed is obtained.

歪み補正部53は、変換画像ICA[i]に所定の画像サイズを有する矩形領域を設定して、変換画像ICA[i]から該矩形領域内の画像を抽出し、抽出画像を補正画像IC[i]として生成する。補正画像IC[i]の画像サイズが(1280×720)であるべきならば、上記抽出画像の画像サイズを(1280×720)に増大させる画像サイズ拡大処理を行い、該画像サイズ拡大処理後の抽出画像を補正画像IC[i]として生成する。 Distortion correction unit 53 sets the rectangular area having a predetermined image size to the transformed image I CA [i], extracts the image of the rectangular region from the transformed image I CA [i], the extracted image corrected image It is generated as I C [i]. If the image size of the corrected image I C [i] should be (1280 × 720), an image size enlargement process for increasing the image size of the extracted image to (1280 × 720) is performed, and after the image size enlargement process Are extracted as a corrected image I C [i].

補正画像の生成は、高速撮影画像と通常撮影画像の組ごとに次々と実行される。即ち、画像IS[1]及びIL[1]に基づくFP歪み量を用いて画像IL[1]から補正画像IC[1]が生成され、画像IS[2]及びIL[2]に基づくFP歪み量を用いて画像IL[2]から補正画像IC[2]が生成される。補正画像IC[3]等についても同様である。各補正画像は、記録フレームレート30fpsの動画像の各フレームとして、外部メモリ18に記録される。 The generation of the corrected image is sequentially executed for each set of the high-speed captured image and the normal captured image. That is, the corrected image I C [1] is generated from the image I L [1] using the FP distortion amount based on the images I S [1] and I L [1], and the images I S [2] and I L [ 2] is used to generate the corrected image I C [2] from the image I L [2]. The same applies to the corrected image I C [3] and the like. Each corrected image is recorded in the external memory 18 as each frame of a moving image with a recording frame rate of 30 fps.

上述したように、高速撮影画像に対する露光タイミング差Δtは十分に小さいため、各高速撮影画像に含まれるFP歪みは無視できる程度に小さい。しかしながら、通常撮影画像と同じ画像サイズの画像を高速撮影条件にて得ようとすると消費電力が大きくなる、或いは、消費電力を抑制しつつ高速撮影しようとすると撮像素子33から読み出すことのできる画像の画像サイズは通常よりも小さくなる(図7参照)。従って、高速撮影条件のみにて動画像撮影を行うことは望ましくない。これらを考慮し、上述の如く、高速撮影画像と通常撮影画像を交互に取得し、高速撮影画像を基準にして高速撮影画像と通常撮影画像の差異を評価することで通常撮影画像のFP歪み量を検出する。これにより、通常撮影画像のFP歪みが正確に検出され、検出されたFP歪み量を用いて通常撮影画像を補正することによりFP歪みを高精度に除去することが可能となる。   As described above, since the exposure timing difference Δt with respect to the high-speed captured image is sufficiently small, the FP distortion included in each high-speed captured image is small enough to be ignored. However, if an image having the same image size as the normal captured image is obtained under high-speed shooting conditions, the power consumption increases, or if high-speed shooting is performed while suppressing power consumption, an image that can be read from the image sensor 33 is read. The image size is smaller than usual (see FIG. 7). Therefore, it is not desirable to perform moving image shooting only under high-speed shooting conditions. Taking these into consideration, as described above, the high-speed captured image and the normal captured image are alternately obtained, and the difference between the high-speed captured image and the normal captured image is evaluated with reference to the high-speed captured image, so Is detected. Thereby, the FP distortion of the normal photographed image is accurately detected, and the FP distortion can be removed with high accuracy by correcting the normal photographed image using the detected FP distortion amount.

尚、上述の例では、通常撮影画像IL[i]の画像サイズが(1280×720)であることを想定したため、補正画像IC[i]の画像サイズが(1280×720)であるべきならば変換画像ICA[i]から抽出した画像に対して画像サイズ拡大処理が必要となるが(図10参照)、この画像サイズ拡大処理が不要となるように、通常撮影画像の画像サイズを元々(1280×720)よりも大きくしておいても良い。即ち例えば、補正画像IC[i]の画像サイズが(1280×720)と定められている場合、撮像素子33の画素数が十分に大きいという条件の下で、(1600×1200)の画像サイズを有する通常撮影画像を取得するようにしておく。そうすれば、異常に大きなFP歪みが発生しない限り、通常撮影画像に基づく変換画像から、(1280×720)の画像サイズを有する補正画像を直接抽出することができる。 In the above example, since it is assumed that the image size of the normal captured image I L [i] is (1280 × 720), the image size of the corrected image I C [i] should be (1280 × 720). Then, an image size enlargement process is required for the image extracted from the converted image I CA [i] (see FIG. 10), but the image size of the normal photographed image is set so that this image size enlargement process is unnecessary. It may be larger than the original (1280 × 720). That is, for example, when the image size of the corrected image I C [i] is determined to be (1280 × 720), the image size of (1600 × 1200) under the condition that the number of pixels of the image sensor 33 is sufficiently large. It is made to acquire the normal picked-up image which has. Then, unless an abnormally large FP distortion occurs, a corrected image having an image size of (1280 × 720) can be directly extracted from the converted image based on the normal captured image.

また、画像IS[1]及びIL[1]に基づくFP歪み量を、通常撮影画像IL[1]以外の通常撮影画像(例えば、IL[2])に含まれているFP歪みの量であるとみなし、画像IS[1]及びIL[1]に基づくFP歪み量を用いて、通常撮影画像IL[1]以外の通常撮影画像(例えば、IL[2])のFP歪みを除去することも可能である。 In addition, the FP distortion amount based on the images I S [1] and I L [1] includes the FP distortion included in the normal captured image (for example, I L [2]) other than the normal captured image I L [1]. And using the FP distortion amount based on the images I S [1] and I L [1], a normal captured image other than the normal captured image I L [1] (for example, I L [2]) It is also possible to remove the FP distortion.

上述の動作を基本動作と呼ぶ。以下、基本動作を元にした複数の実施例を説明する。後述の各実施例において、特に述べない事項に関しては、矛盾が生じない限り、上述の基本動作の説明が適用される。また、矛盾なき限り、或る実施例に記載した事項と他の実施例に記載した事項を組み合わせて実施することも可能である。   The above operation is called a basic operation. Hereinafter, a plurality of embodiments based on basic operations will be described. In each of the embodiments described later, the description of the basic operation described above is applied to items that are not particularly described unless a contradiction arises. Moreover, as long as there is no contradiction, it is also possible to implement combining the matter described in a certain Example, and the matter described in the other Example.

<<第1実施例>>
第1実施例を説明する。第1実施例では、上述の動画像の撮影及び記録の動作の流れを説明する。図11は、この動作の流れを示すフローチャートである。
<< First Example >>
A first embodiment will be described. In the first embodiment, the flow of the above-described moving image shooting and recording operations will be described. FIG. 11 is a flowchart showing the flow of this operation.

図1の録画ボタン26aの押下操作によって動画像の撮影及び記録の開始が指示されると、まず、ステップS11の処理が実行される。ステップS11において、図5の画像取得部51は、300fps駆動条件にて撮像素子33を駆動させることにより1フレーム分の高速撮影画像の画像信号を取得する。得られた高速撮影画像の画像信号は、内部メモリ17に一時的に保存される。続くステップS12において、図5の画像取得部51は、33fps駆動条件にて撮像素子33を駆動させることにより1フレーム分の通常撮影画像の画像信号を取得する。得られた通常撮影画像の画像信号は、内部メモリ17に一時的に保存される。   When the start of recording and recording of a moving image is instructed by pressing the recording button 26a in FIG. 1, first, the process of step S11 is executed. In step S11, the image acquisition unit 51 in FIG. 5 acquires an image signal of a high-speed captured image for one frame by driving the image sensor 33 under a 300 fps drive condition. The image signal of the obtained high-speed captured image is temporarily stored in the internal memory 17. In subsequent step S12, the image acquisition unit 51 in FIG. 5 acquires the image signal of the normal captured image for one frame by driving the image sensor 33 under the 33 fps drive condition. The obtained image signal of the normal captured image is temporarily stored in the internal memory 17.

その後、ステップS13において、歪み検出部52又は動き検出部54は、ステップS11にて得られた高速撮影画像の画像サイズをステップS12にて得られた通常撮影画像の画像サイズに合わせるためのサイズ正規化を実行し、更にステップS14において、歪み検出部52は、動き検出部54を用いて、サイズ正規化後の高速撮影画像と通常撮影画像からFP歪み量を算出する。上述したように、FP歪み量は検出用ブロックごとに算出される。続くステップS15において、歪み補正部53は、ステップS14にて算出されたFP歪み量に基づき通常撮影画像を補正することによりFP歪みが除去された補正画像を生成する。ステップS16において、CPU23の制御の下、生成された補正画像の画像信号は外部メモリ18に記録される。   Thereafter, in step S13, the distortion detection unit 52 or the motion detection unit 54 performs size normalization to match the image size of the high-speed captured image obtained in step S11 with the image size of the normal captured image obtained in step S12. Further, in step S14, the distortion detector 52 uses the motion detector 54 to calculate the FP distortion amount from the high-speed captured image and the normal captured image after size normalization. As described above, the FP distortion amount is calculated for each detection block. In subsequent step S15, the distortion correction unit 53 generates a corrected image from which the FP distortion is removed by correcting the normal captured image based on the FP distortion amount calculated in step S14. In step S <b> 16, the image signal of the generated corrected image is recorded in the external memory 18 under the control of the CPU 23.

上述のステップS11〜S16の処理が順次行われた後、ステップS17に至る。ステップS17において、画像取得部51は、TG22から垂直同期信号Vsyncが出力されたか否かを確認し、垂直同期信号Vsyncの出力が確認されるまで撮像素子33の駆動を待機する。ここにおける垂直同期信号Vsyncは、1/30秒の周期にて発生する、30fps用の垂直同期信号Vsyncである。垂直同期信号Vsyncの出力が確認されたならば、ステップS17からステップS18に移行し、画像取得部51は、録画ボタン26aに対する再度の押下操作によって動画像の撮影及び記録の終了が指示されているか否かを確認する。その終了が指示されている場合には、図11の動作を終了するが、その終了が指示されていない場合にはステップS11に戻り、ステップS11以降の各処理が再び実行される。   After the processes of steps S11 to S16 described above are sequentially performed, the process proceeds to step S17. In step S <b> 17, the image acquisition unit 51 confirms whether or not the vertical synchronization signal Vsync is output from the TG 22, and waits for the image sensor 33 to be driven until the output of the vertical synchronization signal Vsync is confirmed. Here, the vertical synchronization signal Vsync is a vertical synchronization signal Vsync for 30 fps generated at a period of 1/30 seconds. If the output of the vertical synchronization signal Vsync is confirmed, the process proceeds from step S17 to step S18, and whether the image acquisition unit 51 is instructed to end the shooting and recording of the moving image by pressing the recording button 26a again. Confirm whether or not. When the termination is instructed, the operation of FIG. 11 is terminated, but when the termination is not instructed, the process returns to step S11, and each processing after step S11 is executed again.

<<第2実施例>>
第2実施例を説明する。上述してきたFP歪みの除去方法は、静止画像の撮影にも適用できる。即ち、図1のシャッタボタン26bの押下操作による静止画像の撮影指示が成されたとき、画像取得部51は、高速撮影条件による撮像素子33の駆動と通常撮影条件による撮像素子33の駆動を連続的に1回だけ実行すると良い。これにより、図12に示す如く、連続撮影された1枚の高速撮影画像311と1枚の通常撮影画像312が得られる。ここで得られた高速撮影画像311と通常撮影画像312は、図6の高速撮影画像IS[1]と通常撮影画像IL[1]に相当する。従って、高速撮影画像311及び通常撮影画像312を高速撮影画像IS[1]及び通常撮影画像IL[1]として取り扱って歪み検出部52及び歪み補正部53を用いることにより、通常撮影画像312のFP歪みが除去された補正画像を得ることができる。
<< Second Example >>
A second embodiment will be described. The FP distortion removal method described above can also be applied to still image shooting. That is, when a still image shooting instruction is issued by pressing the shutter button 26b in FIG. 1, the image acquisition unit 51 continuously drives the image sensor 33 under high-speed shooting conditions and the image sensor 33 under normal shooting conditions. Therefore, it should be executed only once. As a result, as shown in FIG. 12, one high-speed photographed image 311 and one normal photographed image 312 continuously photographed are obtained. The high-speed captured image 311 and the normal captured image 312 obtained here correspond to the high-speed captured image I S [1] and the normal captured image I L [1] in FIG. Accordingly, the high-speed captured image 311 and the normal captured image 312 are treated as the high-speed captured image I S [1] and the normal captured image I L [1], and the normal captured image 312 is used by using the distortion detection unit 52 and the distortion correction unit 53. A corrected image from which the FP distortion is removed can be obtained.

更に、上述してきたFP歪みの除去方法は、静止画像の連続撮影にも適用できる。ユーザは、操作部26に対して所定の連写操作を行うことで、静止画像の連続撮影を指示することができる。   Furthermore, the FP distortion removal method described above can also be applied to continuous shooting of still images. The user can instruct continuous shooting of still images by performing a predetermined continuous shooting operation on the operation unit 26.

例えば、上記連写操作により3枚の静止画像を連続撮影することが指示された場合、画像取得部51は、高速撮影条件による撮像素子33の駆動を1回実行した後、通常撮影条件による撮像素子33の駆動を連続的に3回実行すると良い。これにより、図13に示す如く、連続撮影された1枚の高速撮影画像321と3枚の通常撮影画像322〜324が得られる。   For example, when it is instructed to continuously shoot three still images by the continuous shooting operation, the image acquisition unit 51 performs driving of the image sensor 33 under the high-speed shooting conditions once, and then performs imaging under the normal shooting conditions. It is preferable to drive the element 33 continuously three times. Thereby, as shown in FIG. 13, one high-speed photographed image 321 and three normal photographed images 322 to 324 continuously photographed are obtained.

歪み検出部52は、高速撮影画像IS[i]及び通常撮影画像IL[i]から通常撮影画像IL[i]に対するFP歪み量を検出用ブロックごとに導出する方法と同様の方法にて、画像321及び322から画像322に対するFP歪み量を検出用ブロックごとに導出し、画像321及び323から画像323に対するFP歪み量を検出用ブロックごとに導出し、画像321及び324から画像324に対するFP歪み量を検出用ブロックごとに導出することができる。そして、歪み補正部53は、通常撮影画像IL[i]に対する検出用ブロックごとのFP歪み量に基づき通常撮影画像IL[i]から補正画像IC[i]を生成する方法と同様の方法にて、画像322に対する検出用ブロックごとのFP歪み量に基づき画像322からFP歪みを除去した補正画像を生成し、画像323に対する検出用ブロックごとのFP歪み量に基づき画像323からFP歪みを除去した補正画像を生成し、画像324に対する検出用ブロックごとのFP歪み量に基づき画像324からFP歪みを除去した補正画像を生成することができる。 Distortion detector 52, the high-speed captured image I S [i] and the normal shooting image I L a method similar to the method of deriving from [i] a FP distortion amount with respect to the normal shooting image I L [i] for each detection block Thus, the FP distortion amount for the image 322 is derived from the images 321 and 322 for each detection block, the FP distortion amount for the image 323 is derived for each detection block from the images 321 and 323, and the image 324 is derived from the images 321 and 324. The FP distortion amount can be derived for each detection block. The distortion correction unit 53 is normally captured image I L [i] similar to the method of generating a corrected image I C [i] from the normal captured image I L [i] based on the FP distortion quantity for each detection block for The method generates a corrected image from which the FP distortion is removed from the image 322 based on the FP distortion amount for each detection block with respect to the image 322, and the FP distortion from the image 323 based on the FP distortion amount for each detection block with respect to the image 323. A corrected corrected image is generated, and a corrected image in which the FP distortion is removed from the image 324 based on the FP distortion amount for each detection block with respect to the image 324 can be generated.

また例えば、上記連写操作により3枚の静止画像を連続撮影することが指示された場合、画像取得部51は、高速撮影条件による撮像素子33の駆動と通常撮影条件による撮像素子33の駆動を1回ずつ実行する処理を、連続的に3回繰り返すようにしても良い。これにより、図14に示す如く、高速撮影画像331、通常撮影画像332、高速撮影画像333、通常撮影画像334、高速撮影画像335及び通常撮影画像336が、この順番で連続的に撮影されることになる。ここで得られた画像331、332、333、334、335及び336を、夫々、画像IS[1]、IL[1]、IS[2]、IL[2]、IS[3]及びIL[3]として取り扱って歪み検出部52及び歪み補正部53を用いることにより、通常撮影画像332、334及び336のFP歪みが除去された3枚の補正画像を得ることができる。 Further, for example, when it is instructed to continuously shoot three still images by the continuous shooting operation, the image acquisition unit 51 drives the image sensor 33 under high-speed shooting conditions and drives the image sensor 33 under normal shooting conditions. The process that is executed once may be repeated three times continuously. Accordingly, as shown in FIG. 14, the high-speed captured image 331, the normal captured image 332, the high-speed captured image 333, the normal captured image 334, the high-speed captured image 335, and the normal captured image 336 are continuously captured in this order. become. The images 331, 332, 333, 334, 335, and 336 obtained here are used as images I S [1], I L [1], I S [2], I L [2], I S [3, respectively. ] And I L [3] and using the distortion detection unit 52 and the distortion correction unit 53, three corrected images from which the FP distortions of the normal captured images 332, 334, and 336 are removed can be obtained.

尚、図6及び図12〜図14を参照して説明した例を含む上述の各動作例では、通常撮影画像のFP歪み量の導出用に取得される高速撮影画像が、当該通常撮影画像の前に撮影されているが、高速撮影画像と通常撮影画像の撮影順序は不問である。即ち例えば、図6の例において、画像IL[1]、IS[1]、IL[2]、IS[2]、・・・の順番で撮影を行うようにしてもよいし、図12の例において、画像312の次に画像311を撮影するようにしても良い。 In each of the above-described operation examples including the examples described with reference to FIGS. 6 and 12 to 14, the high-speed captured image acquired for derivation of the FP distortion amount of the normal captured image is the normal captured image. Although it was shot before, the shooting order of the high-speed shot image and the normal shot image is not limited. That is, for example, in the example of FIG. 6, shooting may be performed in the order of images I L [1], I S [1], I L [2], I S [2],. In the example of FIG. 12, the image 311 may be taken after the image 312.

<<第3実施例>>
第3実施例を説明する。上述の各動作例では、動画像又は静止画像の撮影時にリアルタイムで補正画像を生成することを想定しているが、補正画像の生成タイミングは任意である。即ち例えば、図6に示す例の場合、撮影した画像IS[1]、IL[1]、IS[2]、IL[2]、・・・、IS[m]及びIL[m]の画像信号を、一旦外部メモリ18に記録しておき(mは2以上の整数)、その後、必要に応じ、任意のタイミングにおいて、画像IS[1]、IL[1]、IS[2]、IL[2]、・・・、IS[m]及びIL[m]から補正画像IC[1]〜IL[m]を生成するようにしても良い。
<< Third Example >>
A third embodiment will be described. In each of the above-described operation examples, it is assumed that a correction image is generated in real time when a moving image or a still image is captured, but the generation timing of the correction image is arbitrary. That is, for example, in the example shown in FIG. 6, the captured images I S [1], I L [1], I S [2], I L [2],..., I S [m] and I L The image signal of [m] is temporarily recorded in the external memory 18 (m is an integer of 2 or more), and then at any timing as necessary, the images I S [1], I L [1], The corrected images I C [1] to I L [m] may be generated from I S [2], I L [2],..., I S [m], and I L [m].

撮像装置1と異なる電子機器(不図示)に、歪み検出部52及び歪み補正部53を設けておくようにしても良い。電子機器には、テレビ受信機のような表示装置、パーソナルコンピュータ、携帯電話機などが含まれ、撮像装置も電子機器の一種である。撮像装置1の画像取得部51を用いて得られた高速撮影画像及び通常撮影画像の画像信号を、外部メモリ18を介して又は通信によって上記電子機器に伝達するようにすれば、当該電子機器内の歪み検出部52及び歪み補正部53において、高速撮影画像及び通常撮影画像から補正画像を生成することが可能である。   The distortion detection unit 52 and the distortion correction unit 53 may be provided in an electronic device (not shown) different from the imaging device 1. Electronic devices include a display device such as a television receiver, a personal computer, a mobile phone, and the like, and an imaging device is also a kind of electronic device. If the image signals of the high-speed captured image and the normal captured image obtained using the image acquisition unit 51 of the imaging device 1 are transmitted to the electronic device via the external memory 18 or by communication, In the distortion detection unit 52 and the distortion correction unit 53, it is possible to generate a corrected image from the high-speed captured image and the normal captured image.

<<第4実施例>>
第4実施例を説明する。上述の例では、画像220を水平方向のみに沿って分割することで複数の検出用ブロックを設定しているが(図8(a))、画像220を水平及び垂直方向に沿って分割することで複数の検出用ブロックを設定するようにしても良い(画像230についても同様)。
<< 4th Example >>
A fourth embodiment will be described. In the above example, a plurality of detection blocks are set by dividing the image 220 along only the horizontal direction (FIG. 8A), but the image 220 is divided along the horizontal and vertical directions. Thus, a plurality of detection blocks may be set (the same applies to the image 230).

即ち例えば、図15に示す如く、画像220の全画像領域を水平及び垂直方向に沿って切り分けることで、画像220を(nA×nB)個の検出用ブロックに分割するようにしても良い(nA及びnBは2以上の整数)。画像230に対する検出用ブロックも、画像220と同様に設定される。この場合においても、上述してきたように、動き検出部54及び歪み検出部52において検出用ブロックごとに高速撮影画像及び通常撮影画像間の動きベクトル及びFP歪み量が算出され、歪み補正部53においてFP歪み量に基づく通常撮影画像の補正が検出用ブロックごとに行われることに変わりはない。 That is, for example, as shown in FIG. 15, the image 220 may be divided into (n A × n B ) detection blocks by dividing the entire image area of the image 220 along the horizontal and vertical directions. (N A and n B are integers of 2 or more). The detection block for the image 230 is set in the same manner as the image 220. Also in this case, as described above, the motion detection unit 54 and the distortion detection unit 52 calculate the motion vector and the FP distortion amount between the high-speed captured image and the normal captured image for each detection block, and the distortion correction unit 53 There is no change in the correction of the normal captured image based on the FP distortion amount for each detection block.

<<第5実施例>>
第5実施例を説明する。上述の基本動作では、直立した人物を被写体とする動画像の撮影中において、撮像素子33が画像の水平方向に対応する横方向に位置変化したことが想定されており、この結果として発生した水平方向のFP歪みを除去しているが、第5実施例及び後述の第6実施例では、直立した人物を被写体とする動画像の撮影中において、撮像素子33が画像の垂直方向に対応する縦方向に位置変化したことを想定する。
<< 5th Example >>
A fifth embodiment will be described. In the basic operation described above, it is assumed that the position of the image sensor 33 has changed in the horizontal direction corresponding to the horizontal direction of the image during the shooting of a moving image with an upright person as the subject. Although the FP distortion in the direction is removed, in the fifth embodiment and the sixth embodiment, which will be described later, during the shooting of a moving image with an upright person as the subject, the image pickup device 33 corresponds to the vertical direction of the image. Assume that the position has changed in the direction.

縦方向の位置変化には、上方向の位置変化と下方向の位置変化が存在するが、第5実施例では、直立した人物を被写体とする動画像の撮影中において、撮像素子33が上方向に位置変化した場合を考える。図16は、第5実施例に係る高速撮影画像列及び通常撮影画像列と、それらの撮影タイミングを示す図である。画像410及び430は、夫々、第5実施例における高速撮影画像IS[1]及びIS[2]であり、画像420及び440は、夫々、第5実施例における通常撮影画像IL[1]及びIL[2]である。第5実施例に係る高速撮影画像及び通常撮影画像の生成方法は、基本動作のそれと同じである。従って、高速撮影画像410及び430の夫々の画像サイズは(448×336)であって、通常撮影画像420及び440の夫々の画像サイズは(1280×720)である。 In the vertical position change, there are an upward position change and a downward position change. In the fifth embodiment, the imaging element 33 moves upward while shooting a moving image with an upright person as a subject. Consider the case where the position has changed. FIG. 16 is a diagram illustrating a high-speed photographed image sequence and a normal photographed image sequence according to the fifth embodiment, and photographing timings thereof. Images 410 and 430 are high-speed captured images I S [1] and I S [2] in the fifth embodiment, respectively, and images 420 and 440 are normal captured images I L [1] in the fifth embodiment, respectively. ] And I L [2]. The method for generating the high-speed captured image and the normal captured image according to the fifth embodiment is the same as that of the basic operation. Accordingly, each of the high-speed captured images 410 and 430 has an image size of (448 × 336), and each of the normal captured images 420 and 440 has an image size of (1280 × 720).

基本動作と同様、歪み検出部52又は動き検出部54は、高速撮影画像410及び430の夫々の画像サイズを通常撮影画像420及び440の夫々の画像サイズと同じにするためのサイズ正規化を実行する。通常撮影画像の画像サイズを低減することによってサイズ正規化を実現しても良いが、基本動作と同様、高速撮影画像の画像サイズを増大させる画像サイズ拡大処理をサイズ正規化として実行することを想定する。即ち、サイズ正規化としての画像サイズ拡大処理では、サイズ正規化後の高速撮影画像の画像サイズが(1280×720)になるように、画像処理部51から与えられた高速撮影画像410及び430の画像サイズを増大させる。サイズ正規化後の高速撮影画像410及び430を、夫々、410’及び430’にて表す。図17に、サイズ正規化後の高速撮影画像410’を、通常撮影画像420と共に示す。   Similar to the basic operation, the distortion detection unit 52 or the motion detection unit 54 performs size normalization so that the image sizes of the high-speed captured images 410 and 430 are the same as the image sizes of the normal captured images 420 and 440, respectively. To do. Size normalization may be realized by reducing the image size of the normal captured image, but it is assumed that the image size enlargement process for increasing the image size of the high-speed captured image is executed as size normalization as in the basic operation. To do. That is, in the image size enlargement process as size normalization, the high-speed captured images 410 and 430 given from the image processing unit 51 are set so that the image size of the high-speed captured image after size normalization becomes (1280 × 720). Increase image size. The high-speed captured images 410 and 430 after size normalization are represented by 410 'and 430', respectively. FIG. 17 shows a high-speed captured image 410 ′ after size normalization together with a normal captured image 420.

動き検出部54は、画像410’及び420の画像信号に基づき、画像410’及び420間のオプティカルフローを導出する。具体的には例えば、以下のように処理すれば良い。   The motion detector 54 derives an optical flow between the images 410 ′ and 420 based on the image signals of the images 410 ′ and 420. Specifically, for example, the following processing may be performed.

画像410’から第1〜第Nの特徴点を抽出して、画像410’と画像420との間で画像マッチング(例えばブロックマッチング)を行うことにより、画像410’上の第1〜第Nの特徴点に対応する、画像420上におけるN個の特徴点を検出する(Nは2以上の整数)。但し、画像410’上において、第1〜第Nの特徴点は、互いに垂直位置が異なるものとする。即ち、第1〜第Nの特徴点が属する水平ラインは互いに異なる。図8(a)の画像220に対してn個の検出用ブロックBL[1]〜BL[n]を設定したのと同様に、画像410’に対しても検出用ブロックBL[1]〜BL[n]を設定し、画像410’上の各検出用ブロックから1つずつ特徴点を抽出するようにしてもよい(この場合、n=Nとなる)。   By extracting the first to Nth feature points from the image 410 ′ and performing image matching (for example, block matching) between the image 410 ′ and the image 420, the first to Nth feature points on the image 410 ′ are obtained. N feature points on the image 420 corresponding to the feature points are detected (N is an integer of 2 or more). However, it is assumed that the first to Nth feature points have different vertical positions on the image 410 '. That is, the horizontal lines to which the first to Nth feature points belong are different from each other. Similarly to the case where n detection blocks BL [1] to BL [n] are set for the image 220 in FIG. 8A, the detection blocks BL [1] to BL for the image 410 ′ are also set. [N] may be set, and feature points may be extracted one by one from each detection block on the image 410 ′ (in this case, n = N).

特徴点は、周囲の点と区別できる、追跡の容易な点であることが望ましい。このような特徴点は、水平及び垂直方向における濃淡変化量が大きくなる画素を検出する、周知の特徴点抽出器(不図示)を用いて自動的に抽出することができる。特徴点抽出器とは、例えば、Harrisのコーナ検出器、SUSANのコーナ検出器である。そして、画像410’上の特徴点ごとに、画像410’上の特徴点の位置から画像420上の対応特徴点の位置へと向かうベクトルを特徴点動きベクトルとして求める。   The feature point is preferably a point that can be distinguished from the surrounding points and can be easily traced. Such feature points can be automatically extracted by using a well-known feature point extractor (not shown) that detects pixels in which the amount of change in shading in the horizontal and vertical directions increases. The feature point extractor is, for example, a Harris corner detector or a SUSAN corner detector. Then, for each feature point on the image 410 ', a vector from the position of the feature point on the image 410' to the position of the corresponding feature point on the image 420 is obtained as a feature point motion vector.

図18には、画像410’から抽出された3つの特徴点411〜413が示されていると共に、特徴点411〜413に対応する画像420上の特徴点421〜423が示されている。理想的には、画像410’上の特徴点411〜413に位置する画素の画像信号は、夫々、画像420上の特徴点421〜423に位置する画素の画像信号と一致する。ベクトルVEC1は、画像410’上の特徴点411の位置から画像420上の対応特徴点421の位置へと向かう特徴点動きベクトルであり、ベクトルVEC2は、画像410’上の特徴点412の位置から画像420上の対応特徴点422の位置へと向かう特徴点動きベクトルであり、ベクトルVEC3は、画像410’上の特徴点413の位置から画像420上の対応特徴点423の位置へと向かう特徴点動きベクトルである。動き検出部54によって、N個の特徴点の夫々に対する特徴点動きベクトルが求められる。第5実施例において求められるオプティカルフローは、動きベクトルの一種である特徴点動きベクトルの束である。第5実施例及び後述する第6実施例では、撮像素子33が上方向に位置変化したことを想定しているため、各特徴点動きベクトルの向きは、通常撮影画像の垂直方向及び高速撮影画像の垂直方向と平行である。 FIG. 18 shows three feature points 411 to 413 extracted from the image 410 ′, and feature points 421 to 423 on the image 420 corresponding to the feature points 411 to 413. Ideally, the image signals of the pixels located at the feature points 411 to 413 on the image 410 ′ match the image signals of the pixels located at the feature points 421 to 423 on the image 420, respectively. The vector VEC 1 is a feature point motion vector from the position of the feature point 411 on the image 410 ′ to the position of the corresponding feature point 421 on the image 420, and the vector VEC 2 is the feature point 412 of the image 410 ′. A feature point motion vector from the position to the position of the corresponding feature point 422 on the image 420, and the vector VEC 3 is moved from the position of the feature point 413 on the image 410 ′ to the position of the corresponding feature point 423 on the image 420. It is a feature point motion vector that is headed. A feature point motion vector for each of the N feature points is obtained by the motion detection unit 54. The optical flow required in the fifth embodiment is a bundle of feature point motion vectors, which is a kind of motion vector. In the fifth embodiment and the sixth embodiment, which will be described later, since it is assumed that the position of the image sensor 33 has changed in the upward direction, the direction of each feature point motion vector is the vertical direction of the normal captured image and the high-speed captured image. Is parallel to the vertical direction.

尚、上述の例では、画像410’から特徴点を抽出した後、画像410’上の特徴点に対応する特徴点を画像420から検出するようにしているが、逆に、画像420から特徴点を抽出した後、画像420上の特徴点に対応する特徴点を画像画像410’から検出し、これによって特徴点動きベクトルを求めるようにしても良い。また、基本動作におけるオプティカルフロー導出を、上述の同様の特徴点探索によって実現することもできる。   In the above example, feature points corresponding to the feature points on the image 410 ′ are detected from the image 420 after the feature points are extracted from the image 410 ′. Then, a feature point corresponding to a feature point on the image 420 may be detected from the image image 410 ′, thereby obtaining a feature point motion vector. Also, optical flow derivation in the basic operation can be realized by the same feature point search as described above.

動き検出部54は、複数の特徴点動きベクトルから形成されるオプティカルフローを、画像430’及び440に対しても求め、画像440の撮影以後に得られる高速撮影画像及び通常撮影画像の組に対しても順次求めてゆく。   The motion detection unit 54 also obtains an optical flow formed from a plurality of feature point motion vectors for the images 430 ′ and 440, and for a set of high-speed captured images and normal captured images obtained after the image 440 is captured. But we will ask for it sequentially.

歪み検出部52は、高速撮影画像410’及び通常撮影画像420に対して求められた特徴点動きベクトルを、通常撮影画像420に対するFP歪み量として取り扱う。高速撮影画像430’及び通常撮影画像440についても同様である。FP歪み量とは、通常撮影画像に存在しているFP歪みを表す量である。FP歪み量は、動きベクトル及び特徴点動きベクトルと同様、向きと大きさを持つ量である。   The distortion detection unit 52 treats the feature point motion vector obtained for the high-speed captured image 410 ′ and the normal captured image 420 as the FP distortion amount for the normal captured image 420. The same applies to the high-speed photographed image 430 ′ and the normal photographed image 440. The FP distortion amount is an amount representing FP distortion existing in a normal captured image. The FP distortion amount is an amount having a direction and a size, like the motion vector and the feature point motion vector.

歪み補正部53は、歪み検出部52にて求められたFP歪み量に基づいて、画像取得部51からの各通常撮影画像の画像信号を補正することにより、各通常撮影画像のFP歪みを除去する。通常撮影画像420及び440のFP歪みを除去して得られる画像を夫々補正画像420C及び440Cと呼ぶ。 The distortion correction unit 53 corrects the image signal of each normal captured image from the image acquisition unit 51 based on the FP distortion amount obtained by the distortion detection unit 52, thereby removing the FP distortion of each normal captured image. To do. Images obtained by removing the FP distortion of the normal captured images 420 and 440 are referred to as corrected images 420 C and 440 C , respectively.

FP歪み量に基づき通常撮影画像420から補正画像420Cを生成する方法例を説明する。 An example of a method for generating the corrected image 420 C from the normal captured image 420 based on the FP distortion amount will be described.

歪み補正部53は、FP歪み量としての特徴点動きベクトルの逆ベクトルを歪み補正ベクトルとして設定する。特徴点動きベクトルの逆ベクトルとは、特徴点動きベクトルと向きが反対であって且つ特徴点動きベクトルと大きさが同じベクトルを指す。歪み補正ベクトルは、まず、特徴点が属する水平ラインごとに設定される。即ち、図19に示す如く、特徴点421、422及び423が属する、通常撮影画像420上の水平ライン451、452及び453に対して、夫々、特徴点動きベクトルVEC1、VEC2及びVEC3の逆ベクトルである歪み補正ベクトルVEC1’、VEC2’及びVEC3’が設定される。特徴点421〜423以外の他の特徴点が属する水平ラインに対しても歪み補正ベクトルが設定される。 The distortion correction unit 53 sets an inverse vector of the feature point motion vector as the FP distortion amount as a distortion correction vector. The inverse vector of the feature point motion vector refers to a vector having the opposite direction to the feature point motion vector and the same size as the feature point motion vector. First, a distortion correction vector is set for each horizontal line to which a feature point belongs. That is, as shown in FIG. 19, the feature point motion vectors VEC 1 , VEC 2 and VEC 3 are respectively applied to the horizontal lines 451, 452 and 453 on the normal captured image 420 to which the feature points 421, 422 and 423 belong. Distortion correction vectors VEC 1 ′, VEC 2 ′ and VEC 3 ′ which are inverse vectors are set. A distortion correction vector is also set for a horizontal line to which other feature points other than the feature points 421 to 423 belong.

図19の通常撮影画像420内に示される水平ライン450は、撮像素子33の第1水平ラインに対応する、通常撮影画像420上の水平ラインであり、通常撮影画像420において最も上方側に位置する水平ラインである。水平ライン450についての歪み補正ベクトルVECTOP’の大きさはゼロとされる。今、説明の便宜上、通常撮影画像420上において、第uの特徴点は第(u+1)の特徴点よりも上方側に位置するものとし(uは整数)、特徴点421〜423が夫々第1〜第3の特徴点であることを想定する。 A horizontal line 450 shown in the normal captured image 420 in FIG. 19 is a horizontal line on the normal captured image 420 corresponding to the first horizontal line of the image sensor 33 and is located on the uppermost side in the normal captured image 420. It is a horizontal line. The magnitude of the distortion correction vector VEC TOP ′ for the horizontal line 450 is zero. For convenience of explanation, it is assumed that the u-th feature point is located above the (u + 1) -th feature point (u is an integer) on the normal captured image 420, and the feature points 421 to 423 are the first. It is assumed to be a third feature point.

歪み補正部53は、第1〜第Nの特徴点に対する特徴点動きベクトルに基づき、第1〜第Nの特徴点が属する各水平ラインに対して歪み補正ベクトルを設定した後、補間を用いて水平ラインごとの歪み補正ベクトルを導出する。補間の方法として、線形補間に代表される任意の補間の方法を用いることができる。ここでは、線形補間を用いることを想定する。そうすると、水平ライン450及び451間の中間に位置する水平ラインに対する歪み補正ベクトルは、歪み補正ベクトルVECTOP’ 及びVEC1’の平均ベクトルとされ、水平ライン451及び452間の中間に位置する水平ラインに対する歪み補正ベクトルは、歪み補正ベクトルVEC1’ 及びVEC2’の平均ベクトルとされる。同様に、第3の特徴点423の属する水平ライン453及び第4の特徴点の属する水平ライン間の中間に位置する水平ラインについての歪み補正ベクトルは、歪み補正ベクトルVEC3’と、第4の特徴点の属する水平ラインについての歪み補正ベクトルとの平均ベクトルとされる。このように、第uの特徴点の属する水平ラインと第(u+1)の特徴点の属する水平ラインとの間に位置する水平ラインの歪み補正ベクトルは、第uの特徴点の属する水平ラインについての歪み補正ベクトルと、第(u+1)の特徴点の属する水平ラインについての歪み補正ベクトルとを用いた線形補間によって導出される。 The distortion correction unit 53 sets a distortion correction vector for each horizontal line to which the first to Nth feature points belong based on the feature point motion vectors for the first to Nth feature points, and then uses interpolation. A distortion correction vector for each horizontal line is derived. As an interpolation method, any interpolation method represented by linear interpolation can be used. Here, it is assumed that linear interpolation is used. Then, the distortion correction vector for the horizontal line positioned between the horizontal lines 450 and 451 is an average vector of the distortion correction vectors VEC TOP ′ and VEC 1 ′, and the horizontal line positioned between the horizontal lines 451 and 452 is used. Is a mean vector of the distortion correction vectors VEC 1 ′ and VEC 2 ′. Similarly, the distortion correction vectors for the horizontal line 453 to which the third feature point 423 belongs and the horizontal line located between the horizontal line to which the fourth feature point belongs are the distortion correction vector VEC 3 ′ and the fourth This is an average vector with a distortion correction vector for the horizontal line to which the feature point belongs. As described above, the distortion correction vector of the horizontal line located between the horizontal line to which the u-th feature point belongs and the horizontal line to which the (u + 1) -th feature point belongs is obtained with respect to the horizontal line to which the u-th feature point belongs. It is derived by linear interpolation using the distortion correction vector and the distortion correction vector for the horizontal line to which the (u + 1) th feature point belongs.

通常撮影画像420の各水平ラインについての歪み補正ベクトルを導出した後、歪み補正部53は、通常撮影画像420の水平ライン及び水平ライン上の各画素を、水平ラインごとに、歪み補正ベクトルの向きに沿って歪み補正ベクトルの大きさだけ平行移動させる幾何学的変換を実行する。図19の右側に、上記幾何学的変換を水平ライン451〜453に施すことによって得られた水平ライン451’〜 453’を、水平ライン451〜453と共に共通の画像空間上に示す。   After deriving the distortion correction vector for each horizontal line of the normal captured image 420, the distortion correction unit 53 determines the horizontal line of the normal captured image 420 and each pixel on the horizontal line for each horizontal line. A geometrical transformation is performed by translating along the line by the magnitude of the distortion correction vector. On the right side of FIG. 19, horizontal lines 451 ′ to 453 ′ obtained by applying the geometric transformation to the horizontal lines 451 to 453 are shown on the common image space together with the horizontal lines 451 to 453.

歪み補正ベクトルに従う上記幾何学的変換を通常撮影画像420に施して得られる画像が、補正画像420Cである。図20に、得られた補正画像420Cを示す。第5実施例の想定化における上記幾何学的変換は、画像サイズを垂直方向に拡大させるスケール変換に相当する。例えば、通常撮影画像420上の水平ライン451及び452間に存在する水平ラインが5本である場合において、水平ライン451及び452間の距離が上記幾何学的変換によって2倍に拡大されたならば、補正画像420C上の水平ライン451’及び 452’間には10本の水平ラインが挿入され、その10本の水平ライン上の各画素の画像信号が補正画像420Cの画像信号として、通常撮影画像420の画像信号に基づく補間(必要に応じて画像信号の再標本化)を介して導出される。 Image obtained by performing the geometric transformation according to the distortion correction vector to the normal photographic image 420, a corrected image 420 C. FIG. 20 shows the obtained corrected image 420 C. The geometric transformation in the assumption of the fifth embodiment corresponds to a scale transformation that enlarges the image size in the vertical direction. For example, when there are five horizontal lines between the horizontal lines 451 and 452 on the normal captured image 420, if the distance between the horizontal lines 451 and 452 is doubled by the geometric transformation, corrected image 420 between horizontal lines 451 'and 452' on C is inserted 10 horizontal lines, as the image signal of the image signal corrected image 420 C of each pixel on the horizontal line of the ten, usually It is derived through interpolation (re-sampling of the image signal as necessary) based on the image signal of the captured image 420.

通常撮影画像420に対する補正動作を説明したが、補正画像の生成は、高速撮影画像と通常撮影画像の組ごとに次々と実行される。即ち、画像410及び420に基づくFP歪み量を用いて画像420から補正画像420Cが生成され、画像430及び440に基づくFP歪み量を用いて画像440から補正画像440Cが生成される。画像440の撮影以後に得られる高速撮影画像及び通常撮影画像の組に対しても同様である。各補正画像は、記録フレームレート30fpsの動画像の各フレームとして、外部メモリ18に記録される。 Although the correction operation for the normal captured image 420 has been described, the generation of the corrected image is sequentially executed for each set of the high-speed captured image and the normal captured image. That is, the corrected image 420 C is generated from the image 420 using the FP distortion amount based on the images 410 and 420, and the corrected image 440 C is generated from the image 440 using the FP distortion amount based on the images 430 and 440. The same applies to a set of a high-speed captured image and a normal captured image obtained after the image 440 is captured. Each corrected image is recorded in the external memory 18 as each frame of a moving image with a recording frame rate of 30 fps.

第5実施例によれば、垂直方向における通常撮影画像のFP歪みが正確に検出され、検出されたFP歪み量を用いて通常撮影画像を補正することにより垂直方向のFP歪みを高精度に除去することが可能となる。   According to the fifth embodiment, the FP distortion of the normal photographed image in the vertical direction is accurately detected, and the FP distortion in the vertical direction is accurately removed by correcting the normal photographed image using the detected FP distortion amount. It becomes possible to do.

<<第6実施例>>
第6実施例を説明する。第6実施例では、第5実施例の想定とは逆に、直立した人物を被写体とする動画像の撮影中において、撮像素子33が下方向に位置変化した場合を考える。通常撮影画像から補正画像を生成する際に用いるスケール変換の内容が異なるだけで、第6実施例の動作は第5実施例のそれと同様である。
<< Sixth Example >>
A sixth embodiment will be described. In the sixth embodiment, contrary to the assumption of the fifth embodiment, a case is considered in which the position of the image sensor 33 changes in the downward direction during shooting of a moving image with an upright person as a subject. The operation of the sixth embodiment is the same as that of the fifth embodiment, except that the contents of scale conversion used when generating the corrected image from the normal photographed image are different.

図21は、第6実施例に係る高速撮影画像列及び通常撮影画像列と、それらの撮影タイミングを示す図である。画像510及び530は、夫々、第6実施例における高速撮影画像IS[1]及びIS[2]であり、画像520及び540は、夫々、第6実施例における通常撮影画像IL[1]及びIL[2]である。第6実施例に係る高速撮影画像及び通常撮影画像の生成方法は、基本動作のそれと同じである。従って、高速撮影画像510及び530の夫々の画像サイズは(448×336)であって、通常撮影画像520及び540の夫々の画像サイズは(1280×720)である。 FIG. 21 is a diagram illustrating a high-speed captured image sequence and a normal captured image sequence according to the sixth embodiment, and their imaging timing. Images 510 and 530 are high-speed captured images I S [1] and I S [2] in the sixth embodiment, respectively, and images 520 and 540 are normal captured images I L [1] in the sixth embodiment, respectively. ] And I L [2]. The method for generating the high-speed captured image and the normal captured image according to the sixth embodiment is the same as that of the basic operation. Accordingly, the image sizes of the high-speed captured images 510 and 530 are (448 × 336), and the image sizes of the normal captured images 520 and 540 are (1280 × 720).

基本動作と同様、歪み検出部52又は動き検出部54は、高速撮影画像510及び530の夫々の画像サイズを通常撮影画像520及び540の夫々の画像サイズと同じにするためのサイズ正規化を実行する。通常撮影画像の画像サイズを低減することによってサイズ正規化を実現しても良いが、基本動作と同様、高速撮影画像の画像サイズを増大させる画像サイズ拡大処理をサイズ正規化として実行することを想定する。即ち、サイズ正規化としての画像サイズ拡大処理では、サイズ正規化後の高速撮影画像の画像サイズが(1280×720)になるように、画像処理部51から与えられた高速撮影画像510及び530の画像サイズを増大させる。サイズ正規化後の高速撮影画像510及び530を、夫々、510’及び530’にて表す。図22に、サイズ正規化後の高速撮影画像510’を、通常撮影画像520と共に示す。   Similar to the basic operation, the distortion detection unit 52 or the motion detection unit 54 performs size normalization so that the image sizes of the high-speed captured images 510 and 530 are the same as the image sizes of the normal captured images 520 and 540, respectively. To do. Size normalization may be realized by reducing the image size of the normal captured image, but it is assumed that the image size enlargement process for increasing the image size of the high-speed captured image is executed as size normalization as in the basic operation. To do. That is, in the image size enlargement process as size normalization, the high-speed captured images 510 and 530 given from the image processing unit 51 are set so that the image size of the high-speed captured image after size normalization becomes (1280 × 720). Increase image size. High-speed captured images 510 and 530 after size normalization are denoted by 510 'and 530', respectively. FIG. 22 shows the high-speed captured image 510 ′ after size normalization together with the normal captured image 520.

動き検出部54は、画像510’及び520の画像信号に基づき、複数の特徴点動きベクトルから成る、画像510’及び520間のオプティカルフローを導出する。ここにおけるオプティカルフローの導出方法は、第5実施例に示したものと同じである。動き検出部54は、複数の特徴点動きベクトルから形成されるオプティカルフローを、画像530’及び540に対しても求め、画像540の撮影以後に得られる高速撮影画像及び通常撮影画像の組に対しても順次求めてゆく。   The motion detection unit 54 derives an optical flow between the images 510 ′ and 520, which is composed of a plurality of feature point motion vectors, based on the image signals of the images 510 ′ and 520. The method of deriving the optical flow here is the same as that shown in the fifth embodiment. The motion detection unit 54 also obtains an optical flow formed from a plurality of feature point motion vectors for the images 530 ′ and 540, and for a set of high-speed captured images and normal captured images obtained after the image 540 is captured. But we will ask for it sequentially.

歪み検出部52は、高速撮影画像510’及び通常撮影画像520に対して求められた特徴点動きベクトルを、通常撮影画像520に対するFP歪み量として取り扱う。高速撮影画像530’及び通常撮影画像540についても同様である。   The distortion detection unit 52 treats the feature point motion vector obtained for the high-speed captured image 510 ′ and the normal captured image 520 as an FP distortion amount for the normal captured image 520. The same applies to the high-speed photographed image 530 ′ and the normal photographed image 540.

歪み補正部53は、歪み検出部52にて求められたFP歪み量に基づいて、画像取得部51からの各通常撮影画像の画像信号を補正することにより、各通常撮影画像のFP歪みを除去する。通常撮影画像520及び540のFP歪みを除去して得られる画像を夫々補正画像520C及び540Cと呼ぶ。 The distortion correction unit 53 corrects the image signal of each normal captured image from the image acquisition unit 51 based on the FP distortion amount obtained by the distortion detection unit 52, thereby removing the FP distortion of each normal captured image. To do. Images obtained by removing the FP distortion of the normal captured images 520 and 540 are referred to as corrected images 520 C and 540 C , respectively.

歪み補正部53は、第5実施例で述べた方法と同様の方法にて、通常撮影画像520のFP歪み量(特徴点動きベクトル)から通常撮影画像520の水平ラインごとの歪み補正ベクトルを導出し、通常撮影画像520の水平ライン及び水平ライン上の各画素を、水平ラインごとに、歪み補正ベクトルの向きに沿って歪み補正ベクトルの大きさだけ平行移動させる幾何学的変換を実行することで補正画像520Cを生成する。 The distortion correction unit 53 derives a distortion correction vector for each horizontal line of the normal captured image 520 from the FP distortion amount (feature point motion vector) of the normal captured image 520 by the same method as described in the fifth embodiment. Then, the horizontal line of the normal photographed image 520 and each pixel on the horizontal line are subjected to geometric transformation in which the horizontal line is translated by the magnitude of the distortion correction vector along the direction of the distortion correction vector. A corrected image 520 C is generated.

図23に、得られた補正画像520Cを示す。第6実施例の想定化における上記幾何学的変換は、画像サイズを垂直方向に縮小させるスケール変換に相当する。例えば、通常撮影画像520上の第1及び第2注目水平ライン間に存在する水平ラインが10本である場合において、第1及び第2注目水平ライン間の距離が上記幾何学的変換によって1/2倍に縮小されたならば、第1及び第2注目水平ラインに対応する、補正画像520C上の2本の水平ライン間には5本の水平ラインのみが挿入される。つまり、上記10本の水平ラインの内の半分が、スケール変換の過程で間引かれる。 FIG. 23 shows the obtained corrected image 520 C. The geometric transformation in the assumption of the sixth embodiment corresponds to a scale transformation that reduces the image size in the vertical direction. For example, when there are ten horizontal lines between the first and second target horizontal lines on the normal captured image 520, the distance between the first and second target horizontal lines is 1 / If it is reduced by a factor of 2, only five horizontal lines are inserted between the two horizontal lines on the corrected image 520 C corresponding to the first and second horizontal lines of interest. That is, half of the ten horizontal lines are thinned out during the scale conversion process.

通常撮影画像520に対する補正動作を説明したが、補正画像の生成は、高速撮影画像と通常撮影画像の組ごとに次々と実行される。即ち、画像510及び520に基づくFP歪み量を用いて画像520から補正画像520Cが生成され、画像530及び540に基づくFP歪み量を用いて画像540から補正画像540Cが生成される。画像540の撮影以後に得られる高速撮影画像及び通常撮影画像の組に対しても同様である。各補正画像は、記録フレームレート30fpsの動画像の各フレームとして、外部メモリ18に記録される。 Although the correction operation for the normal captured image 520 has been described, the generation of the corrected image is sequentially executed for each set of the high-speed captured image and the normal captured image. That is, the corrected image 520 C is generated from the image 520 using the FP distortion amount based on the images 510 and 520, and the corrected image 540 C is generated from the image 540 using the FP distortion amount based on the images 530 and 540. The same applies to a set of high-speed captured images and normal captured images obtained after the image 540 is captured. Each corrected image is recorded in the external memory 18 as each frame of a moving image with a recording frame rate of 30 fps.

<<変形等>>
上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈3を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 3 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
水平方向のFP歪みの除去方法と垂直方向のFP歪みの除去方法を別個に説明したが、通常撮影画像に水平及び垂直方向のFP歪みが含まれているなら、両者を同時に除去することも可能である。即ち、基本動作と上述の第5及び第6実施例を組み合わせて実施することで、通常撮影画像に含まれうる水平及び垂直方向のFP歪みを同時に除去するようにしても良い。
[Note 1]
Although the method for removing horizontal FP distortion and the method for removing vertical FP distortion have been described separately, if the normal photographed image contains horizontal and vertical FP distortion, both can be removed simultaneously. It is. That is, by performing the basic operation in combination with the fifth and sixth embodiments described above, the FP distortion in the horizontal and vertical directions that may be included in the normal photographed image may be simultaneously removed.

[注釈2]
高速撮影画像の生成時には、図7の共通エリア210内の一部の受光画素が間引かれる一方で、通常撮影画像の生成時には、共通エリア210内の全受光画素の出力信号が個別に読み出されると上述したが、通常撮影画像の生成時においても受光画素の間引きが行われても構わない。従って例えば、撮像素子33の共通エリア210に属する幾つかの水平ライン上の受光画素は、高速撮影画像の生成時だけでなく通常撮影画像の生成時においても間引かれることがある。但し、間引きの対象となる水平ラインは、通常撮影画像の生成時と高速撮影画像の生成時との間で異なりうる。
[Note 2]
At the time of generating a high-speed captured image, a part of the light receiving pixels in the common area 210 in FIG. 7 is thinned, while at the time of generating a normal captured image, output signals of all the light receiving pixels in the common area 210 are individually read out. As described above, the light receiving pixels may be thinned out even when the normal captured image is generated. Therefore, for example, light receiving pixels on several horizontal lines belonging to the common area 210 of the image sensor 33 may be thinned out not only when generating a high-speed captured image but also when generating a normal captured image. However, the horizontal line to be thinned may be different between when a normal captured image is generated and when a high-speed captured image is generated.

[注釈3]
図1の撮像装置1を、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって構成することができる。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。ソフトウェアを用いて実現される機能をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能を実現するようにしてもよい
[Note 3]
The imaging apparatus 1 in FIG. 1 can be configured by hardware or a combination of hardware and software. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part. A function realized using software may be described as a program, and the function may be realized by executing the program on a program execution device (for example, a computer).

1 撮像装置
11 撮像部
33 撮像素子
51 画像取得部
52 歪み検出部
53 歪み補正部
54 動き検出部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 33 Imaging element 51 Image acquisition part 52 Distortion detection part 53 Distortion correction part 54 Motion detection part

Claims (5)

複数の水平ラインに含まれる第1及び第2水平ライン間で露光タイミングを異ならせつつ画像撮影を行う撮像素子と、
前記第1及び第2水平ライン間の露光タイミング差が比較的短い露光による画像信号を前記撮像素子から読み出すことで第1画像を取得する一方、前記露光タイミング差が比較的長い露光による画像信号を前記撮像素子から読み出すことで第2画像を取得する画像取得部と、
前記第1及び第2画像の画像信号に基づいて前記第1及び第2画像間のオプティカルフローを導出する動き検出部と、
前記オプティカルフローに基づいて前記第2画像を補正する補正部と、を備えた
ことを特徴とする撮像装置。
An image sensor that captures an image while varying the exposure timing between the first and second horizontal lines included in the plurality of horizontal lines;
A first image is obtained by reading out an image signal obtained by exposure with a relatively short exposure timing difference between the first and second horizontal lines from the image sensor, and an image signal obtained by exposure with a relatively long exposure timing difference. An image acquisition unit that acquires a second image by reading from the image sensor;
A motion detector for deriving an optical flow between the first and second images based on image signals of the first and second images;
An imaging apparatus comprising: a correction unit that corrects the second image based on the optical flow.
前記補正部は、前記第1及び第2水平ライン間で露光タイミングが異なることによって前記第2画像に生じた歪みを、前記オプティカルフローに基づいて補正する
ことを特徴とする請求項1に記載の撮像装置。
2. The correction unit according to claim 1, wherein the correction unit corrects distortion generated in the second image due to an exposure timing being different between the first and second horizontal lines based on the optical flow. Imaging device.
前記動き検出部は、前記第1及び第2画像の画像信号に基づき、前記オプティカルフローを形成する複数の動きベクトルを導出し、
前記補正部は、前記第2画像に生じた前記歪みを各動きベクトルに基づいて補正する
ことを特徴とする請求項2に記載の撮像装置。
The motion detection unit derives a plurality of motion vectors forming the optical flow based on the image signals of the first and second images;
The imaging apparatus according to claim 2, wherein the correction unit corrects the distortion generated in the second image based on each motion vector.
前記補正部は、各動きベクトルに基づく幾何学的変換を前記第2画像に施すことで前記歪みを補正する
ことを特徴とする請求項3に記載の撮像装置。
The imaging apparatus according to claim 3, wherein the correction unit corrects the distortion by performing geometric transformation on the second image based on each motion vector.
前記画像取得部は、前記第1及び第2画像の交互撮影を繰り返し実行し、
当該撮像装置は、前記補正部の補正によって得た各第2画像に基づく各補正画像を所定の記録フレームレートにて記録媒体に記録し、
1枚の第1画像を得るために必要な時間と1枚の第2画像を得るために必要な時間との合計は、前記記録フレームレートの逆数以下に設定される
ことを特徴とする請求項1〜請求項5の何れかに記載の撮像装置。
The image acquisition unit repeatedly executes alternate shooting of the first and second images,
The imaging apparatus records each corrected image based on each second image obtained by the correction of the correction unit on a recording medium at a predetermined recording frame rate,
The total of the time required to obtain one first image and the time required to obtain one second image is set to be equal to or less than the reciprocal of the recording frame rate. The imaging device according to claim 1.
JP2009239966A 2009-10-19 2009-10-19 Imaging apparatus Pending JP2011087203A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009239966A JP2011087203A (en) 2009-10-19 2009-10-19 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009239966A JP2011087203A (en) 2009-10-19 2009-10-19 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2011087203A true JP2011087203A (en) 2011-04-28

Family

ID=44079816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009239966A Pending JP2011087203A (en) 2009-10-19 2009-10-19 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2011087203A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101550536B1 (en) 2014-04-07 2015-09-08 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and apparatus for reducing motion blur in video sensor systems
WO2019065468A1 (en) * 2017-09-27 2019-04-04 京セラ株式会社 Image capture device and moving body
CN113347356A (en) * 2021-05-31 2021-09-03 维沃移动通信(杭州)有限公司 Shooting method, shooting device, electronic equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089037A (en) * 2007-09-28 2009-04-23 Fujifilm Corp Photographing controller, photographing control method, photographing control program and photographing device
JP2009182527A (en) * 2008-01-29 2009-08-13 Morpho Inc Method and apparatus for capturing image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089037A (en) * 2007-09-28 2009-04-23 Fujifilm Corp Photographing controller, photographing control method, photographing control program and photographing device
JP2009182527A (en) * 2008-01-29 2009-08-13 Morpho Inc Method and apparatus for capturing image

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101550536B1 (en) 2014-04-07 2015-09-08 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and apparatus for reducing motion blur in video sensor systems
WO2015156546A1 (en) * 2014-04-07 2015-10-15 재단법인 다차원 스마트 아이티 융합시스템 연구단 Method and apparatus for reducing motion blur of video sensor
WO2019065468A1 (en) * 2017-09-27 2019-04-04 京セラ株式会社 Image capture device and moving body
JP2019062479A (en) * 2017-09-27 2019-04-18 京セラ株式会社 Imaging apparatus and movable body
CN113347356A (en) * 2021-05-31 2021-09-03 维沃移动通信(杭州)有限公司 Shooting method, shooting device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JP5683851B2 (en) Imaging apparatus and image processing apparatus
JP2010268441A (en) Image processor, imaging device, and image reproducing device
JP5578442B2 (en) Imaging apparatus, image composition method, and program
JP2013046259A (en) Video apparatus, control method, and program
JP2007215091A (en) Imaging apparatus and program therefor
JP2013165485A (en) Image processing apparatus, image capturing apparatus, and computer program
JP2014082533A (en) Image processing apparatus, image processing method and program
JP2013165483A (en) Image processing apparatus, image capturing apparatus, and computer program
JP2008139683A (en) Imaging apparatus and autofocus control method
JP2012119761A (en) Electronic apparatus, image processing method and program
KR20160044945A (en) Image photographing appratus
JP5013852B2 (en) Angle of view correction apparatus and method, and imaging apparatus
US8681235B2 (en) Apparatus for processing digital image signal that obtains still image at desired point in time and method of controlling the apparatus
JP6261397B2 (en) Imaging apparatus and control method thereof
JP2018148512A (en) Imaging device, control method of imaging device, and program
JP2013165488A (en) Image processing apparatus, image capturing apparatus, and program
JP2017011504A (en) Imaging device, image processing method and program
JP6557499B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, IMAGING DEVICE, PROGRAM, AND STORAGE MEDIUM
JP2011066827A (en) Image processing apparatus, image processing method and program
JP5959194B2 (en) Imaging device
JP2011087203A (en) Imaging apparatus
JP2011114486A (en) Imaging device
JP5267279B2 (en) Image composition apparatus and program
JP6278729B2 (en) Imaging apparatus, control method thereof, and program
JP2013135408A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120828

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131217