JP2010154390A - Imaging device, imaging method, and program - Google Patents

Imaging device, imaging method, and program Download PDF

Info

Publication number
JP2010154390A
JP2010154390A JP2008332040A JP2008332040A JP2010154390A JP 2010154390 A JP2010154390 A JP 2010154390A JP 2008332040 A JP2008332040 A JP 2008332040A JP 2008332040 A JP2008332040 A JP 2008332040A JP 2010154390 A JP2010154390 A JP 2010154390A
Authority
JP
Japan
Prior art keywords
imaging
image
feature points
coordinate value
scanning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2008332040A
Other languages
Japanese (ja)
Inventor
Koichi Tanaka
康一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008332040A priority Critical patent/JP2010154390A/en
Publication of JP2010154390A publication Critical patent/JP2010154390A/en
Abandoned legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/689Motion occurring during a rolling shutter mode

Abstract

<P>PROBLEM TO BE SOLVED: To easily correct distortion of a figure of a dynamic body generated in imaging the dynamic body by a rolling shutter style imaging sensor without changing resolution, in an imaging device. <P>SOLUTION: By using an imaging means to image an object using a rolling shutter style imaging sensor, the imaging means is made to execute first imaging to read signals of the imaging sensor by a first scanning method for executing scanning on a line basis from one direction. The imaging means is made to execute second imaging to read signals of the imaging sensor by a second scanning method for executing scanning on a line basis from a direction reverse to the one direction. A plurality of feature points are extracted from a first image acquired by the first imaging, and a corresponding point corresponding to each of them is detected from a second image acquired by the second imaging. Coordinate values of intermediate points located at intermediate locations between the plurality of feature points and the corresponding points each corresponding to each of them are calculated. The first image/the second image are deformed so that the coordinate values of the plurality of feature points/corresponding points coincide with the coordinate values of the intermediate points. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明はデジタルカメラ等の撮像装置に関し、特にローリングシャッタ方式の撮像センサを備えてなる撮像装置及び撮像方法並びプログラムに関するものである。   The present invention relates to an imaging apparatus such as a digital camera, and more particularly to an imaging apparatus and an imaging method as well as a program including a rolling shutter type imaging sensor.

近年、ローリングシャッタ方式の撮像センサとして、構造的に読出線を複数用意したり、不要部分を読み飛ばすことによって高速読み出しを可能にしたCMOS(Complementary Mental Oxide Semiconductor)イメージセンサ(以下、CMOSセンサという)が普及しつつある。このようなCMOSセンサをデジタルカメラに搭載することにより、従来よりも高速な連写が可能となり、シャッタチャンスを逃すことなく撮像を行うことができる。   In recent years, a CMOS (Complementary Mental Oxide Semiconductor) image sensor (hereinafter referred to as a CMOS sensor) that enables high-speed readout by structurally preparing a plurality of readout lines or skipping unnecessary portions as an imaging sensor of a rolling shutter system Is spreading. By mounting such a CMOS sensor on a digital camera, continuous shooting can be performed at a higher speed than before, and imaging can be performed without missing a photo opportunity.

ところでCMOSセンサでは、一般的に、走査ライン毎に順次シャッタを切るローリングシャッタ方式により画素信号の読み出しが行われる。この方式で全画素の画素信号を読み出す場合、例えば、画面の左上の画素から順に、右下に向かって各画素の信号を読み出すため、読み出し開始点(左上)と読み出し終了点(右下)とで時間差が生じてしまい、図13の左図に示すように被写体に図中右方向に移動する動体Dが存在する場合には、撮像して得た画像は図13の右図に示すように動体Dの図形に歪みが生じてしまう。   By the way, in a CMOS sensor, pixel signals are generally read out by a rolling shutter system in which shutters are sequentially opened for each scanning line. When reading out the pixel signals of all the pixels by this method, for example, in order from the upper left pixel of the screen in order to read out the signal of each pixel toward the lower right, the read start point (upper left) and the read end point (lower right) When there is a moving body D that moves in the right direction in the figure as shown in the left diagram of FIG. 13, the image obtained by imaging is as shown in the right diagram of FIG. The figure of the moving body D is distorted.

そこで、ローリングシャッタ方式の撮像センサにおいて、水平又は垂直の走査ラインを所定の間引き率で読み出し、間引かれた走査ラインは近接する走査ラインを用いて補正することにより動体の図形の歪みを低減する方法(特許文献1)や、ローリングシャッタ方式の撮像センサを用いて撮像された複数枚のフレーム画像において、動き領域及び動き領域の動きベクトルを取得し、動きベクトルと複数枚のフレーム画像間での撮像間隔に関する情報と、露光開始時刻差に関する情報と、露光開始順序に関する情報とに基づいて複数枚のフレーム画像中の補正対象たるフレーム画像内の動き領域を補正する方法(特許文献2)が開示されている。
特開2006−148861号公報 特開2007−142929号公報
Therefore, in a rolling shutter type image sensor, horizontal or vertical scanning lines are read at a predetermined thinning rate, and the thinned scanning lines are corrected using adjacent scanning lines, thereby reducing the distortion of a moving object figure. In a plurality of frame images captured using a method (Patent Document 1) or a rolling shutter type imaging sensor, a motion region and a motion vector of the motion region are acquired, and the motion vector and the plurality of frame images are obtained. A method for correcting a motion region in a frame image to be corrected in a plurality of frame images based on information on an imaging interval, information on an exposure start time difference, and information on an exposure start order (Patent Document 2) is disclosed. Has been.
JP 2006-148861 A JP 2007-142929 A

しかしながら、上記特許文献1に記載の方法は、走査ラインを間引くので水平方向の走査ラインを間引いた場合には垂直方向の解像度が、垂直方向の走査ラインを間引いた場合には水平方向の解像度が低下してしまう。また上記特許文献2に記載の方法は、動き領域の検出や、露光開始時刻差等の情報が必要となり、例えば画像の中に動きの異なる複数の動き領域が存在する場合等には各々の動き領域を検出して、領域毎に異なる補正を行う必要があるため処理が煩雑になってしまう虞がある。   However, since the method described in Patent Document 1 thins out the scanning lines, the vertical resolution is obtained when the horizontal scanning lines are thinned out, and the horizontal resolution is obtained when the vertical scanning lines are thinned out. It will decline. Further, the method described in Patent Document 2 requires information such as detection of a motion region and difference in exposure start time. For example, when there are a plurality of motion regions having different motions in an image, each motion is detected. Since it is necessary to detect a region and perform different correction for each region, there is a possibility that the processing becomes complicated.

本発明はかかる事情に鑑みてなされたものであり、ローリングシャッタ方式の撮像センサで動体を撮像するときに生じる動体の図形の歪みを、解像度を変えることなく容易に補正することができる撮像装置及び撮像方法並びプログラムを提供することを目的とするものである。   The present invention has been made in view of such circumstances, and an imaging apparatus capable of easily correcting distortion of a moving object figure that occurs when a moving object is imaged by a rolling shutter imaging sensor without changing the resolution. An object of the present invention is to provide an imaging method arrangement program.

本発明の撮像装置は、ローリングシャッタ方式の撮像センサを使用して被写体を撮像する撮像手段と、   An image pickup apparatus according to the present invention includes an image pickup unit that picks up an image of a subject using a rolling shutter type image pickup sensor,

該撮像手段に第1の撮像と第2の撮像とを連続して行わせ、前記第1の撮像時にライン毎の走査を一方向から行う第1の走査方法で前記撮像センサの信号を読み出し、前記第2の撮像時にライン毎の走査を前記一方向とは逆の方向から行う第2の走査方法で前記撮像センサの信号を読み出すように前記撮像手段を制御する撮像制御手段と、   First imaging and second imaging are continuously performed by the imaging unit, and a signal of the imaging sensor is read by a first scanning method in which scanning for each line is performed from one direction at the time of the first imaging, An imaging control means for controlling the imaging means so as to read a signal of the imaging sensor by a second scanning method in which scanning for each line is performed in a direction opposite to the one direction at the time of the second imaging;

前記第1の撮像によって取得した第1の画像から複数の特徴点を抽出する特徴点抽出手段と、   Feature point extracting means for extracting a plurality of feature points from the first image acquired by the first imaging;

該特徴点抽出手段により抽出された複数の特徴点の各々に対応する対応点を、前記第2の撮像によって取得した第2の画像から検出する対応点検出手段と、   Corresponding point detecting means for detecting corresponding points corresponding to each of the plurality of feature points extracted by the feature point extracting means from the second image acquired by the second imaging;

前記複数の特徴点と該複数の特徴点の各々に対応する前記対応点との中間に位置する中間点の座標値を算出し、前記特徴点の座標値が前記中間点の座標値に一致するように前記第1の画像を変形する、及び/又は、前記対応点の座標値が前記中間点の座標値に一致するように前記第2の画像を変形する画像変形手段とを備えていることを特徴とするものである。   A coordinate value of an intermediate point located between the plurality of feature points and the corresponding point corresponding to each of the plurality of feature points is calculated, and the coordinate value of the feature point matches the coordinate value of the intermediate point And / or image deformation means for deforming the second image so that the coordinate value of the corresponding point matches the coordinate value of the intermediate point. It is characterized by.

本発明において「ローリングシャッタ方式の撮像センサ」は、全画素同時ではなく、シャッタ動作を行う画素が時間とともに縦方向又は横方向の行単位でシフトしていく方式のイメージセンサをいい、MOS型のイメージセンサを挙げることができる。MOS型のイメージセンサとしては例えばCMOSセンサを使用することができる。
また「第1の撮像と第2の撮像とを連続して行わせ」は、先に第1の撮像を行ってもよいし、先に第2の撮像を行ってもよい。ただし「連続」した撮像は第1の撮像と第2の撮像との間の時間間隔が例えば1/60秒を超えないようにする。
In the present invention, the “rolling shutter type imaging sensor” refers to an image sensor of a type in which the pixels that perform the shutter operation shift in units of rows in the vertical direction or the horizontal direction with time, not all the pixels simultaneously. An image sensor can be mentioned. As the MOS type image sensor, for example, a CMOS sensor can be used.
In addition, “perform first imaging and second imaging continuously” may be performed first first imaging or second imaging first. However, “continuous” imaging is performed so that the time interval between the first imaging and the second imaging does not exceed 1/60 seconds, for example.

なお本発明の撮像装置は、前記複数の特徴点と該複数の特徴点の各々に対応する前記対応点とから動きベクトルを算出する動きベクトル算出手段と、   The imaging apparatus of the present invention includes a motion vector calculating unit that calculates a motion vector from the plurality of feature points and the corresponding points corresponding to the plurality of feature points,

該動きベクトル算出手段により算出された前記動きベクトルが所定の閾値よりも小さい場合に、前記画像変形手段による前記第1の画像又は前記第2の画像の変形を行わないようにする画像変形禁止手段とをさらに備えていてもよい。   Image deformation prohibiting means for preventing the image deforming means from deforming the first image or the second image when the motion vector calculated by the motion vector calculating means is smaller than a predetermined threshold. And may be further provided.

なお所定の閾値と比較する「動きベクトル」は、複数の動きベクトルのうち最も大きさの大きいベクトルを選択してもよいし、複数の動きベクトルの平均値や中間値を使用してもよいし、選択方法を適宜変更することができる。   As the “motion vector” to be compared with the predetermined threshold, a vector having the largest magnitude among the plurality of motion vectors may be selected, or an average value or an intermediate value of the plurality of motion vectors may be used. The selection method can be changed as appropriate.

また本発明の撮像装置は、前記画像変形手段が、前記第1の画像及び前記第2の画像を変形するものであり、   Further, in the imaging apparatus of the present invention, the image deformation means deforms the first image and the second image,

該変形された第1の画像及び第2の画像を合成して1つの画像を生成する画像合成手段をさらに備えていてもよい。   You may further provide the image synthetic | combination means which synthesize | combines this deformed 1st image and 2nd image, and produces | generates one image.

本発明の撮像方法は、ローリングシャッタ方式の撮像センサを使用して被写体を撮像する撮像手段を用いる撮像方法において、   An image pickup method of the present invention is an image pickup method using an image pickup means for picking up an object using a rolling shutter type image pickup sensor.

前記撮像手段に第1の撮像を行わせ、   Causing the imaging means to perform a first imaging;

該第1の撮像時にライン毎の走査を一方向から行う第1の走査方法で前記撮像センサの信号を読み出し、   The signal of the imaging sensor is read out by a first scanning method in which scanning for each line is performed from one direction during the first imaging,

前記撮像手段に第2の撮像を行わせ、   Causing the imaging means to perform second imaging;

該第2の撮像時にライン毎の走査を前記一方向とは逆の方向から行う第2の走査方法で前記撮像センサの信号を読み出し、   The signal of the imaging sensor is read by a second scanning method in which scanning for each line is performed from the direction opposite to the one direction during the second imaging,

前記第1の撮像によって取得した第1の画像から複数の特徴点を抽出し、   Extracting a plurality of feature points from the first image acquired by the first imaging;

該抽出された複数の特徴点の各々に対応する対応点を、前記第2の撮像によって取得した第2の画像から検出し、   Detecting corresponding points corresponding to each of the extracted plurality of feature points from the second image acquired by the second imaging;

前記複数の特徴点と該複数の特徴点の各々に対応する対応点との中間に位置する中間点の座標値を算出し、   Calculating a coordinate value of an intermediate point located between the plurality of feature points and a corresponding point corresponding to each of the plurality of feature points;

前記複数の特徴点の座標値が前記中間点の座標値に一致するように前記第1の画像を変形する、及び/又は、前記対応点の座標値が前記中間点の座標値に一致するように前記第2の画像を変形することを特徴とする。   The first image is deformed so that the coordinate values of the plurality of feature points match the coordinate value of the intermediate point, and / or the coordinate value of the corresponding point matches the coordinate value of the intermediate point. Further, the second image is deformed.

なお本発明の撮像方法は、前記複数の特徴点と該複数の特徴点の各々に対応する前記対応点とから動きベクトルを算出し、   The imaging method of the present invention calculates a motion vector from the plurality of feature points and the corresponding points corresponding to each of the plurality of feature points,

該算出された前記動きベクトルが所定の閾値よりも小さい場合に、前記第1の画像又は前記第2の画像の変形を行わないようにしてもよい。   When the calculated motion vector is smaller than a predetermined threshold value, the first image or the second image may not be deformed.

また本発明の撮像方法は、前記第1の画像及び前記第2の画像を変形し、   Further, the imaging method of the present invention deforms the first image and the second image,

該変形された第1の画像及び第2の画像を合成して1つの画像を生成してもよい。   The deformed first image and second image may be combined to generate one image.

本発明のプログラムは、ローリングシャッタ方式の撮像センサを使用して被写体を撮像する撮像手段を用いる撮像方法をコンピュータに実行させるためのプログラムにおいて、   The program of the present invention is a program for causing a computer to execute an imaging method using an imaging means for imaging a subject using a rolling shutter imaging sensor.

前記撮像手段に第1の撮像を行わせ、
該第1の撮像時にライン毎の走査を一方向から行う第1の走査方法で前記撮像センサの信号を読み出し、
Causing the imaging means to perform a first imaging;
The signal of the imaging sensor is read out by a first scanning method in which scanning for each line is performed from one direction during the first imaging,

前記撮像手段に第2の撮像を行わせ、   Causing the imaging means to perform second imaging;

該第2の撮像時にライン毎の走査を前記一方向とは逆の方向から行う第2の走査方法で前記撮像センサの信号を読み出し、   The signal of the imaging sensor is read by a second scanning method in which scanning for each line is performed from the direction opposite to the one direction during the second imaging,

前記第1の撮像によって取得した第1の画像から複数の特徴点を抽出し、   Extracting a plurality of feature points from the first image acquired by the first imaging;

該抽出された複数の特徴点の各々に対応する対応点を、前記第2の撮像によって取得した第2の画像から検出し、   Detecting corresponding points corresponding to each of the extracted plurality of feature points from the second image acquired by the second imaging;

前記複数の特徴点と該複数の特徴点の各々に対応する対応点との中間に位置する中間点の座標値を算出し、   Calculating a coordinate value of an intermediate point located between the plurality of feature points and a corresponding point corresponding to each of the plurality of feature points;

前記複数の特徴点の座標値が前記中間点の座標値に一致するように前記第1の画像を変形する、及び/又は、前記対応点の座標値が前記中間点の座標値に一致するように前記第2の画像を変形することを実行させることを特徴とするものである。   The first image is deformed so that the coordinate values of the plurality of feature points match the coordinate value of the intermediate point, and / or the coordinate value of the corresponding point matches the coordinate value of the intermediate point. And performing the transformation of the second image.

なお本発明のプログラムは、コンピュータに、前記複数の特徴点と該複数の特徴点の各々に対応する前記対応点とから動きベクトルを算出し、   The program of the present invention calculates a motion vector from the plurality of feature points and the corresponding points corresponding to each of the plurality of feature points on a computer,

該算出された前記動きベクトルが所定の閾値よりも小さい場合に、前記第1の画像又は前記第2の画像の変形を行わないようにすることを実行させるものであってもよい。   When the calculated motion vector is smaller than a predetermined threshold, the first image or the second image may be prevented from being deformed.

また本発明のプログラムは、コンピュータに、前記第1の画像及び前記第2の画像を変形し、   Further, the program of the present invention transforms the first image and the second image into a computer,

該変形された第1の画像及び第2の画像を合成して1つの画像を生成することを実行させるものであってもよい。   The deformed first image and second image may be combined to generate one image.

本発明の撮像装置及び撮像方法並びにプログラムによれば、略同一のシーンを2度撮像し、1度目の撮像時と2度目の撮像時とで、撮像センサの信号の読み出し走査方向を逆転させることにより、1度目の撮像時によって取得した第1の画像と2度目の撮像時によって取得した第2の画像とでは、被写体に一定速度で移動する動体が含まれていた場合に、動体の歪みの形状に対称性を有する差が生じるので、第1の画像から抽出された複数の特徴点と、複数の特徴点に各々対応する対応点との中間に位置する中間点の座標値を算出して、特徴点の座標値が中間点の座標値に一致するように第1の画像を変形する、及び/又は、対応点の座標値が中間点の座標値に一致するように第2の画像を変形することにより、ローリングシャッタ方式の撮像センサで動体を撮像するときに生じる動体の図形の歪みを、解像度を変えることなく容易に補正することができる。   According to the imaging apparatus, the imaging method, and the program of the present invention, the substantially identical scene is imaged twice, and the readout scanning direction of the signal of the imaging sensor is reversed between the first imaging and the second imaging. Thus, in the first image acquired by the first imaging and the second image acquired by the second imaging, when the moving object moving at a constant speed is included in the subject, the distortion of the moving object is Since there is a symmetric difference in shape, the coordinate values of intermediate points located between the plurality of feature points extracted from the first image and the corresponding points respectively corresponding to the plurality of feature points are calculated. The first image is deformed so that the coordinate value of the feature point matches the coordinate value of the intermediate point, and / or the second image is changed so that the coordinate value of the corresponding point matches the coordinate value of the intermediate point. The deformation of the rolling shutter system The distortion of the shape of the body that occur when imaging a moving object by the sensor can be easily corrected without changing the resolution.

また複数の特徴点と複数の特徴点の各々に対応する対応点とから動きベクトルを算出し、算出された動きベクトルが所定の閾値よりも小さい場合に、第1の画像又は第2の画像の変形を行わないようにする場合には、撮像センサに起因する動体の歪みは動体の速度が速いほど顕著であり、逆に動体の速度が遅い場合には動体の図形の歪みは小さくなるので、動体の動きが小さい場合に画像の変形を禁止することにより、無駄な処理をなくすことができる。   A motion vector is calculated from a plurality of feature points and corresponding points corresponding to each of the plurality of feature points, and when the calculated motion vector is smaller than a predetermined threshold, the first image or the second image When the deformation is not performed, the distortion of the moving object due to the imaging sensor is more conspicuous as the speed of the moving object is faster, and conversely, when the moving object is slow, the distortion of the moving object figure becomes smaller. By prohibiting deformation of the image when the movement of the moving body is small, useless processing can be eliminated.

また第1の画像及び第2の画像を変形し、変形された第1の画像及び第2の画像を合成して1つの画像を生成する場合には、第1の画像を取得する第1の撮像と、第2の画像を取得する第2の撮像とで撮像条件を変えることにより、例えば露出条件を変えた場合には第1の画像と第2の画像においてそれぞれ適正露出の部分が異なる部分となるので、適正露出部分を合成することにより、動体の図形の歪みを補正すると共にダイナミックレンジを拡大することができる。   In addition, when the first image and the second image are deformed and one image is generated by combining the deformed first image and the second image, the first image is acquired. By changing the imaging condition between the imaging and the second imaging for acquiring the second image, for example, when the exposure condition is changed, the first image and the second image have different portions with appropriate exposure. Therefore, by synthesizing the appropriate exposure portion, it is possible to correct the distortion of the moving object figure and expand the dynamic range.

以下、本発明にかかる撮像装置の一実施形態を、図面を参照して詳細に説明する。尚、以下の実施の形態では、本発明における撮像装置としてデジタルカメラを例に説明するが、本発明の適用範囲はこれに限定されず、例えば、カメラ付き携帯電話、カメラ付きPDA等、電子撮像機能を備えた他の電子機器に対しても適用可能である。   Hereinafter, an embodiment of an imaging apparatus according to the present invention will be described in detail with reference to the drawings. In the following embodiments, a digital camera will be described as an example of the imaging apparatus in the present invention. However, the scope of the present invention is not limited to this, and for example, electronic imaging such as a mobile phone with a camera, a PDA with a camera, etc. The present invention can also be applied to other electronic devices having functions.

ここで図1にデジタルカメラ1の機能構成を示すブロック図を示す。本実施形態のデジタルカメラ1は、図1に示す如く、撮影レンズ11と、CMOSセンサ(撮像センサ)15と、撮影レンズ11とCMOSセンサ15との間に設けられた絞り12と、赤外線カットフィルタ13と、光学ローパスフィルタ14とを備えている。   FIG. 1 is a block diagram showing the functional configuration of the digital camera 1. As shown in FIG. 1, the digital camera 1 according to the present embodiment includes a photographing lens 11, a CMOS sensor (imaging sensor) 15, a diaphragm 12 provided between the photographing lens 11 and the CMOS sensor 15, and an infrared cut filter. 13 and an optical low-pass filter 14.

撮影レンズ11は、光軸方向に移動可能であり、後述するCPU19によって制御されレンズ駆動部16を介してフォーカス位置に移動される。絞り12は、絞り径すなわち開口量が調整可能であり、後述するCPU19によって制御され絞り駆動部17を介して露光量が適正露光量となるように調整される。   The photographing lens 11 is movable in the optical axis direction, and is controlled by a CPU 19 described later and moved to a focus position via a lens driving unit 16. The aperture 12 can adjust the aperture diameter, that is, the aperture amount, and is controlled by a CPU 19 described later to adjust the exposure amount to an appropriate exposure amount via the aperture drive unit 17.

CMOSセンサ15は、後述するCPU19によって制御され撮像素子駆動部18を介して駆動されて、撮影レンズ11を通して撮像した被写体画像を色信号として出力させる。CMOSセンサ15では、走査ライン毎に順次シャッタを切るローリングシャッタ方式により画素信号の読み出しが行わる。全画素の画素信号を読み出す場合、画面左端の画素から右端の画素に向かって順に画素の信号を読み出す水平ライン毎の走査を画面の上端のラインから下端のラインに向かって順に行う第1の走査方法か、又は画面左端の画素から右端の画素に向かって順に画素の信号を読み出す水平ライン毎の走査を画面の下端のラインから上端のラインに向かって順に行う第2の走査方法によって画素の信号の読み出しを行い、この画素信号をアナログ画像信号として出力する。   The CMOS sensor 15 is controlled by a CPU 19 which will be described later and is driven via an image sensor driving unit 18 to output a subject image captured through the photographing lens 11 as a color signal. In the CMOS sensor 15, pixel signals are read out by a rolling shutter system in which the shutter is sequentially released for each scanning line. When reading out the pixel signals of all pixels, first scanning is performed in order from the top line of the screen toward the bottom line in order to scan the pixel signals in order from the pixel at the left end of the screen toward the pixel at the right end. Or a second scanning method in which scanning for each horizontal line is performed in order from the pixel at the left end of the screen toward the pixel at the right end of the screen in order from the line at the lower end of the screen toward the line at the upper end. Are read out and this pixel signal is output as an analog image signal.

なお本実施形態では、水平ライン毎の走査を画面の上方向又は下方向に向かって行うものとしたが、垂直ライン毎の走査を画面の左方向又は右方向に向かって行うものであってもよい。   In this embodiment, the scanning for each horizontal line is performed in the upward or downward direction of the screen. However, the scanning for each vertical line may be performed in the left or right direction of the screen. Good.

本実施形態では上述した撮影レンズ11、絞り12、赤外線カットフィルタ13、光学ローパスフィルタ14、CMOSセンサ15、レンズ駆動部16、絞り駆動部17及び撮像素子駆動部18が被写体を撮像する撮像手段10として機能する。   In the present embodiment, the imaging lens 10, the diaphragm 12, the infrared cut filter 13, the optical low-pass filter 14, the CMOS sensor 15, the lens driving unit 16, the diaphragm driving unit 17, and the image sensor driving unit 18 described above capture an image of the subject. Function as.

CPU(撮像制御手段)19は、デジタルカメラ1全体を制御するものであり、撮像手段10を制御する撮像制御手段としても機能するものであって、撮像手段10に第1の撮像と第2の撮像とを連続して行わせ、第1の撮像時に上述した第1の走査方法で撮像センサ15の画素の信号を読み出させ、第2の撮像時に上述した第2の走査方法で撮像センサ15の画素の信号を読み出させる。   The CPU (imaging control means) 19 controls the entire digital camera 1, and also functions as an imaging control means for controlling the imaging means 10, and the imaging means 10 has the first imaging and the second imaging. The imaging is continuously performed, the signal of the pixel of the imaging sensor 15 is read by the first scanning method described above at the time of the first imaging, and the imaging sensor 15 by the second scanning method described above at the time of the second imaging. The pixel signal is read out.

またCPU19は、フラッシュ用の発光部20と受光部21を制御すると共に、図示しないシャッタボタンや、メニュー/OKボタン、ズーム/上下矢印ボタン等の操作部22を介して入力されるユーザの指示信号に従って各種制御を行う。   In addition, the CPU 19 controls the light emitting unit 20 and the light receiving unit 21 for flash, and a user instruction signal input via an operation unit 22 such as a shutter button (not shown), a menu / OK button, a zoom / up / down arrow button or the like. Various controls are performed according to

CMOSセンサ15が出力するアナログ画像信号は、アナログ信号処理部23に入力される。このアナログ信号処理部23は、アナログ画像信号のノイズ除去を行う相関2重サンプリング回路(CDS)と、アナログ画像信号のゲイン調整を行うオートゲインコントローラ(AGC)とからなる。
A/D24は、アナログ信号処理部23で信号処理されたアナログ画像信号をデジタル画像データに変換するA/Dコンバータ(ADC)である。このデジタル信号に変換されたデジタル画像データは、画素毎にRGBの濃度値を持つCCD−RAWデータである。
The analog image signal output from the CMOS sensor 15 is input to the analog signal processing unit 23. The analog signal processing unit 23 includes a correlated double sampling circuit (CDS) that removes noise from the analog image signal, and an auto gain controller (AGC) that adjusts the gain of the analog image signal.
The A / D 24 is an A / D converter (ADC) that converts the analog image signal processed by the analog signal processing unit 23 into digital image data. The digital image data converted into the digital signal is CCD-RAW data having RGB density values for each pixel.

そしてA/D24によってデジタル信号に変換されたデジタル画像データは、CPU19からの指令により制御され、制御バス37及びデータバス38によって相互に接続された各部に必要に応じて出力されて各種処理が施される。以下、この各部について説明する。   The digital image data converted into a digital signal by the A / D 24 is controlled by a command from the CPU 19, and is output to various units connected to each other by the control bus 37 and the data bus 38 as necessary to perform various processes. Is done. Hereinafter, each part will be described.

デジタルカメラ1において設定される各種定数、及び、CPU19が実行するプログラム等を格納するメインメモリ25に接続されたメモリ制御部26は、CPU19からの指令によってメインメモリ25に記憶された各種データを読み出す。   A memory control unit 26 connected to the main memory 25 that stores various constants set in the digital camera 1 and programs executed by the CPU 19 reads various data stored in the main memory 25 in response to commands from the CPU 19. .

デジタル信号処理部27は、入力された画像データに対してガンマ補正処理、輪郭強調(シャープネス)処理、コントラスト処理、ノイズ低減処理等の画質補正処理を施すと共に、CCD−RAWデータを輝度信号であるYデータと、青色色差信号であるCbデータ及び赤色色差信号であるCrデータとからなるYCデータに変換するYC処理を行う。   The digital signal processing unit 27 performs image quality correction processing such as gamma correction processing, contour enhancement (sharpness) processing, contrast processing, noise reduction processing, and the like on the input image data, and the CCD-RAW data is a luminance signal. YC processing is performed to convert Y data into YC data composed of Cb data that is a blue color difference signal and Cr data that is a red color difference signal.

圧縮伸張処理部28は、デジタル信号処理部27によって画質補正等の処理が行われた画像データに対して、例えばJPEG等の圧縮形式で圧縮処理を行って、画像ファイルを生成する。この画像ファイルには、Exif形式等に基づいて、撮影日時や、肖像権保護モードで撮影された画像であるか等の付帯情報が格納されたタグが付加される。またこの圧縮伸張処理部28は、再生モードにおいては記録媒体30(後述する)から圧縮された画像ファイルを読み出し伸張処理を行う。伸張後の画像データは表示制御部33(後述する)に出力され、表示制御部33は画像データに基づいた画像を表示部32(後述する)に表示する。   The compression / decompression processing unit 28 performs compression processing on the image data that has been subjected to processing such as image quality correction by the digital signal processing unit 27 in a compression format such as JPEG, and generates an image file. Based on the Exif format or the like, a tag that stores additional information such as the shooting date and time and whether the image was shot in the portrait right protection mode is added to the image file. In the reproduction mode, the compression / decompression processor 28 reads a compressed image file from a recording medium 30 (described later) and performs an expansion process. The expanded image data is output to a display control unit 33 (described later), and the display control unit 33 displays an image based on the image data on a display unit 32 (described later).

積算部29は、測光データを積算してホワイトバランスのゲインを調整する。   The integrating unit 29 integrates the photometric data and adjusts the white balance gain.

着脱自在の記録媒体30が接続される外部メモリ制御部31は、記録媒体30が接続されるとデータの読み取り/書き込みを行うメディアスロットに相当し、記録媒体30に記憶された画像ファイル等の読み出し、又は画像ファイルの書き込みを行う。   The external memory control unit 31 to which the detachable recording medium 30 is connected corresponds to a media slot that reads / writes data when the recording medium 30 is connected, and reads out image files and the like stored in the recording medium 30. Or writing an image file.

デジタルカメラ1の背面等に搭載された液晶モニタ等の表示部32に接続される表示制御部33は、画像データに基づいた画像を表示部32に表示する。   A display control unit 33 connected to a display unit 32 such as a liquid crystal monitor mounted on the back surface of the digital camera 1 displays an image based on the image data on the display unit 32.

特徴点抽出部34は、撮像手段10により撮像された画像から特徴点を抽出する。特徴点は被写体の角部や画像パターン等として特徴を有する点であり、画素信号の勾配情報等に基づいて抽出される。特徴点の抽出方法としては、例えばMoravecの手法や、Harrisの手法等を使用することができるが、本発明においては、特徴点を抽出できれば抽出方法は限定しない。   The feature point extraction unit 34 extracts feature points from the image captured by the imaging unit 10. A feature point is a point having a feature as a corner of an object, an image pattern, or the like, and is extracted based on gradient information of a pixel signal. For example, the Moravec method or the Harris method can be used as the feature point extraction method. However, in the present invention, the extraction method is not limited as long as the feature points can be extracted.

対応点検出部35は、撮像手段10により撮像された画像から、特徴点抽出部34によって抽出された特徴点に対応する対応点を検出する。対応点は、特徴点の特徴と略一致する点であり、対応点の検出方法としては、例えばKLT法、ブロックマッチング等を使用することができるが、本発明においては、対応点を検出できれば検出方法は限定しない。   The corresponding point detection unit 35 detects a corresponding point corresponding to the feature point extracted by the feature point extraction unit 34 from the image captured by the imaging unit 10. Corresponding points are points that substantially match the features of the feature points. For example, the KLT method, block matching, or the like can be used as a method for detecting the corresponding points. The method is not limited.

画像変形部36は、被写体の歪みを補正するために画像を変形するものである。なお画像の変形方法については後で詳細に説明する。   The image deforming unit 36 deforms the image in order to correct the distortion of the subject. The image deformation method will be described later in detail.

本実施形態のデジタルカメラ1は以上のように構成されている。次に上記構成のデジタルカメラ1を使用した撮像方法について以下図面を使用して詳細に説明する。図2は図1のデジタルカメラ1の撮像処理のフローチャート、図3(a)は被写体中の動体Dに歪みが生じていない状態の画像P、図3(b)は第1の走査方法によって取得した画像P1、図3(c)は第2の走査方法によって取得した画像P2、図4は歪みの対称性を説明する図である。   The digital camera 1 of the present embodiment is configured as described above. Next, an imaging method using the digital camera 1 having the above configuration will be described in detail with reference to the drawings. 2 is a flowchart of the imaging process of the digital camera 1 in FIG. 1, FIG. 3A is an image P in which the moving body D in the subject is not distorted, and FIG. 3B is acquired by the first scanning method. FIG. 3C is an image P2 obtained by the second scanning method, and FIG. 4 is a diagram for explaining the symmetry of distortion.

本実施形態のデジタルカメラ1は、図2に示す如く、先ず、CPU19がCMOSセンサ15の走査方法を上述した第1の走査方法に設定する(ステップS1)。そしてCPU19はシャッタボタンが全押しされたか否かを判別し(ステップS2)、シャッタボタンが全押しされていなければ(ステップS2;NO)、シャッタボタンが全押しされるまでステップS2の処理を繰り返し行う。   In the digital camera 1 of this embodiment, as shown in FIG. 2, first, the CPU 19 sets the scanning method of the CMOS sensor 15 to the above-described first scanning method (step S1). Then, the CPU 19 determines whether or not the shutter button is fully pressed (step S2). If the shutter button is not fully pressed (step S2; NO), the process of step S2 is repeated until the shutter button is fully pressed. Do.

一方、ステップS2にてシャッタボタンが全押しされたと判別されると(ステップS2;YES)、CPU19は撮像手段10に第1の走査方法による第1の撮像を行わせて第1の画像P1を取得させる(ステップS3)。例えば、図3(a)に示す如く、被写体中に図中右方向に移動する動体Dが存在している場合には、第1の走査方法によって第1の画像P1を取得すると、図3(b)に示す如く、CMOSセンサ15は画面左端の画素から右方向に向かって、すなわち図中矢印A1方向に順に画素の信号を読み出す水平ラインの走査を画面上端から画面下端に向かって、すなわち図中矢印A2方向に順に行うので、被写体中の動体Dの上端の画素と下端の画素とに画素信号を読み出す時間の差が生じてしまい、この時間差の間に動体Dが移動した分だけ動体Dに歪みが生じ、第1の画像P1における動体は歪んだ図形の動体D1となる。   On the other hand, if it is determined in step S2 that the shutter button has been fully pressed (step S2; YES), the CPU 19 causes the imaging means 10 to perform the first imaging by the first scanning method to display the first image P1. It is acquired (step S3). For example, as shown in FIG. 3A, when a moving body D that moves in the right direction in the figure exists in the subject, the first image P1 is acquired by the first scanning method, and then FIG. As shown in b), the CMOS sensor 15 scans the horizontal line from the pixel at the left end of the screen in the right direction, that is, reading the pixel signal in the direction of the arrow A1 in the figure, from the upper end of the screen toward the lower end of the screen. Since the steps are sequentially performed in the direction of the middle arrow A2, there is a difference in time for reading out pixel signals between the upper and lower pixels of the moving object D in the subject, and the moving object D is moved by the amount of movement of the moving object D during this time difference. Is distorted, and the moving object in the first image P1 becomes a distorted figure moving object D1.

このように撮像手段10が動体D1の図形が歪んだ画像P1を取得した後(ステップS3)、CPU19は走査方法を第1の走査方法から上述した第2の走査方法に変更する(ステップS4)。そして次にCPU19は撮像手段10に第2の走査方法による第2の撮像を行わせて第1の画像P1を取得させる(ステップS3)。なおCPU19は撮像手段10に第1の撮像と第2の撮像との時間差が1/60秒を超えないように連続して撮像を行わせる。また本実施形態では第1の撮像と第2の撮像は、明るさ、シャッタスピード、絞り等の撮像条件は同じとする。   Thus, after the imaging means 10 acquires the image P1 in which the figure of the moving body D1 is distorted (step S3), the CPU 19 changes the scanning method from the first scanning method to the second scanning method described above (step S4). . Next, the CPU 19 causes the imaging unit 10 to perform the second imaging by the second scanning method and acquire the first image P1 (step S3). The CPU 19 causes the imaging unit 10 to continuously perform imaging so that the time difference between the first imaging and the second imaging does not exceed 1/60 seconds. In the present embodiment, the first imaging and the second imaging have the same imaging conditions such as brightness, shutter speed, and aperture.

第2の走査方法によって第2の画像P2を取得すると、図3(c)に示す如く、CMOSセンサ15は画面左端の画素から右方向に向かって、すなわち図中矢印B1方向に順に画素の信号を読み出す水平ラインの走査を画面下端から画面上端に向かって、すなわち図中矢印B2方向に順に行うので、第1の走査方法のときと同様に被写体中の動体Dの上端の画素と下端の画素とに画素信号を読み出す時間の差が生じてしまい、この時間差の間に動体Dが移動した分だけ動体Dに歪みが生じ、第2の画像P2における動体は歪んだ図形の動体D2となる。   When the second image P2 is acquired by the second scanning method, as shown in FIG. 3C, the CMOS sensor 15 detects the pixel signals sequentially from the pixel at the left end of the screen in the right direction, that is, in the direction of the arrow B1 in the drawing. Since the scanning of the horizontal line for reading out is sequentially performed from the lower end of the screen toward the upper end of the screen, that is, in the direction of the arrow B2 in the figure, the upper end pixel and the lower end pixel of the moving object D in the subject are the same as in the first scanning method. Thus, a difference in time for reading out the pixel signal occurs, and the moving object D is distorted by the movement of the moving object D during this time difference, and the moving object in the second image P2 becomes a moving object D2 of a distorted figure.

第1の走査方法では画素信号を読み出すときに動体Dの上端側が先に読み出されるので、第1の画像P1の歪んだ動体D1は下端が動体Dの動く方向に移動した図形となり、第2の走査方法では画像信号を読み出すときに動体Dの下端側が先に読み出されるので、第2の画像P2の歪んだ動体D2は上端が動体Dの動く方向に移動した図形となる。すなわち動体Dの歪みは動体Dの移動速度とCMOSセンサ15の走査時間や走査方向によって異なるものとなる。   In the first scanning method, when the pixel signal is read, the upper end side of the moving object D is read first, so that the distorted moving object D1 of the first image P1 becomes a figure whose lower end is moved in the moving direction of the moving object D. In the scanning method, when the image signal is read, the lower end side of the moving object D is read first, so that the distorted moving object D2 of the second image P2 becomes a figure whose upper end has moved in the moving direction of the moving object D. That is, the distortion of the moving body D varies depending on the moving speed of the moving body D and the scanning time and scanning direction of the CMOS sensor 15.

つまり動体Dの移動速度が一定で、かつCMOSセンサ15の第1の走査方式と第2の走査方式を使用したときの走査時間が同じときには、例えば歪んでいない状態の動体D(図3(a)参照)の垂直な右端が、図4に示す如く、第1の画像P1において歪んだ動体D1となったときの傾きE1と、第2の画像P2において歪んだ動体D2となったときの傾きE2とが、傾きE2を第1の画像P1に傾きE1に交わるように平行移動して傾きE2’としたときに、傾きE1と傾きE2’とが各々の交点を通る軸Gに対して対称となることから、第1の画像P1における動体D1の歪み形状と第2の画像P2における動体D2の歪み形状とは対称性を持つ。   That is, when the moving speed of the moving body D is constant and the scanning time when the first scanning method and the second scanning method of the CMOS sensor 15 are the same, for example, the moving body D in an undistorted state (FIG. 3A 4), the vertical right end of the first image P1 becomes a distorted moving object D1, and the second image P2 shows a distorted moving object D2, as shown in FIG. When E2 is translated into the first image P1 so as to intersect with the inclination E1 to be the inclination E2 ′, the inclination E1 and the inclination E2 ′ are symmetrical with respect to the axis G passing through each intersection. Therefore, the distortion shape of the moving object D1 in the first image P1 and the distortion shape of the moving object D2 in the second image P2 have symmetry.

そしてこの対称性から歪みのない動体Dの形状を算出することにより、図2のステップS6からステップS11の処理により歪みの補正を行う。図2に示す如く、第1の画像P1と第2の画像P2とを取得したら(ステップS3、5)、特徴点抽出部34が上述したようにして第1の画像P1から複数の特徴点を抽出する(ステップS6)。次にCPU19は特徴点抽出部34により抽出された特徴点がN1(本実施形態では200)個未満か否かを判別する(ステップS7)。   Then, by calculating the shape of the moving body D without distortion from this symmetry, the distortion is corrected by the processing from step S6 to step S11 in FIG. As shown in FIG. 2, when the first image P1 and the second image P2 are acquired (steps S3 and S5), the feature point extraction unit 34 extracts a plurality of feature points from the first image P1 as described above. Extract (step S6). Next, the CPU 19 determines whether or not the number of feature points extracted by the feature point extraction unit 34 is less than N1 (200 in the present embodiment) (step S7).

特徴点抽出部34が特徴点をN1(本実施形態では200)個未満抽出していたときには(ステップS7;YES)、画像の変形に必要な数の対応点が検出される可能性が低いので図形の変形は行わずに処理を終了する。このとき取得した画像P1及び/又は画像P2を記録媒体30に記録してもよい。   When the feature point extraction unit 34 has extracted less than N1 (200 in this embodiment) feature points (step S7; YES), it is unlikely that the number of corresponding points necessary for image deformation is detected. The process is terminated without deforming the figure. The image P1 and / or the image P2 acquired at this time may be recorded on the recording medium 30.

一方、特徴点抽出部34が特徴点をN1(本実施形態では200)個以上抽出していたときには(ステップS7;NO)、対応点検出部35が上述したようにして第2の画像P2から特徴点抽出部34により抽出された複数の特徴点の各々に対応する対応点を検出する(ステップS8)。次にCPU19は対応点検出部35により検出された対応点がN2(本実施形態では100)個未満か否かを判別する(ステップS9)。   On the other hand, when the feature point extraction unit 34 has extracted N1 (200 in the present embodiment) or more feature points (step S7; NO), the corresponding point detection unit 35 starts from the second image P2 as described above. Corresponding points corresponding to each of the plurality of feature points extracted by the feature point extraction unit 34 are detected (step S8). Next, the CPU 19 determines whether or not the number of corresponding points detected by the corresponding point detector 35 is less than N2 (100 in this embodiment) (step S9).

対応点検出部35が対応点をN2(本実施形態では100)個未満検出していたときには(ステップS9;YES)、画像の変形に必要な数の対応点が検出されていないので図形の変形は行わずに処理を終了する。このとき取得した画像P1及び/又は画像P2を記録媒体30に記録してもよい。   When the corresponding point detection unit 35 detects less than N2 (100 in the present embodiment) corresponding points (step S9; YES), the number of corresponding points necessary for the deformation of the image has not been detected. The process is terminated without performing. The image P1 and / or the image P2 acquired at this time may be recorded on the recording medium 30.

一方、対応点検出部35が対応点をN2(本実施形態では100)以上検出していたときには(ステップS9;NO)、画像変形部36が中間点の座標値を算出する(ステップS10)。ここで図5(a)に特徴点の抽出結果を示す図、図5(b)に対応点の検出結果を示す図、図6に特徴点と中間点とを示す図、図7に画像の変形方法を説明する図をそれぞれ示す。なお図5(a)、図5(b)、図6は、便宜上、特徴点、対応点、中間点の個数を5個として以下説明するが、実際にはもっと多いものとする。   On the other hand, when the corresponding point detection unit 35 detects the corresponding point N2 (100 in the present embodiment) or more (step S9; NO), the image transformation unit 36 calculates the coordinate value of the intermediate point (step S10). Here, FIG. 5A shows a feature point extraction result, FIG. 5B shows a corresponding point detection result, FIG. 6 shows a feature point and an intermediate point, and FIG. The figure explaining a deformation | transformation method is each shown. 5 (a), 5 (b), and 6 are described below assuming that the number of feature points, corresponding points, and intermediate points is five for the sake of convenience, it is assumed that there are actually more.

例えば図5(a)に示す如く、特徴点抽出部34が第1の画像P1において特徴点f1〜f5の5つの特徴点を抽出し、図5(b)に示す如く、対応点検出部35が第2の画像P2において、特徴点f1〜f5とそれぞれ対応する対応点m1〜m5を検出したとする。このときの特徴点f1〜f5及び対応点m1〜m5の座標値並びに特徴点f1〜f5および対応点m1〜m5の座標値に基づいて算出した各々の中間点h1〜h5を下記表1に示す。

Figure 2010154390
上記表1に示すように、特徴点f1〜f5および対応点m1〜m5の座標値に基づいて中間点h1〜h5を算出すると(ステップS10)、画像変形部36は、第1の画像を変形する(ステップS11)。
上述したように第1の画像P1の動体D1と第2の画像P2の動体D2とは、歪み形状が対称性を有するので、図6に示す如く、特徴点fと対応点mの中間点hの座標値すなわち対称軸上に、特徴点fの座標値が重なるように、第1の画像P1を変形することにより動体D1の歪みを補正することができる。 For example, as shown in FIG. 5A, the feature point extraction unit 34 extracts five feature points f1 to f5 in the first image P1, and as shown in FIG. 5B, the corresponding point detection unit 35. Are detected corresponding points m1 to m5 corresponding to the feature points f1 to f5, respectively, in the second image P2. Table 1 below shows the respective intermediate points h1 to h5 calculated based on the coordinate values of the feature points f1 to f5 and the corresponding points m1 to m5 and the coordinate values of the feature points f1 to f5 and the corresponding points m1 to m5. .
Figure 2010154390
As shown in Table 1 above, when the intermediate points h1 to h5 are calculated based on the coordinate values of the feature points f1 to f5 and the corresponding points m1 to m5 (step S10), the image deforming unit 36 deforms the first image. (Step S11).
As described above, since the moving object D1 of the first image P1 and the moving object D2 of the second image P2 have symmetrical distortion shapes, as shown in FIG. 6, the intermediate point h between the feature point f and the corresponding point m. The distortion of the moving object D1 can be corrected by deforming the first image P1 so that the coordinate value of the feature point f overlaps with the coordinate value of i.e., the symmetry axis.

第1の画像P1の変形には、例えば画像を局所的に歪めて、すなわちワープして変形するワーピングを使用することができる。一般的にワーピングは、画像を複数の三角形に分割し、その三角形毎に変形を行う。以下、具体的に説明する。なお抽出された特徴点f、検出された対応点m、算出された中間点hはそれぞれ10個として説明する。   For the deformation of the first image P1, for example, warping in which the image is locally distorted, that is, warped and deformed, can be used. In general, warping divides an image into a plurality of triangles and performs deformation for each triangle. This will be specifically described below. Note that the extracted feature point f, the detected corresponding point m, and the calculated intermediate point h are each assumed to be ten.

図7の左図に示す如く、第1の画像P1において第1の画像P1の4隅及び抽出された特徴点f1〜f10をそれぞれ結んで第1の画像P1を複数の三角形に分割する。そして第1の画像P1の特徴点f1〜f10が算出された中間点h1〜h10に重なるように第1の画像P1の各三角形をアフィン変換して画像P1’を生成する。このとき使用するアフィン変換の式を下記式(1)に示す。

Figure 2010154390
上記式(1)において(x,y)は第1の画像P1における所定の三角形の中の所定の点の座標値で、(x’,y’)は(x,y)に対応する点の座標値を表す。またa,b,c,d,s,tは未知のパラメータであり、三角形の3つの頂点の座標値から一意に定めることができる。つまり、三角形の3つの頂点をなす特徴点fと中間点hの組からアフィン変換のパラメータを算出し、算出したパラメータに基づいて三角形内部の点つまり各画素をアフィン変換する。そして全ての三角形をアフィン変換してワーピングを終了する。このようにワーピングを行うことにより第1の画像P1を変形して動体D1の歪みを補正することができる。
そして図2に示す如く、画像変形部36が第1の画像P1を変形すると(ステップS11)、CPU19は変形された画像P1’を、外部メモリ制御部31を介して記録媒体30に記録する。以上のようにしてデジタルカメラ1による撮影処理を行う。 As shown in the left diagram of FIG. 7, the first image P1 is divided into a plurality of triangles by connecting the four corners of the first image P1 and the extracted feature points f1 to f10 in the first image P1. Then, the image P1 ′ is generated by affine transformation of each triangle of the first image P1 so that the feature points f1 to f10 of the first image P1 overlap the calculated intermediate points h1 to h10. The formula of affine transformation used at this time is shown in the following formula (1).
Figure 2010154390
In the above equation (1), (x, y) is the coordinate value of a predetermined point in the predetermined triangle in the first image P1, and (x ′, y ′) is the point corresponding to (x, y). Represents a coordinate value. Further, a, b, c, d, s, and t are unknown parameters, and can be uniquely determined from the coordinate values of the three vertices of the triangle. That is, an affine transformation parameter is calculated from a set of the feature point f and the intermediate point h forming the three vertices of the triangle, and the point inside the triangle, that is, each pixel, is affine transformed based on the calculated parameter. Then, all triangles are affine transformed and the warping is finished. By warping in this way, the first image P1 can be deformed to correct the distortion of the moving object D1.
As shown in FIG. 2, when the image deforming unit 36 deforms the first image P1 (step S11), the CPU 19 records the deformed image P1 ′ on the recording medium 30 via the external memory control unit 31. The photographing process by the digital camera 1 is performed as described above.

以上のように本実施形態のデジタルカメラ1によれば、略同一のシーンを2度撮像し、1度目の撮像時と2度目の撮像時とで、CMOSセンサ15の信号の読み出し走査方向を逆転させることにより、1度目の撮像時によって取得した第1の画像P1と2度目の撮像時によって取得した第2の画像P2とでは、動体Dの歪みの形状に対称性を有する差が生じるので、第1の画像P1から抽出された複数の特徴点fと、複数の特徴点fに各々対応する対応点mとの中間に位置する中間点hの座標値を算出して、特徴点fの座標値が中間点hの座標値に一致するように第1の画像P1を変形することにより、CMOSセンサ15で動体Dを撮像するときに生じる動体Dの図形の歪みを、解像度を変えることなく容易に補正することができる。   As described above, according to the digital camera 1 of the present embodiment, the substantially identical scene is imaged twice, and the readout scanning direction of the signal of the CMOS sensor 15 is reversed between the first imaging and the second imaging. By doing so, the first image P1 acquired by the first imaging and the second image P2 acquired by the second imaging have a symmetrical difference in the shape of the distortion of the moving object D. By calculating the coordinate value of the intermediate point h located between the plurality of feature points f extracted from the first image P1 and the corresponding point m corresponding to each of the plurality of feature points f, the coordinates of the feature point f are calculated. By deforming the first image P1 so that the value coincides with the coordinate value of the intermediate point h, the distortion of the figure of the moving object D that occurs when the moving object D is imaged by the CMOS sensor 15 can be easily performed without changing the resolution. Can be corrected.

なお本実施形態では特徴点の個数N1を200個、対応点の個数N2を100個としたが本発明はこれに限られるものではなく、N1がN2以上であればよい。なおN1はN2の2倍以上であることが好ましく、N2は少なくとも20個以上であることが好ましく、100個以上であることがさらに好ましい。   In this embodiment, the number N1 of feature points is 200 and the number N2 of corresponding points is 100. However, the present invention is not limited to this, and N1 may be N2 or more. N1 is preferably at least twice as large as N2, and N2 is preferably at least 20 or more, more preferably 100 or more.

また本実施形態では、第1の撮像を第2の撮像よりも先に行ったが、本発明はこれに限られるものではなく、第2の撮像を第1の撮像よりも先に行ってもよい。本実施形態では第1の撮像と第2の撮像は同じ撮像条件としたが、対応点を検出することが可能であれば撮像条件を変更してもよい。また本実施形態では、第1の画像P1に対して特徴点の抽出を行い、第2の画像P2に対して対応点の検出を行ったが、本発明はこれに限られるものではなく、第2の画像P2に対して特徴点の抽出を行い、第1の画像P1に対して対応点の検出を行ってもよい。また本実施形態では、第1の画像P1の特徴点の座標値が中間点の座標値に一致するように画像P1を変形したが、本発明はこれに限られるものではなく、第2の画像P2の対応点の座標値が中間点の座標値に一致するように画像P2を変形してもよい。   In the present embodiment, the first imaging is performed before the second imaging. However, the present invention is not limited to this, and the second imaging may be performed before the first imaging. Good. In the present embodiment, the first imaging and the second imaging have the same imaging conditions, but the imaging conditions may be changed as long as corresponding points can be detected. In the present embodiment, feature points are extracted from the first image P1 and corresponding points are detected from the second image P2. However, the present invention is not limited to this. Feature points may be extracted from the second image P2 and corresponding points may be detected from the first image P1. In the present embodiment, the image P1 is deformed so that the coordinate value of the feature point of the first image P1 matches the coordinate value of the intermediate point, but the present invention is not limited to this, and the second image The image P2 may be deformed so that the coordinate value of the corresponding point of P2 matches the coordinate value of the intermediate point.

次に本発明にかかる第2の実施形態のデジタルカメラ1−2について以下図面を参照して詳細に説明する。図8はデジタルカメラ1−2の機能構成を示すブロック図、図9は図8のデジタルカメラ1−2の撮像処理のフローチャート、図10は動きベクトルを示す図である。なお図8は便宜上、図1のデジタルカメラ1と同様の箇所は同符号で示して説明を省略する。また図9は便宜上、図2のフローチャートと同様の処理は同じステップ番号で示して説明を省略する。   Next, a digital camera 1-2 according to the second embodiment of the present invention will be described in detail with reference to the drawings. FIG. 8 is a block diagram showing a functional configuration of the digital camera 1-2, FIG. 9 is a flowchart of an imaging process of the digital camera 1-2 in FIG. 8, and FIG. 10 is a diagram showing a motion vector. In FIG. 8, for the sake of convenience, the same parts as those in the digital camera 1 in FIG. For the sake of convenience, FIG. 9 shows the same processes as those in the flowchart of FIG.

本実施形態のデジタルカメラ1−2は、図8に示す如く、図1のデジタルカメラ1の構成にさらに動きベクトル算出部(動きベクトル算出手段)39及び画像変形禁止部(画像変形禁止手段)40を備えている。動きベクトル算出部39は、特徴点fとこの特徴点fに対応する対応点mとから動きベクトルjを算出するものであり、画像変形禁止部40は、画像変形部36による画像の変形を禁止するものである。   As shown in FIG. 8, the digital camera 1-2 according to the present embodiment further includes a motion vector calculation unit (motion vector calculation unit) 39 and an image deformation prohibition unit (image deformation prohibition unit) 40 in addition to the configuration of the digital camera 1 of FIG. It has. The motion vector calculation unit 39 calculates a motion vector j from the feature point f and the corresponding point m corresponding to the feature point f, and the image deformation prohibition unit 40 prohibits the image deformation unit 36 from deforming the image. To do.

本実施形態のデジタルカメラ1−2は、図9に示す如く、ステップS9にて対応点検出部35により検出された対応点mの数がN2個以上である場合(ステップS9;NO)に、動きベクトル算出部39が動きベクトルjの算出を行う(ステップS20)。動きベクトルjは、図10に示す如く、特徴点抽出部34により抽出された複数の特徴点fと、対応点検出部35により検出された複数の特徴点fの各々に対応する対応点mの座標値からそれぞれ算出する。   As illustrated in FIG. 9, the digital camera 1-2 according to the present embodiment has N2 or more corresponding points m detected by the corresponding point detection unit 35 in step S9 (step S9; NO). The motion vector calculation unit 39 calculates the motion vector j (step S20). As illustrated in FIG. 10, the motion vector j includes a plurality of feature points f extracted by the feature point extraction unit 34 and corresponding points m corresponding to the plurality of feature points f detected by the corresponding point detection unit 35. Calculate from the coordinate values.

そして次にCPU19は、算出された動きベクトルj1〜j5のうち最も大きい動きベクトルj(本実施形態では動きベクトルj1)が所定の閾値以上であるか否かを判別する(ステップS21)。本実施形態では所定の閾値は3画素とするが、ユーザが操作部22を操作することにより変更することができる。   Next, the CPU 19 determines whether or not the largest motion vector j (motion vector j1 in the present embodiment) among the calculated motion vectors j1 to j5 is equal to or greater than a predetermined threshold (step S21). In the present embodiment, the predetermined threshold is 3 pixels, but can be changed by the user operating the operation unit 22.

動きベクトルj1が3画素未満である場合(ステップS21;NO)には、画像変形禁止部40が動体Dの歪みは小さいと判断して画像変形部36による第1の画像P1の変形を禁止して(ステップS22)、処理を終了する。このとき取得した画像P1及び/又は画像P2を記録媒体30に記録してもよい。   When the motion vector j1 is less than 3 pixels (step S21; NO), the image deformation prohibiting unit 40 determines that the distortion of the moving object D is small and prohibits the image deforming unit 36 from deforming the first image P1. (Step S22), and the process ends. The image P1 and / or the image P2 acquired at this time may be recorded on the recording medium 30.

一方、動きベクトルj1が3画素以上である場合(ステップS21;YES)には、画像変形部36が動体Dの歪みが大きいと判断してステップS10以降の処理を行い、第1の画像P1の動体D1の歪みを補正する。   On the other hand, when the motion vector j1 is 3 pixels or more (step S21; YES), the image deforming unit 36 determines that the distortion of the moving object D is large and performs the processing from step S10 onward. The distortion of the moving body D1 is corrected.

CMOSセンサに起因する動体Dの歪みは動体Dの速度が速いほど顕著であり、逆に動体Dの速度が遅い場合には動体Dの歪みは小さくなるので、本実施形態のように動体Dの動きが小さい場合には画像の変形を禁止することにより、無駄な処理をなくすことができる。   The distortion of the moving body D due to the CMOS sensor becomes more conspicuous as the speed of the moving body D increases. Conversely, when the speed of the moving body D is lower, the distortion of the moving body D becomes smaller. When the movement is small, useless processing can be eliminated by prohibiting the deformation of the image.

なお本実施形態では算出された動きベクトルj1〜j5のうち最も大きい動きベクトルj1を判別の対象としたが、本発明はこれに限られるものではなく、例えば動きベクトルj1〜j5の大きさの平均値、中間値等を判別の対象としてもよいし、適宜変更することができる。   In the present embodiment, the largest motion vector j1 among the calculated motion vectors j1 to j5 is the object of discrimination, but the present invention is not limited to this, and for example, the average of the magnitudes of the motion vectors j1 to j5 A value, an intermediate value, or the like may be a target for determination, or may be changed as appropriate.

次に本発明にかかる第3の実施形態のデジタルカメラ1−3について以下図面を参照して詳細に説明する。図11はデジタルカメラ1−3の機能構成を示すブロック図、図12は図11のデジタルカメラ1−2の撮像処理のフローチャートである。なお図11は便宜上、図1のデジタルカメラ1と同様の箇所は同符号で示して説明を省略する。また図12は便宜上、図2のフローチャートと同様の処理は同じステップ番号で示して説明を省略する。   Next, a digital camera 1-3 according to a third embodiment of the present invention will be described in detail with reference to the drawings. FIG. 11 is a block diagram illustrating a functional configuration of the digital camera 1-3, and FIG. 12 is a flowchart of an imaging process of the digital camera 1-2 in FIG. For the sake of convenience, FIG. 11 shows the same parts as those of the digital camera 1 of FIG. For the sake of convenience, FIG. 12 shows the same processes as those in the flowchart of FIG.

本実施形態のデジタルカメラ1−3は、図11に示す如く、図1のデジタルカメラの構成にさらに画像合成部(画像合成手段)41を備えている。また本実施形態の画像変形部36−3は、第1の画像P1と第2の画像P2の両方に対して画像の変形を行うものである。   As shown in FIG. 11, the digital camera 1-3 according to the present embodiment further includes an image composition unit (image composition unit) 41 in addition to the configuration of the digital camera of FIG. 1. In addition, the image deforming unit 36-3 according to the present embodiment performs image deformation on both the first image P1 and the second image P2.

本実施形態のデジタルカメラ1−3は、図12に示す如く、ステップS3’における第1の撮像とステップS5’における第2の撮像とでは、撮像条件のうちの露光条件が異なっている。   In the digital camera 1-3 according to the present embodiment, as shown in FIG. 12, the exposure conditions among the imaging conditions are different between the first imaging in step S3 'and the second imaging in step S5'.

第2の撮像(ステップS5’)では第1の撮像の露光条件よりもダイナミックレンジに応じた段数でアンダー露光して撮像を行う。   In the second imaging (step S5 '), imaging is performed by underexposure with a number of steps corresponding to the dynamic range rather than the exposure conditions of the first imaging.

そしてステップS11にて画像変形部36−3が、第1の画像P1を変形すると(ステップS11)、次に画像変形部36−3は第2の画像P2を変形する(ステップS30)。第2の画像P2の変形は、第1の画像P1の変形と同様にワーピングによって行うことができ各対応点mを中間点hに一致させることにより変形する。なおワーピングの手順は上述した第1の画像P1の変形と同様であるため、ここでの説明は省略する。   In step S11, when the image deforming unit 36-3 deforms the first image P1 (step S11), the image deforming unit 36-3 then deforms the second image P2 (step S30). The deformation of the second image P2 can be performed by warping in the same manner as the deformation of the first image P1, and is deformed by making each corresponding point m coincide with the intermediate point h. Note that the warping procedure is the same as that of the modification of the first image P1 described above, and thus the description thereof is omitted here.

このようにして第1の画像P1と第2の画像P2を変形した(ステップS11、S12)後で、画像合成部41が第1の画像P1と第2の画像P2とを合成する(ステップS31)。なお画像合成部41による明るさの異なる第1の画像P1と第2の画像P2との合成方法は、例えば特開2001−8104号公報に記載されている合成方法を使用できるものとし、ここでの詳細な説明は省略する。そしてCPU19は合成された画像を、外部メモリ制御部31を介して記録媒体30に記録する。以上のようにしてデジタルカメラ1−3による撮像処理を行う。   After the first image P1 and the second image P2 are deformed in this manner (steps S11 and S12), the image composition unit 41 synthesizes the first image P1 and the second image P2 (step S31). ). Note that the composition method described in Japanese Patent Application Laid-Open No. 2001-8104 can be used as the composition method of the first image P1 and the second image P2 having different brightness by the image composition unit 41. The detailed description of is omitted. Then, the CPU 19 records the synthesized image on the recording medium 30 via the external memory control unit 31. The imaging process by the digital camera 1-3 is performed as described above.

このように合成処理を行うことにより、動体Dの歪みを補正すると共にダイナミックレンジを拡大することができる。   By performing the synthesizing process in this way, it is possible to correct the distortion of the moving object D and expand the dynamic range.

なお本実施形態ではダイナミックレンジを拡大するために、露光条件の異なる2つの画像を合成するものとしたが、本発明はこれに限られるものではなく、例えば感度の異なる2つの画像を合成するようにしてもよい。   In the present embodiment, two images having different exposure conditions are combined in order to expand the dynamic range. However, the present invention is not limited to this. For example, two images having different sensitivities are combined. It may be.

なお本発明の撮像装置は、上述した実施形態のデジタルカメラ1に限られるものではなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。   Note that the imaging apparatus of the present invention is not limited to the digital camera 1 of the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention.

第1の実施形態のデジタルカメラの機能構成を示すブロック図1 is a block diagram showing a functional configuration of a digital camera according to a first embodiment. 図1のデジタルカメラの撮像処理のフローチャートFlowchart of the imaging process of the digital camera of FIG. (a)被写体中の動体Dに歪みが生じていない状態の画像P、(b)第1の走査方法によって取得した画像P1、(c)第2の走査方法によって取得した画像P2(A) An image P in which the moving body D in the subject is not distorted, (b) an image P1 acquired by the first scanning method, (c) an image P2 acquired by the second scanning method. 歪みの対称性を説明する図Diagram explaining symmetry of distortion (a)特徴点の抽出結果を示す図、(b)対応点の検出結果を示す図(A) The figure which shows the extraction result of a feature point, (b) The figure which shows the detection result of a corresponding point 特徴点と中間点とを示す図Diagram showing feature points and midpoints 画像の変形方法を説明する図The figure explaining the deformation method of an image 第2の実施形態のデジタルカメラの機能構成を示すブロック図The block diagram which shows the function structure of the digital camera of 2nd Embodiment. 図8のデジタルカメラの撮像処理のフローチャートFlowchart of the imaging process of the digital camera of FIG. 動きベクトルを示す図Illustration showing motion vector 第3の実施形態のデジタルカメラの機能構成を示すブロック図The block diagram which shows the function structure of the digital camera of 3rd Embodiment. 図11のデジタルカメラの撮像処理のフローチャートThe flowchart of the imaging process of the digital camera of FIG. 被写体中の動体を示す図及び撮像して得た画像Diagram showing moving object in subject and image obtained by imaging

符号の説明Explanation of symbols

1 デジタルカメラ(撮像装置)
10 撮像手段
15 CMOSセンサ(撮像センサ)
19 CPU(撮像制御手段)
34 特徴点抽出部(特徴点抽出手段)
35 対応点検出部(対応点検出手段)
36 画像変形部(画像変形手段)
39 動きベクトル算出部(動きベクトル算出手段)
40 画像変形禁止部(画像変形禁止手段)
41 画像合成部(画像合成手段)
P1 第1の画像
P2 第2の画像
D、D1、D2 動体
1 Digital camera (imaging device)
10 imaging means 15 CMOS sensor (imaging sensor)
19 CPU (imaging control means)
34 feature point extraction unit (feature point extraction means)
35 Corresponding point detector (corresponding point detector)
36 Image deformation part (image deformation means)
39 Motion vector calculation unit (motion vector calculation means)
40 Image deformation prohibition section (image deformation prohibition means)
41 Image composition section (image composition means)
P1 First image P2 Second image D, D1, D2 Moving object

Claims (9)

ローリングシャッタ方式の撮像センサを使用して被写体を撮像する撮像手段と、
該撮像手段に第1の撮像と第2の撮像とを連続して行わせ、前記第1の撮像時にライン毎の走査を一方向から行う第1の走査方法で前記撮像センサの信号を読み出し、前記第2の撮像時にライン毎の走査を前記一方向とは逆の方向から行う第2の走査方法で前記撮像センサの信号を読み出すように前記撮像手段を制御する撮像制御手段と、
前記第1の撮像によって取得した第1の画像から複数の特徴点を抽出する特徴点抽出手段と、
該特徴点抽出手段により抽出された複数の特徴点の各々に対応する対応点を、前記第2の撮像によって取得した第2の画像から検出する対応点検出手段と、
前記複数の特徴点と該複数の特徴点の各々に対応する前記対応点との中間に位置する中間点の座標値を算出し、前記特徴点の座標値が前記中間点の座標値に一致するように前記第1の画像を変形する、及び/又は、前記対応点の座標値が前記中間点の座標値に一致するように前記第2の画像を変形する画像変形手段とを備えていることを特徴とする撮像装置。
Imaging means for imaging a subject using a rolling shutter imaging sensor;
First imaging and second imaging are continuously performed by the imaging unit, and a signal of the imaging sensor is read by a first scanning method in which scanning for each line is performed from one direction at the time of the first imaging, An imaging control means for controlling the imaging means so as to read a signal of the imaging sensor by a second scanning method in which scanning for each line is performed in a direction opposite to the one direction at the time of the second imaging;
Feature point extracting means for extracting a plurality of feature points from the first image acquired by the first imaging;
Corresponding point detecting means for detecting corresponding points corresponding to each of the plurality of feature points extracted by the feature point extracting means from the second image acquired by the second imaging;
A coordinate value of an intermediate point located between the plurality of feature points and the corresponding point corresponding to each of the plurality of feature points is calculated, and the coordinate value of the feature point matches the coordinate value of the intermediate point And / or image deformation means for deforming the second image so that the coordinate value of the corresponding point matches the coordinate value of the intermediate point. An imaging apparatus characterized by the above.
前記複数の特徴点と該複数の特徴点の各々に対応する前記対応点とから動きベクトルを算出する動きベクトル算出手段と、
該動きベクトル算出手段により算出された前記動きベクトルが所定の閾値よりも小さい場合に、前記画像変形手段による前記第1の画像又は前記第2の画像の変形を行わないようにする画像変形禁止手段とをさらに備えていることを特徴とする請求項1に記載の撮像装置。
Motion vector calculating means for calculating a motion vector from the plurality of feature points and the corresponding points corresponding to each of the plurality of feature points;
Image deformation prohibiting means for preventing the image deforming means from deforming the first image or the second image when the motion vector calculated by the motion vector calculating means is smaller than a predetermined threshold. The imaging apparatus according to claim 1, further comprising:
前記画像変形手段が、前記第1の画像及び前記第2の画像を変形するものであり、
該変形された第1の画像及び第2の画像を合成して1つの画像を生成する画像合成手段をさらに備えていることを特徴とする請求項1又は2に記載の撮像装置。
The image deformation means deforms the first image and the second image;
The imaging apparatus according to claim 1, further comprising an image synthesis unit that synthesizes the deformed first image and the second image to generate one image.
ローリングシャッタ方式の撮像センサを使用して被写体を撮像する撮像手段を用いる撮像方法において、
前記撮像手段に第1の撮像を行わせ、
該第1の撮像時にライン毎の走査を一方向から行う第1の走査方法で前記撮像センサの信号を読み出し、
前記撮像手段に第2の撮像を行わせ、
該第2の撮像時にライン毎の走査を前記一方向とは逆の方向から行う第2の走査方法で前記撮像センサの信号を読み出し、
前記第1の撮像によって取得した第1の画像から複数の特徴点を抽出し、
該抽出された複数の特徴点の各々に対応する対応点を、前記第2の撮像によって取得した第2の画像から検出し、
前記複数の特徴点と該複数の特徴点の各々に対応する対応点との中間に位置する中間点の座標値を算出し、
前記複数の特徴点の座標値が前記中間点の座標値に一致するように前記第1の画像を変形する、及び/又は、前記対応点の座標値が前記中間点の座標値に一致するように前記第2の画像を変形することを特徴とする撮像方法。
In an imaging method using an imaging unit that images a subject using a rolling shutter type imaging sensor,
Causing the imaging means to perform a first imaging;
The signal of the imaging sensor is read out by a first scanning method in which scanning for each line is performed from one direction during the first imaging,
Causing the imaging means to perform second imaging;
The signal of the imaging sensor is read by a second scanning method in which scanning for each line is performed from the direction opposite to the one direction during the second imaging,
Extracting a plurality of feature points from the first image acquired by the first imaging;
Detecting corresponding points corresponding to each of the extracted plurality of feature points from the second image acquired by the second imaging;
Calculating a coordinate value of an intermediate point located between the plurality of feature points and a corresponding point corresponding to each of the plurality of feature points;
The first image is deformed so that the coordinate values of the plurality of feature points match the coordinate value of the intermediate point, and / or the coordinate value of the corresponding point matches the coordinate value of the intermediate point. An imaging method characterized by deforming the second image.
前記複数の特徴点と該複数の特徴点の各々に対応する前記対応点とから動きベクトルを算出し、
該算出された前記動きベクトルが所定の閾値よりも小さい場合に、前記第1の画像又は前記第2の画像の変形を行わないようにすることを特徴とする請求項4に記載の撮像方法。
Calculating a motion vector from the plurality of feature points and the corresponding points corresponding to each of the plurality of feature points;
The imaging method according to claim 4, wherein the first image or the second image is not deformed when the calculated motion vector is smaller than a predetermined threshold.
前記第1の画像及び前記第2の画像を変形し、
該変形された第1の画像及び第2の画像を合成して1つの画像を生成することを特徴とする請求項4又は5に記載の撮像方法。
Transforming the first image and the second image;
6. The imaging method according to claim 4, wherein the deformed first image and second image are combined to generate one image.
ローリングシャッタ方式の撮像センサを使用して被写体を撮像する撮像手段を用いる撮像方法をコンピュータに実行させるためのプログラムにおいて、
前記撮像手段に第1の撮像を行わせ、
該第1の撮像時にライン毎の走査を一方向から行う第1の走査方法で前記撮像センサの信号を読み出し、
前記撮像手段に第2の撮像を行わせ、
該第2の撮像時にライン毎の走査を前記一方向とは逆の方向から行う第2の走査方法で前記撮像センサの信号を読み出し、
前記第1の撮像によって取得した第1の画像から複数の特徴点を抽出し、
該抽出された複数の特徴点の各々に対応する対応点を、前記第2の撮像によって取得した第2の画像から検出し、
前記複数の特徴点と該複数の特徴点の各々に対応する対応点との中間に位置する中間点の座標値を算出し、
前記複数の特徴点の座標値が前記中間点の座標値に一致するように前記第1の画像を変形する、及び/又は、前記対応点の座標値が前記中間点の座標値に一致するように前記第2の画像を変形することを実行させることを特徴とするプログラム。
In a program for causing a computer to execute an imaging method using imaging means for imaging a subject using a rolling shutter type imaging sensor,
Causing the imaging means to perform a first imaging;
The signal of the imaging sensor is read out by a first scanning method in which scanning for each line is performed from one direction during the first imaging,
Causing the imaging means to perform second imaging;
The signal of the imaging sensor is read by a second scanning method in which scanning for each line is performed from the direction opposite to the one direction during the second imaging,
Extracting a plurality of feature points from the first image acquired by the first imaging;
Detecting corresponding points corresponding to each of the extracted plurality of feature points from the second image acquired by the second imaging;
Calculating a coordinate value of an intermediate point located between the plurality of feature points and a corresponding point corresponding to each of the plurality of feature points;
The first image is deformed so that the coordinate values of the plurality of feature points match the coordinate value of the intermediate point, and / or the coordinate value of the corresponding point matches the coordinate value of the intermediate point. A program for causing the second image to be deformed.
コンピュータに、前記複数の特徴点と該複数の特徴点の各々に対応する前記対応点とから動きベクトルを算出し、
該算出された前記動きベクトルが所定の閾値よりも小さい場合に、前記第1の画像又は前記第2の画像の変形を行わないようにすることを実行させることを特徴とする請求項7に記載のプログラム。
A computer calculates a motion vector from the plurality of feature points and the corresponding points corresponding to each of the plurality of feature points,
8. The method according to claim 7, wherein when the calculated motion vector is smaller than a predetermined threshold, the first image or the second image is not deformed. Program.
コンピュータに、前記第1の画像及び前記第2の画像を変形し、
該変形された第1の画像及び第2の画像を合成して1つの画像を生成することを実行させることを特徴とする請求項7又は8に記載のプログラム。
A computer that transforms the first image and the second image;
The program according to claim 7 or 8, characterized in that said deformed first image and second image are combined to generate one image.
JP2008332040A 2008-12-26 2008-12-26 Imaging device, imaging method, and program Abandoned JP2010154390A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008332040A JP2010154390A (en) 2008-12-26 2008-12-26 Imaging device, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008332040A JP2010154390A (en) 2008-12-26 2008-12-26 Imaging device, imaging method, and program

Publications (1)

Publication Number Publication Date
JP2010154390A true JP2010154390A (en) 2010-07-08

Family

ID=42572904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008332040A Abandoned JP2010154390A (en) 2008-12-26 2008-12-26 Imaging device, imaging method, and program

Country Status (1)

Country Link
JP (1) JP2010154390A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2713610A2 (en) 2012-09-28 2014-04-02 Fujitsu Limited Method and device for processing captured-image signals
CN111885309A (en) * 2020-08-31 2020-11-03 深圳市圆周率软件科技有限责任公司 Panoramic image acquisition method and panoramic camera
US11405557B1 (en) * 2021-07-20 2022-08-02 Locus Robotics Corp. Rolling shutter compensation for moving digital optical camera sensors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04250779A (en) * 1991-01-25 1992-09-07 Victor Co Of Japan Ltd Moving vector detection circuit
JP2007142929A (en) * 2005-11-21 2007-06-07 Megachips Lsi Solutions Inc Image processing apparatus and camera system
JP2008235958A (en) * 2007-03-16 2008-10-02 Matsushita Electric Ind Co Ltd Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04250779A (en) * 1991-01-25 1992-09-07 Victor Co Of Japan Ltd Moving vector detection circuit
JP2007142929A (en) * 2005-11-21 2007-06-07 Megachips Lsi Solutions Inc Image processing apparatus and camera system
JP2008235958A (en) * 2007-03-16 2008-10-02 Matsushita Electric Ind Co Ltd Imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2713610A2 (en) 2012-09-28 2014-04-02 Fujitsu Limited Method and device for processing captured-image signals
US9413997B2 (en) 2012-09-28 2016-08-09 Fujitsu Limited Method and device for processing captured-image signals
CN111885309A (en) * 2020-08-31 2020-11-03 深圳市圆周率软件科技有限责任公司 Panoramic image acquisition method and panoramic camera
US11405557B1 (en) * 2021-07-20 2022-08-02 Locus Robotics Corp. Rolling shutter compensation for moving digital optical camera sensors

Similar Documents

Publication Publication Date Title
JP5413002B2 (en) Imaging apparatus and method, and program
JP5214476B2 (en) Imaging apparatus, image processing method, and program
JP6157242B2 (en) Image processing apparatus and image processing method
US9538085B2 (en) Method of providing panoramic image and imaging device thereof
JP4668956B2 (en) Image processing apparatus and method, and program
JP4947136B2 (en) Image processing apparatus, image processing method, and program
US8441554B2 (en) Image capturing apparatus capable of extracting subject region from captured image
US20100073546A1 (en) Image Processing Device And Electric Apparatus
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP4433883B2 (en) White balance correction device, white balance correction method, program, and electronic camera device
JP5156991B2 (en) Imaging apparatus, imaging method, and imaging program
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP5211589B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2007274504A (en) Digital camera
JP2007259156A (en) Camera, image processing method thereof, program, and recording medium
KR101599885B1 (en) Digital photographing apparatus and method
US20070269133A1 (en) Image-data noise reduction apparatus and method of controlling same
JP2011066827A (en) Image processing apparatus, image processing method and program
JP2010154390A (en) Imaging device, imaging method, and program
JP5267279B2 (en) Image composition apparatus and program
JP5733588B2 (en) Image processing apparatus and method, and program
JP5392336B2 (en) Imaging apparatus, imaging method, and imaging program
JP2011041143A (en) Image processing apparatus
JP5160655B2 (en) Image processing apparatus and method, and program
JP5493839B2 (en) Imaging apparatus, image composition method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20121225