JP4846394B2 - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP4846394B2
JP4846394B2 JP2006057687A JP2006057687A JP4846394B2 JP 4846394 B2 JP4846394 B2 JP 4846394B2 JP 2006057687 A JP2006057687 A JP 2006057687A JP 2006057687 A JP2006057687 A JP 2006057687A JP 4846394 B2 JP4846394 B2 JP 4846394B2
Authority
JP
Japan
Prior art keywords
vibration
image
imaging
pixel
vsync
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006057687A
Other languages
Japanese (ja)
Other versions
JP2007235819A (en
Inventor
高嗣 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2006057687A priority Critical patent/JP4846394B2/en
Publication of JP2007235819A publication Critical patent/JP2007235819A/en
Application granted granted Critical
Publication of JP4846394B2 publication Critical patent/JP4846394B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Description

本発明は、携帯電話端末やデジタルカメラなどに搭載され、手ぶれによる画像の歪みを補正する撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method that are mounted on a mobile phone terminal, a digital camera, or the like and correct image distortion caused by camera shake.

従来、デジタルカメラの撮像素子としてCCD(Charge Coupled Device)が多く適用されていた。しかし、近年、CCDに比べて消費電力が低く、コストも安価なCMOS(Complementary Metal Oxide Semiconductor)センサを用いた撮像素子がCCDに代わって普及しつつある。また、CMOSセンサは消費電力が低いことから雑音が少なく、通信への影響が低いことから携帯電話端末に多く用いられるようになってきている(例えば、特許文献1参照)。   Conventionally, many CCDs (Charge Coupled Devices) have been applied as imaging devices for digital cameras. However, in recent years, imaging devices using CMOS (Complementary Metal Oxide Semiconductor) sensors that consume less power and are less expensive than CCDs are becoming popular in place of CCDs. In addition, CMOS sensors are often used for mobile phone terminals because of low power consumption and low noise and low influence on communication (for example, see Patent Document 1).

ところで、近年、携帯電話端末に備えられるカメラについても高機能化が進んでおり、デジタルカメラに具備されるような手ぶれ補正などの機能を有するものが適用されるようになっている。
特開2002−303909号公報
Incidentally, in recent years, the functions of cameras provided in mobile phone terminals have also been enhanced, and those having functions such as camera shake correction as provided in digital cameras have been applied.
JP 2002-303909 A

しかしながら、CMOSセンサの撮像素子は、CCDのように電子シャッタが起動されると全画面の画素に蓄積される電荷が一度に転送される全画面同時撮影方式ではなく、画素ごとに露光制御が行われ、画素ごとに走査、すなわちスキャンすることで画素に蓄積される電荷を順に出力される方式が採用されている。そのため、CMOSセンサでは、出力される電荷に基づいて出力する信号の出力タイミングに時間差が生じることになり、走査の途中で、手ぶれが発生した場合、走査方向に画像がずれてしまうという問題がある。図10は、手ぶれによる画像のずれを示した図であり、携帯電話端末では、縦方向に手ぶれが発生するため、図10(a)に示す静止状態での画像が、手ぶれが発生することで手ぶれ量が大きい場合には、図10(b)に示す状態となり、手ぶれ量が小さい場合、図10(c)に示す状態となる。   However, the image sensor of the CMOS sensor is not a full-screen simultaneous photographing method in which the electric charge accumulated in the pixels of the full screen is transferred at once when the electronic shutter is activated like a CCD, and exposure control is performed for each pixel. In other words, a method is employed in which the charges accumulated in the pixels are sequentially output by scanning each pixel, that is, by scanning. Therefore, in the CMOS sensor, there is a time difference in the output timing of a signal to be output based on the output electric charge, and there is a problem that an image shifts in the scanning direction when camera shake occurs during scanning. . FIG. 10 is a diagram showing image shift due to camera shake. In a mobile phone terminal, camera shake occurs in the vertical direction, so that the image in the stationary state shown in FIG. When the amount of camera shake is large, the state shown in FIG. 10B is obtained. When the amount of camera shake is small, the state shown in FIG. 10C is obtained.

本発明は、上記問題を解決するためになされたもので、その目的は、手ぶれによる画像歪みを補正する撮像装置及び撮像方法を提供することにある。 The present invention has been made to solve the above problems, and an object thereof is to provide an imaging apparatus and an imaging method for correcting image distortion due to camera shake.

上記した課題を解決するために、以下の手段を採用した。
本発明に係る撮像装置は、筐体と、前記筐体に備えられる撮像素子を用いて、前記撮像素子の各画素の走査を開始して前記撮像素子に映る被写体の画像を撮像する撮像手段を具備する撮像装置において、前記筐体の振動を検出する振動検出手段と、前記撮像手段が撮像を開始した場合に前記振動検出手段が検出する振動に基づいて同一の振動方向にて振動の速度が遅くなる箇所を検出し、検出した箇所にて前記画像の中心の画素が撮像されるように前記走査の開始時点を補正する補正手段と、前記画像を表示する画面と、前記画像を記憶する記憶手段と、前記記憶手段が記憶する前記画像を読み出して予め定められる一定間隔で前記画面に表示する画像処理手段と、を具備することを特徴とする。
In order to solve the above-mentioned problems, the following means were adopted.
An imaging apparatus according to the present invention includes a housing and an imaging unit that starts scanning each pixel of the image sensor and captures an image of a subject reflected on the image sensor using the image sensor provided in the housing. In the imaging device provided, the vibration detection means for detecting the vibration of the housing, and the vibration speed in the same vibration direction based on the vibration detected by the vibration detection means when the imaging means starts imaging. A correction unit that detects a late point and corrects the scanning start time so that the center pixel of the image is captured at the detected point, a screen that displays the image, and a memory that stores the image And image processing means for reading out the image stored in the storage means and displaying the image on the screen at predetermined intervals .

前記画像は、前記補正手段により補正される前に撮像された画像と、前記補正手段により補正された後に撮像された画像であることを特徴とする The image may be an image captured before being corrected by the correcting unit and an image captured after being corrected by the correcting unit .

本発明に係る撮像装置は、筐体と、前記筐体に備えられる撮像素子を用いて、前記撮像素子の各画素の走査を開始して前記撮像素子に映る被写体の画像を撮像する撮像手段を具備する撮像装置において、前記筐体の振動を検出する振動検出手段と、前記撮像手段が撮像を開始した場合に前記振動検出手段が検出する振動に基づいて同一の振動方向にて振動の速度が遅くなる箇所を検出し、検出した箇所にて前記画像の中心の画素が撮像されるように前記走査の開始時点を補正する補正手段と、前記補正手段により同一の振動方向において補正されて撮像された複数の画像を重ね合わせて合成し、合成した画像を撮像画像として出力する画像処理手段と、を具備することを特徴とする。An imaging apparatus according to the present invention includes a housing and an imaging unit that starts scanning each pixel of the image sensor and captures an image of a subject reflected on the image sensor using the image sensor provided in the housing. In the imaging device provided, the vibration detection means for detecting the vibration of the housing, and the vibration speed in the same vibration direction based on the vibration detected by the vibration detection means when the imaging means starts imaging. A correction unit that detects a slow point and corrects the start point of the scan so that the center pixel of the image is captured at the detected point, and is corrected and imaged in the same vibration direction by the correction unit. Image processing means for superimposing and synthesizing a plurality of images, and outputting the synthesized image as a captured image.

前記振動検出手段は、前記撮像手段による前記撮像素子の画素の走査の方向の振動を検出することを特徴とする。The vibration detecting unit detects vibration in a scanning direction of a pixel of the image sensor by the imaging unit.

前記撮像素子は、CMOSセンサであることを特徴とする。   The image sensor is a CMOS sensor.

本発明に係る撮像装置は、筐体に備えられる撮像素子を用いて、前記撮像素子の各画素の走査を開始して前記撮像素子に映る被写体の画像を出力する撮像方法であって、前記筐体の振動を検出し、検出した振動に基づいて同一の振動方向にて振動の速度が遅くなる箇所を検出するステップと、検出した箇所にて前記画像の中心の画素が撮像されるように前記走査の開始時点を補正するステップと、同一の振動方向において補正されて撮像された複数枚の画像を重ね合わせて合成するステップと、を含むことを特徴とする。

An imaging apparatus according to the present invention is an imaging method for starting scanning of each pixel of the image sensor and outputting an image of a subject reflected on the image sensor using an image sensor provided in the housing. detecting the vibration of the body, the so detecting a portion where the speed of the vibration is delayed in the same vibration direction based on the detected vibration, the center of the pixel of the image at the detected location is imaged The method includes a step of correcting a start time of scanning, and a step of superposing and combining a plurality of images that are corrected and imaged in the same vibration direction.

この発明によれば、撮影装置は、筐体の振動を検出し、検出した振動に基づいて同一の振動方向にて振動の速度が遅くなる箇所を検出し、検出した箇所にて画像の中心の画素が撮像されるように前記走査の開始時点を補正する構成とした。これにより、各画素の走査を開始して被写体の画像を出力するCMOSセンサを用いた場合に、手ぶれによる画像歪みを抑制することが可能となる。   According to the present invention, the imaging device detects the vibration of the housing, detects a part where the vibration speed is slow in the same vibration direction based on the detected vibration, and detects the center of the image at the detected part. The scanning start time is corrected so that pixels are imaged. As a result, when a CMOS sensor that starts scanning each pixel and outputs an image of a subject is used, image distortion due to camera shake can be suppressed.

以下、本発明の実施形態を図面を参照して説明する。
図1は、本実施形態による撮像装置1を備えた携帯電話端末100を示す概略ブロック図である。携帯電話端末100において、通信部22は、基地局装置との間で電話通信やデータ通信を行う。操作部20は、キーボードやボタン等を具備しており、ユーザのキーボード操作やボタンの押下を検出し、検出した情報を他の機能部に入力する。画面21は、液晶画面等が適用され、撮影前のプレビュー映像や、撮影後の静止した画像などを表示する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic block diagram illustrating a mobile phone terminal 100 including the imaging device 1 according to the present embodiment. In the mobile phone terminal 100, the communication unit 22 performs telephone communication and data communication with the base station device. The operation unit 20 includes a keyboard, buttons, and the like, detects a user's keyboard operation and button presses, and inputs the detected information to other function units. A liquid crystal screen or the like is applied to the screen 21 and displays a preview video before shooting, a still image after shooting, or the like.

撮像装置1は、携帯電話端末100に内蔵されるカメラであり、被写体の撮影を行う。撮像装置1において、撮像部11は、内部に撮像素子としてCMOSセンサを具備しており、レンズ10を通じて被写体を撮像する。また、撮像部11は、操作部20からの開始指示の入力があると起動し、内部のCMOSセンサから出力される信号を受信し、受信した信号を画像データに変換し、変換した画像データをバッファメモリ12に記録する。また、バッファメモリ12は、例えば、揮発性のRAM(Random Access Memory)が適用され、1フレーム分以上の記憶容量を有している。また、バッファメモリ12は、撮像部11が起動されている間、撮像部11により記録される画像データを新しいデータから順に記憶し、記憶容量を超える古いデータについては削除する。   The imaging device 1 is a camera built in the mobile phone terminal 100 and shoots a subject. In the imaging apparatus 1, the imaging unit 11 includes a CMOS sensor as an imaging element inside, and images a subject through the lens 10. Further, the imaging unit 11 is activated when a start instruction is input from the operation unit 20, receives a signal output from the internal CMOS sensor, converts the received signal into image data, and converts the converted image data. Record in the buffer memory 12. In addition, for example, a volatile RAM (Random Access Memory) is applied to the buffer memory 12, and the buffer memory 12 has a storage capacity of one frame or more. The buffer memory 12 stores the image data recorded by the imaging unit 11 in order from the new data while the imaging unit 11 is activated, and deletes the old data exceeding the storage capacity.

画像処理部13は、操作部20からの開始指示の入力があると起動し、バッファメモリ12に記録される画像データをバッファメモリ12から予め定められる一定間隔で読み出して画面21に表示する。また、画像処理部13は、操作部20から撮影指示が入力されると、バッファメモリ12から複数個の画像データを読み出し、読み出した複数個の画像データを合成し、合成した画像データを撮影画像データとして携帯電話端末100内の画像ファイル保存用の記憶領域に記録する。   The image processing unit 13 is activated when a start instruction is input from the operation unit 20, reads image data recorded in the buffer memory 12 from the buffer memory 12 at predetermined intervals, and displays the image data on the screen 21. In addition, when a shooting instruction is input from the operation unit 20, the image processing unit 13 reads a plurality of image data from the buffer memory 12, combines the plurality of read image data, and combines the combined image data with the captured image. The data is recorded in the storage area for storing the image file in the mobile phone terminal 100.

振動検出部15は、例えば、加速度センサ等が適用され、CMOSセンサの走査方向、すなわちスキャン方向の振動を検出、すなわち振動を示す加速度を検出する。   For example, an acceleration sensor or the like is applied to the vibration detection unit 15 and detects vibration in the scanning direction of the CMOS sensor, that is, the scanning direction, that is, detects acceleration indicating vibration.

補正部14は、振動検出部15が検出する加速度に基づいて、その振動の大きさである振動量と発生の相対時刻を算出し、算出した振動量と相対時刻から手ぶれの振動の方向を算出する。また、補正部14は、算出した振動の方向及び振動量に基づいて、それ以降に発生が予測される振動波を算出し、当該振動波にて同一の振動方向で速度が遅くなる箇所を検出し、検出した箇所を撮像部11により撮像される画像の中心を同期させる同期対象箇所とする。具体的には、既に得られた振動の方向及び振動量に基づいて、それ以降に発生する振動の波の山側、あるいは谷側のいずれか一方の箇所を検出する。また、補正部14は、撮像部11から出力される画素ごとの走査のタイミングの情報と、検出した同期対象箇所の情報とに基づいて、撮像部11が撮像する画像の中心が同期対象箇所と一致するように、撮像部11におけるCMOSセンサの走査開始のタイミングを補正する。   Based on the acceleration detected by the vibration detection unit 15, the correction unit 14 calculates a vibration amount, which is the magnitude of the vibration, and a relative time of occurrence, and calculates a direction of hand shake vibration from the calculated vibration amount and the relative time. To do. Further, the correction unit 14 calculates a vibration wave that is predicted to be generated thereafter based on the calculated vibration direction and vibration amount, and detects a portion where the speed is slow in the same vibration direction in the vibration wave. The detected location is set as a synchronization target location that synchronizes the center of the image captured by the imaging unit 11. Specifically, based on the direction and amount of vibration already obtained, either one of the peak side or the valley side of the vibration wave generated thereafter is detected. Further, the correction unit 14 determines that the center of the image captured by the imaging unit 11 is the synchronization target location based on the scanning timing information for each pixel output from the imaging unit 11 and the detected synchronization target location information. The scanning start timing of the CMOS sensor in the imaging unit 11 is corrected so as to match.

次に、図2を参照しつつ、CMOSセンサにおける画素の走査処理について説明する。図2は、携帯電話端末100の振動方向と、撮像部11に備えられるCMOSセンサの撮像面の画素の配置、及びCMOSセンサにおける走査方向の関係を示した図である。図2に示すように、CMOSセンサの撮像面には、5×5の25個の画素が存在しているものとする。(実際には多数の画素によって構成される)また、CMOSセンサの走査方向が、携帯電話端末100の画面21の縦方向に対応し、携帯電話端末100は、縦方向に手ぶれによる振動が発生するものとしている。   Next, pixel scanning processing in the CMOS sensor will be described with reference to FIG. FIG. 2 is a diagram illustrating the relationship between the vibration direction of the mobile phone terminal 100, the arrangement of pixels on the imaging surface of the CMOS sensor provided in the imaging unit 11, and the scanning direction of the CMOS sensor. As shown in FIG. 2, it is assumed that 5 × 5 25 pixels exist on the imaging surface of the CMOS sensor. Also, the scanning direction of the CMOS sensor corresponds to the vertical direction of the screen 21 of the mobile phone terminal 100, and the mobile phone terminal 100 generates vibration due to camera shake in the vertical direction. It is supposed to be.

CMOSセンサは、VSYNC(垂直同期信号)が発生している間に、HSYNC(水平同期信号)が、図2の画素ラインAから画素ラインEの方向に5回発生し、さらに、HSYNCが発生している間、各画素の電荷を出力するためのPCLK(画素クロック)が画素ラインA〜画素ラインEの各画素1〜5に対応して5回発生する。これらの同期信号により行われる走査処理により、CMOSセンサの撮像面の各画素の電荷は、画素A1、A2、A3、A4、A5の順に出力され、次に、画素B1、B2、…、B5の順に出力される。そして、画素E5まで出力が行われた後、VSYNCの発生に応じて再び画素A1から出力が行われることになる。すなわち、当該CMOSセンサにおいて、VSYNCが画面21に表示される画像1フレームごとの撮像周期となり、補正部14は、手ぶれにより発生する振動において同一の振動方向で速度が遅くなる箇所が、CMOSセンサの撮像面の中心、すなわち画素C3の3つめの画素に一致するようにVSYNCの開始タイミングを補正することになる。   In the CMOS sensor, while VSYNC (vertical synchronization signal) is generated, HSYNC (horizontal synchronization signal) is generated five times in the direction from pixel line A to pixel line E in FIG. 2, and further, HSYNC is generated. During this time, PCLK (pixel clock) for outputting the charge of each pixel is generated five times corresponding to each pixel 1 to 5 of the pixel line A to pixel line E. By the scanning process performed by these synchronization signals, the charge of each pixel on the imaging surface of the CMOS sensor is output in the order of pixels A1, A2, A3, A4, A5, and then the pixels B1, B2,. Output in order. Then, after the output is performed up to the pixel E5, the output is performed again from the pixel A1 in response to the occurrence of VSYNC. That is, in the CMOS sensor, VSYNC is an imaging period for each frame of the image displayed on the screen 21, and the correction unit 14 has a portion where the speed is slow in the same vibration direction in vibration generated by camera shake. The start timing of VSYNC is corrected so as to coincide with the center of the imaging surface, that is, the third pixel of the pixel C3.

(第1実施形態)
次に、図3から図4を参照して、本発明の第1実施形態に係る補正部14によるVSYNCの開始タイミングを補正する補正処理について説明する。なお、図3においてVはVSYNCを示し、Hは、HSYNCを示し、PはPCLKを示し、Imは画素の露光時間を示している。また、図3の工程Sa3の画素ラインA、B、C、D、Eは、補正前の画素ラインを示し、画素ラインA’、B’、C’、D’、E’は補正後の画素ラインを示す。
(First embodiment)
Next, correction processing for correcting the start timing of VSYNC by the correction unit 14 according to the first embodiment of the present invention will be described with reference to FIGS. In FIG. 3, V represents VSYNC, H represents HSYNC, P represents PCLK, and Im represents the pixel exposure time. In addition, pixel lines A, B, C, D, and E in step Sa3 in FIG. 3 indicate pixel lines before correction, and pixel lines A ′, B ′, C ′, D ′, and E ′ indicate corrected pixels. Show the line.

図3は、第1実施形態に係る補正部14による補正処理の原理を説明するための図である。図3において、携帯電話端末100の縦方向に手ぶれによる振動が発生し、その振動の変化が振動波Wで示されるとする。   FIG. 3 is a diagram for explaining the principle of correction processing by the correction unit 14 according to the first embodiment. In FIG. 3, it is assumed that vibration due to camera shake occurs in the vertical direction of the mobile phone terminal 100, and the change in the vibration is indicated by a vibration wave W.

(工程Sa1)
操作部20から開始指示が入力された撮像部11は、CMOSセンサに対して一定の撮像周期でVSYNCを発生させ、図2に示したようにVSYNCに従って、HSYNC及びPCLKを発生させる。補正部14は、振動検出部15が検出した振動に基づいて、振動の変化を示す振動波Wを算出し、さらに、振動波Wの振動の速度が遅くなる谷側の部分と山側の部分との一方である谷側の部分、すなわち図3の縦破線に該当する同期対象箇所G1を検出する。補正部14には、撮像部11からVSYNCとHSYNCとPCLKからなる同期信号のタイミングの情報が入力されており、補正部14は、当該同期信号のタイミングの情報から、同期対象箇所G1に対応している画素が、画素D3であることを検出する。
(Process Sa1)
The imaging unit 11 to which the start instruction is input from the operation unit 20 generates VSYNC at a constant imaging cycle for the CMOS sensor, and generates HSYNC and PCLK according to VSYNC as shown in FIG. The correction unit 14 calculates a vibration wave W indicating a change in vibration based on the vibration detected by the vibration detection unit 15, and further, a valley side portion and a mountain side portion where the vibration speed of the vibration wave W is reduced 3 is detected, that is, the synchronization target portion G1 corresponding to the vertical broken line in FIG. Information on the timing of the synchronization signal composed of VSYNC, HSYNC, and PCLK is input from the imaging unit 11 to the correction unit 14, and the correction unit 14 corresponds to the synchronization target location G1 from the information on the timing of the synchronization signal. It is detected that the current pixel is the pixel D3.

(工程Sa2)
補正部14は、同期対象箇所G1に該当する画素が画素D3であることを検出すると、既に算出した振動波Wの傾き等に基づいて次に発生する波を予測するための演算を行い、次の谷側の部分である同期対象箇所G2を算出する。そして、補正部14は、画素D3の走査のタイミングを、算出した同期対象箇所G2の発生タイミングに一致させるため、次に発生するVSYNC(II)の開始タイミングがVSYNC(II’)で示されるタイミングとなるよう補正を行う。
(Process Sa2)
When the correction unit 14 detects that the pixel corresponding to the synchronization target location G1 is the pixel D3, the correction unit 14 performs an operation for predicting the next wave to be generated based on the already calculated inclination of the vibration wave W, etc. The synchronization target location G2, which is the valley side portion, is calculated. Then, the correction unit 14 matches the calculated timing of scanning of the pixel D3 with the calculated generation timing of the synchronization target location G2, and the timing at which the start timing of the next generated VSYNC (II) is indicated by VSYNC (II '). The correction is made so that

(工程Sa3)
補正部14は、更に、CMOSセンサの撮像面の中心の画素C3の走査タイミングを同期対象箇所G2の発生タイミングに一致させるため、VSYNC(II’)の開始タイミングがVSYNC(II’’)で示されるタイミングとなるよう補正し、補正したVSYNC開始タイミングの情報を撮像部11に入力する。撮像部11は、CMOSセンサに入力されたVSYNC開始タイミングの情報に基づいてVSYNC(II’’)を発生させる。
(Process Sa3)
The correction unit 14 further indicates the start timing of VSYNC (II ′) as VSYNC (II ″) in order to match the scanning timing of the pixel C3 at the center of the imaging surface of the CMOS sensor with the generation timing of the synchronization target location G2. The corrected VSYNC start timing information is input to the imaging unit 11. The imaging unit 11 generates VSYNC (II ″) based on the VSYNC start timing information input to the CMOS sensor.

携帯電話端末100の移動過程と対比すると、VSYNC(II’’)に補正することで、振動波Wの谷側方向に携帯電話端末100が移動を開始する途中であって、補正前よりも遅いタイミングで、VSYNC(II’’)のタイミングで走査が開始されることになる。つまり、レンズ10の位置が、補正前の位置より一画素分下の位置で撮像が開始されることになり、補正前のVSYNC(II’)において画素D3に映っていた被写体の部分は、補正後のVSYNC(II’’)では中心の画素C’3に映ることになる。   In contrast to the movement process of the mobile phone terminal 100, by correcting to VSYNC (II ″), the mobile phone terminal 100 is in the middle of starting to move in the valley direction of the vibration wave W and is slower than before the correction. At the timing, scanning starts at the timing of VSYNC (II ″). That is, imaging starts at the position of the lens 10 one pixel lower than the position before correction, and the portion of the subject that was reflected in the pixel D3 in the VSYNC (II ′) before correction is corrected. In the later VSYNC (II ″), the image appears in the center pixel C′3.

VSYNC(II’’)の発生により、補正前の画素A1のVSYNC(II)における露光時間Im(II−A1)と、補正後のVSYNC(II’’)における露光時間(II’’−A’1)は重複することになる。そのため、画素A1では、露光時間Im(II−A1)の間において露光時間(II’’−A’1)と重複しない時間までに蓄積された電荷は廃棄されることになる。なお、各画素においても同様に重複した露光時間の電荷の廃棄が行われる。   Due to the occurrence of VSYNC (II ″), the exposure time Im (II-A1) in VSYNC (II) of the pixel A1 before correction and the exposure time (II ″ -A ′) in VSYNC (II ″) after correction. 1) will overlap. For this reason, in the pixel A1, charges accumulated up to a time not overlapping with the exposure time (II ″ -A′1) during the exposure time Im (II-A1) are discarded. Similarly, in each pixel, charges with overlapping exposure times are discarded.

上記の補正処理により、CMOSセンサの撮像面の中心の画素C’3については、振動波Wにおいて振動速度の遅くなる谷側の箇所にて走査処理が行われることになる。一般的に、被写体の中心の歪みを少なくすることで、表示される画像は全体的に歪みの少ない画像となることが知られており、画像処理部13により画面21に出力される画像は、被写体の中心において振動による歪みが少ない視認性の高い画像にすることができる。   With the above correction process, the scanning process is performed on the pixel C′3 at the center of the imaging surface of the CMOS sensor at the valley side where the vibration speed of the vibration wave W is slow. Generally, it is known that by reducing the distortion at the center of the subject, the displayed image becomes an image with little distortion as a whole. It is possible to obtain an image with high visibility with little distortion due to vibration at the center of the subject.

次に、図4及び図5を参照して、撮像装置1により行われる撮像処理について説明する。図4は、振動検出部15が検出する振動に基づいて、補正部14が検出した振動の変化である振動波W1を示した図である。補正部14は、時間β1の間に、振動検出部15が検出した振動に基づいて振動波W1を算出するとともに、振動波W1にて振動速度が遅くなる谷側と山側の一方である谷側の箇所、すなわち図4のα1の箇所を検出する。そして、補正部14は、検出したα1の箇所に基づいて、次に、撮像部11がCMOSセンサに発生させるVSYNCの開始タイミングγ1を算出する。   Next, imaging processing performed by the imaging device 1 will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram illustrating a vibration wave W <b> 1 that is a change in vibration detected by the correction unit 14 based on the vibration detected by the vibration detection unit 15. The correction unit 14 calculates the vibration wave W1 based on the vibration detected by the vibration detection unit 15 during the time β1, and the valley side which is one of the valley side and the mountain side where the vibration speed is slowed by the vibration wave W1. , That is, the position α1 in FIG. 4 is detected. Then, the correction unit 14 calculates the VSYNC start timing γ1 that the imaging unit 11 generates in the CMOS sensor, based on the detected α1 location.

図5は、図4の振動W1が発生した場合に、撮像部11によりバッファメモリ12に記録される画像データにより構成される撮像画像と、画像処理部13によりバッファメモリ12から読み出されて画面21に出力される出力画像と、VSYNC及び画素の露光時間の関係を示した図である。図5において、画素Bは、図3における画素A1に対応し、画素Mは画素C3に対応し、画素Eは、画素E5に対応する。   FIG. 5 shows a captured image composed of image data recorded in the buffer memory 12 by the imaging unit 11 and a screen read out from the buffer memory 12 by the image processing unit 13 when the vibration W1 of FIG. 4 occurs. 21 is a diagram illustrating a relationship between an output image output to 21, VSYNC, and pixel exposure time. FIG. In FIG. 5, a pixel B corresponds to the pixel A1 in FIG. 3, a pixel M corresponds to the pixel C3, and a pixel E corresponds to the pixel E5.

図5において、補正前のVSYNC:Ta1の2周期目、すなわちVSYNC(2)において、上述した図3の補正処理の原理に従って補正部14により算出されたVSYNC開始タイミングγ1の情報が撮像部11に入力され、撮像部11にて露光制御が切り替えられる。撮像部11は、入力されたVSYNC開始タイミングγ1の情報に基づいて、補正後のVSYNC:Ta2をCMOSセンサに発生させる。当該VSYNC:Ta2に基づくCMOSセンサの走査処理により、中心の画素の露光時間Ta2Mの1周期分の半分が経過した時点(図5、露光時間Ta2MのIII−Mの露光時間の中央の○の箇所)が、振動波W1における振動速度が遅くなる同期対象箇所、すなわち図4における同期対象箇所δ1に一致することになる。なお、実際のVSYNCは、撮像部11において、補正前のVSYNC:Ta1の2周期目までと、補正後のVSYNC:Ta2の3周期以降とが合成され、VSYNC:Tavで示されるタイミングとなる。   5, in the second period of VSYNC: Ta1 before correction, that is, VSYNC (2), the information of the VSYNC start timing γ1 calculated by the correction unit 14 in accordance with the principle of the correction process of FIG. The exposure control is switched by the imaging unit 11. The imaging unit 11 causes the CMOS sensor to generate corrected VSYNC: Ta2 based on the input information of the VSYNC start timing γ1. When a half of one cycle of the exposure time Ta2M of the center pixel has elapsed by the scanning process of the CMOS sensor based on the VSYNC: Ta2 (FIG. 5, the position of the circle in the center of the exposure time of III-M of the exposure time Ta2M ) Coincides with the synchronization target portion where the vibration speed in the vibration wave W1 becomes slow, that is, the synchronization target portion δ1 in FIG. In the actual VSYNC, in the imaging unit 11, the second period of VSYNC: Ta1 before correction and the third and subsequent periods of VSYNC: Ta2 after correction are combined, and the timing indicated by VSYNC: Tav is obtained.

このとき、撮像部11の各画素の露光時間は、補正前のVSYNC:Ta1と補正後のVSYNC:Ta2の時間的な関係から重なることになる。具体的には、最初の画素Bの露光時間の中で補正前のVSYNCの3周期目(VSYNC(3))に対応する露光時間Ta1B(3−B)と、補正後のVSYNCの3周期目(VSYNC(III))に対応する露光時間Ta2B(III−B)は重なるため、露光時間Ta1B(3−B)において露光時間Ta2B(III−B)と重ならない部分、すなわち露光時間(3−B)の斜線の部分の電荷は、露光が充分な電荷ではないため廃棄することになる。なお、中心の画素Mの露光時間Ta1MとTa2M及び、最後の画素Eの露光時間Ta1Eと、Ta2Eにおいても同様に重なる部分、すなわち図5に示す斜線の部分の電荷を廃棄することになる。   At this time, the exposure time of each pixel of the imaging unit 11 overlaps due to the temporal relationship between VSYNC: Ta1 before correction and VSYNC: Ta2 after correction. Specifically, in the exposure time of the first pixel B, the exposure time Ta1B (3-B) corresponding to the third period of VSYNC before correction (VSYNC (3)) and the third period of VSYNC after correction Since the exposure time Ta2B (III-B) corresponding to (VSYNC (III)) overlaps, the portion of the exposure time Ta1B (3-B) that does not overlap with the exposure time Ta2B (III-B), that is, the exposure time (3-B The charge in the shaded area is discarded because the exposure is not sufficient. In the same way, in the exposure times Ta1M and Ta2M of the center pixel M and the exposure times Ta1E and Ta2E of the last pixel E, the charges in the overlapping portions, that is, the hatched portions shown in FIG. 5, are discarded.

補正部14により補正が行われた後も、撮像部11は、バッファメモリ12に撮像画像をCMOSセンサにおける走査の速度に従って記録し、画像処理部13は、予め定められる一定間隔でバッファメモリ12から画像データを読み出して画面21に出力する。このとき、VSYNC:Ta1が補正されてVSYNC:Tavのようなタイミングになったとしても、画像処理部13は、バッファメモリ12に記憶される画像データを一定間隔のタイミングTbBで表示するため、VSYNC:Tavのタイミングとは独立して画像データを出力することができる。これにより、画面21への表示の途中で画像が抜けてしまうことや、表示のタイミングが合わずに画像が停止してしまうといったことを防ぐことが可能となる。   Even after correction by the correction unit 14, the imaging unit 11 records the captured image in the buffer memory 12 according to the scanning speed of the CMOS sensor, and the image processing unit 13 reads the image from the buffer memory 12 at predetermined intervals. Image data is read and output to the screen 21. At this time, even if VSYNC: Ta1 is corrected and the timing becomes VSYNC: Tav, the image processing unit 13 displays the image data stored in the buffer memory 12 at a fixed interval timing TbB. : Image data can be output independently of the Tav timing. As a result, it is possible to prevent the image from being lost during the display on the screen 21 or the image from stopping due to the timing of the display being out of time.

(第2実施形態)
次に、図6から図9を参照して、本発明の第2実施形態に係る補正部14によるVSYNCの開始タイミングを補正する補正処理について説明する。第1実施形態では、手ぶれにより発生する振動の速度が遅くなる箇所、すなわち同期対象箇所がCMOSセンサの中心画素より下の領域に該当していた場合の補正について説明したが、第2実施形態では、同期対象箇所が、CMOSセンサの中心画素より上の領域に該当していた場合の補正について説明する。
(Second Embodiment)
Next, correction processing for correcting the start timing of VSYNC by the correction unit 14 according to the second embodiment of the present invention will be described with reference to FIGS. In the first embodiment, correction has been described in a case where a portion where the speed of vibration caused by camera shake is slow, that is, a synchronization target portion corresponds to a region below the center pixel of the CMOS sensor. In the second embodiment, The correction when the synchronization target portion corresponds to the region above the center pixel of the CMOS sensor will be described.

図6は、第2実施形態に係る補正部14による補正処理の原理を説明するための図である。図6においても、携帯電話端末100の縦方向に手ぶれによる振動が発生し、その振動の変化が振動波Wで示されるとする。なお、図6においてVはVSYNCを示し、Hは、HSYNCを示し、PはPCLKを示し、Imは画素の露光時間を示している。また、図6の工程Sb3の画素ラインA、B、C、D、Eは、補正前の画素ラインを示し、画素ラインA’、B’、C’、D’、E’は補正後の画素ラインを示す。   FIG. 6 is a diagram for explaining the principle of correction processing by the correction unit 14 according to the second embodiment. Also in FIG. 6, it is assumed that vibration due to camera shake occurs in the vertical direction of the mobile phone terminal 100 and the change in the vibration is indicated by a vibration wave W. In FIG. 6, V represents VSYNC, H represents HSYNC, P represents PCLK, and Im represents the exposure time of the pixel. In addition, pixel lines A, B, C, D, and E in step Sb3 of FIG. 6 indicate pixel lines before correction, and pixel lines A ′, B ′, C ′, D ′, and E ′ indicate corrected pixels. Show the line.

(工程Sb1)
第1実施形態と同様に、補正部14は、振動検出部15が検出した振動に基づいて、振動の変化を示す振動波Wを算出し、さらに、振動波Wの振動の速度が遅くなる谷側と山側との一方である谷側の部分、すなわち図6の縦破線に該当する同期対象箇所G1を検出する。補正部14には、撮像部11からVSYNCとHSYNCとPCLKからなる同期信号のタイミングの情報が入力されており、補正部14は、当該同期信号のタイミングの情報から、同期対象箇所G1に対応している画素が、画素B3であることを検出する。
(Process Sb1)
Similar to the first embodiment, the correction unit 14 calculates a vibration wave W indicating a change in vibration based on the vibration detected by the vibration detection unit 15, and further, a trough in which the vibration speed of the vibration wave W decreases. A portion on the valley side that is one of the mountain side and the mountain side, that is, a synchronization target location G1 corresponding to the vertical broken line in FIG. 6 is detected. Information on the timing of the synchronization signal composed of VSYNC, HSYNC, and PCLK is input from the imaging unit 11 to the correction unit 14, and the correction unit 14 corresponds to the synchronization target location G1 from the information on the timing of the synchronization signal. It is detected that the current pixel is the pixel B3.

(工程Sb2)
補正部14は、同期対象箇所G1に該当する画素が画素B3であることを検出すると、既に算出した振動波Wの傾き等に基づいて次に発生する波を予測するための演算を行い、次の同期対象箇所G2を算出する。そして、補正部14は、画素B3の走査のタイミングを算出した同期対象箇所G2の発生タイミングに一致させるため、次にCMOSセンサに発生させるVSYNC(II)の開始タイミングがVSYNC(II’)で示されるタイミングとなるように補正を行う。
(Process Sb2)
When the correction unit 14 detects that the pixel corresponding to the synchronization target location G1 is the pixel B3, the correction unit 14 performs an operation for predicting the next wave to be generated based on the already calculated inclination of the vibration wave W, etc. The synchronization target location G2 is calculated. Then, the correction unit 14 indicates the start timing of VSYNC (II) to be generated by the CMOS sensor next by VSYNC (II ′) in order to match the generation timing of the synchronization target location G2 with the calculated scanning timing of the pixel B3. Correction is performed so that the timing is correct.

(工程Sb3)
補正部14は、更に、CMOSセンサの撮像面の中心の画素C3の走査タイミングを同期対象箇所G2に一致させるために、VSYNC(II’)の開始タイミングがVSYNC(II’’)で示されるタイミングとなるよう補正し、補正したVSYNC開始タイミングの情報を撮像部11に入力する。撮像部11は、入力されたVSYNC開始タイミングの情報に基づいてVSYNC(II’’)をCMOSセンサに発生させる。
(Process Sb3)
The correction unit 14 further has a timing at which the start timing of VSYNC (II ′) is indicated by VSYNC (II ″) in order to match the scanning timing of the pixel C3 at the center of the imaging surface of the CMOS sensor with the synchronization target location G2. The corrected VSYNC start timing information is input to the imaging unit 11. The imaging unit 11 causes the CMOS sensor to generate VSYNC (II ″) based on the input VSYNC start timing information.

携帯電話端末100の具体的な動きとしては、VSYNC(II’’)に補正することで、振動波Wの谷側方向に携帯電話端末100が移動を開始する途中であって、補正前よりも早いタイミングで、VSYNC(II’’)のタイミングで走査が開始されることになる。つまり、レンズ10の位置が、補正前の位置より一画素分上の位置で撮像が開始されることになり、補正前のVSYNC(II’)において画素B3に映っていた被写体の部分は、補正後のVSYNC(II’’)では中心の画素C’3に映ることになる。   As a specific movement of the mobile phone terminal 100, by correcting to VSYNC (II ″), the mobile phone terminal 100 is in the middle of starting to move in the valley direction of the vibration wave W, and before the correction. The scanning is started at the timing of VSYNC (II ″) at an early timing. That is, imaging starts at the position of the lens 10 one pixel higher than the position before correction, and the portion of the subject that was reflected in the pixel B3 in the VSYNC (II ′) before correction is corrected. In the later VSYNC (II ″), the image appears in the center pixel C′3.

また、VSYNC(II’’)の発生により、補正前の画素A1のVSYNC(II)における露光時間Im(II−A1)と、補正後のVSYNC(II’’)における露光時間(II’’−A’1)は重複することになる。そのため、撮像部11は、画素A1に対する露光時間Im(II−A1)の間において露光時間(II’’−A’1)と重複しない時間までに蓄積された電荷を廃棄することになる。なお、各画素においても同様に重複した露光時間の電荷の廃棄が行われる。   Further, due to the occurrence of VSYNC (II ″), the exposure time Im (II-A1) in VSYNC (II) of the pixel A1 before correction and the exposure time (II ″ − in VSYNC (II ″) after correction. A′1) will overlap. For this reason, the imaging unit 11 discards the charges accumulated up to the time not overlapping with the exposure time (II ″ -A′1) during the exposure time Im (II-A1) for the pixel A1. Similarly, in each pixel, charges with overlapping exposure times are discarded.

これにより、CMOSセンサの中心の画素C’3については、振動波Wにおいて振動速度の遅くなる谷側の箇所にて走査処理が行われることになる。   As a result, the scanning process is performed for the pixel C ′ 3 at the center of the CMOS sensor at the valley side where the vibration speed of the vibration wave W is slow.

次に、図7は、図6で示した補正処理の原理と同様に、同期対象箇所がCMOSセンサの中心画素より上の領域に該当している場合を示した図である。図7に示す手ぶれによる振動波W’は、図6の振動波Wに比べて、振動の周期が短くなっている。すなわち、図7は、図6に示す場合よりも、手ぶれによる振動速度が速くなっている。そのため、同期対象箇所G2’が、図6の同期対象箇所G2よりも早い時点で発生することになる。   Next, FIG. 7 is a diagram illustrating a case where the synchronization target portion corresponds to a region above the center pixel of the CMOS sensor, similarly to the principle of the correction processing illustrated in FIG. The vibration wave W ′ caused by camera shake shown in FIG. 7 has a shorter vibration cycle than the vibration wave W of FIG. That is, in FIG. 7, the vibration speed due to camera shake is faster than in the case shown in FIG. 6. Therefore, the synchronization target location G2 'occurs at a point earlier than the synchronization target location G2 in FIG.

図7の場合、補正部14は、最後の補正処理の工程である工程Sc3において、補正前のVSYNC(II)が発生するタイミングよりも早いタイミングにてVSYNC(II’’)を発生することになる。VSYNC(II’)の発生により、補正前の画素A1の最初の周期のVSYNC(I)における露光時間Im(I−A1)と、補正後のVSYNC(II’’)の2周期目の露光時間(II’’−A’1)において、図7の斜線で示す部分が重なることになる。このとき、画素A1のVSYNCII’’−A’1については、充分な露光時間が確保できないため、撮像部11は、露光時間(II’’−A’1)に対応する電荷を廃棄し、バッファメモリ12に記憶されている露光時間(I−A1)に対応する画像のデータを露光時間(II’’−A’1)に対応する画像データとしてバッファメモリ12に再記録する。   In the case of FIG. 7, the correction unit 14 generates VSYNC (II ″) at a timing earlier than the timing at which VSYNC (II) before correction is generated in step Sc3 which is the last correction processing step. Become. Due to the occurrence of VSYNC (II ′), the exposure time Im (I-A1) in the first cycle VSYNC (I) of the pixel A1 before correction and the second cycle exposure time of VSYNC (II ″) after correction In (II ″ -A′1), the hatched portions in FIG. 7 overlap. At this time, since sufficient exposure time cannot be secured for VSYNCII ″ -A′1 of the pixel A1, the imaging unit 11 discards the charge corresponding to the exposure time (II ″ -A′1), and performs buffering. The image data corresponding to the exposure time (I-A1) stored in the memory 12 is re-recorded in the buffer memory 12 as image data corresponding to the exposure time (II ″ -A′1).

上記の構成により、画像処理部13によりバッファメモリ12から読み出されて画面21に表示される画像は、不連続な画像となるが、周期前の画像であるため、利用者にとって視認において違和感のない画像を表示することが可能となる。   With the above configuration, the image that is read from the buffer memory 12 by the image processing unit 13 and displayed on the screen 21 is a discontinuous image. It is possible to display no image.

次に、図8及び図9を参照して、撮像装置1による撮像処理について説明する。
図8は、振動検出部15が検出する振動に基づいて、補正部14が算出した振動の変化である振動波W2を示した図である。補正部14は、時間β2の間に、振動検出部15が検出した振動に基づいて振動波W2を算出するとともに、振動波W2にて振動速度が遅くなる谷側と山側との一方である谷側の箇所、すなわち図8のα2の箇所を検出する。そして、補正部14は、検出したα2の箇所に基づいて、次に撮像部11にてCMOSセンサに発生させるVSYNCの開始タイミングγ2を算出する。
Next, imaging processing by the imaging apparatus 1 will be described with reference to FIGS.
FIG. 8 is a diagram illustrating a vibration wave W2 that is a change in vibration calculated by the correction unit 14 based on the vibration detected by the vibration detection unit 15. The correction unit 14 calculates the vibration wave W2 based on the vibration detected by the vibration detection unit 15 during the time β2, and the valley which is one of the valley side and the mountain side where the vibration speed is slowed down by the vibration wave W2. The side part, that is, the part α2 in FIG. 8 is detected. Then, the correction unit 14 calculates the VSYNC start timing γ2 that is next generated in the CMOS sensor in the imaging unit 11 based on the detected α2.

図9は、図8の振動波W2が発生した場合に、撮像部11により撮像されてバッファメモリ12に記録される画像データより構成される撮像画像と、画像処理部13によりバッファメモリ12から読み出されて画面21に出力される出力画像と、VSYNC及び画素の露光時間の関係を示した図である。図9において、画素Bは、図3における画素A1に対応し、画素Mは画素C3に対応し、画素E5に対応する。   FIG. 9 shows a captured image composed of image data captured by the imaging unit 11 and recorded in the buffer memory 12 when the vibration wave W2 of FIG. 8 is generated, and read from the buffer memory 12 by the image processing unit 13. It is the figure which showed the relationship between the output image output and output on the screen 21, and VSYNC and the exposure time of a pixel. 9, pixel B corresponds to pixel A1 in FIG. 3, pixel M corresponds to pixel C3, and corresponds to pixel E5.

図9において、補正前のVSYNC:Tb1の2周期目、VSYNC(2)において、上述した図6の補正処理の原理に従って補正部14により算出されたVSYNC開始タイミングγ2の情報が撮像部11に入力され、撮像部11にて露光制御が切り替えられる。撮像部11は、入力されたVSYNC開始タイミングγ2の情報に基づいて、補正後のVSYNC:Tb2をCMOSセンサに発生させる。当該VSYNC:Tb2に基づくCMOSセンサの走査により、中心の画素の露光時間Tb2Mの1周期分の半分が経過した時点が、振動W1における振動速度が遅くなる同期対象箇所、すなわち図8における同期対象箇所δ2に一致することになる。なお、実際のVSYNCは、撮像部11において、補正前のVSYNC:Tb1と、補正後のVSYNC:Tb2とが合成され、VSYNC:Tbvで示されるタイミングとなる。   In FIG. 9, information on VSYNC start timing γ2 calculated by the correction unit 14 in accordance with the principle of the correction processing in FIG. 6 described above is input to the imaging unit 11 in the second period of VSYNC: Tb1 before correction in VSYNC (2). Then, the exposure control is switched in the imaging unit 11. The imaging unit 11 causes the CMOS sensor to generate corrected VSYNC: Tb2 based on the input information of the VSYNC start timing γ2. The synchronization target point at which the vibration speed in the vibration W1 becomes slow, that is, the synchronization target point in FIG. 8, when a half of one period of the exposure time Tb2M of the center pixel has passed by scanning of the CMOS sensor based on the VSYNC: Tb2. It corresponds to δ2. Note that the actual VSYNC is obtained by combining VSYNC: Tb1 before correction and VSYNC: Tb2 after correction in the imaging unit 11, and at a timing indicated by VSYNC: Tbv.

補正部14の補正により、補正前のVSYNC:Tb1の2周期目の画素Bに対する露光時間Tb1B(2−B)と、VSYNC:Tb2の3周期目の画素Bに対する露光時間Tb2B(III−B)とにおいて、図9の斜線で示す部分が重なることから、VSYNC:Tb2の3周期目の画素Bに対する露光時間は不足する。そのため、撮像部11は、露光時間(III−B)にて蓄積された電荷を廃棄し、露光時間(2−B)にて蓄積された電荷により得られた画像を3周期目の画像とするため、バッファメモリ12に記録されている露光時間(2−B)に対応する画像を、3周期目の画像としてバッファメモリ12に再記録する。撮像装置11は、中心の画素M、及び最後の画素Eについても同様に、補正前の2周期目の露光時間(Tb1M及びTb1E)と補正後の3周期目の露光時間(Tb2M及びTb2E)に重複が発生するため、最初の画素Bと同様に1周期前の画像を3周期目の画像とする。   By the correction of the correction unit 14, the exposure time Tb1B (2-B) for the pixel B in the second cycle of VSYNC: Tb1 before the correction and the exposure time Tb2B (III-B) for the pixel B in the third cycle of VSYNC: Tb2 are corrected. In FIG. 9, the hatched portions in FIG. 9 overlap, so that the exposure time for the pixel B in the third cycle of VSYNC: Tb2 is insufficient. Therefore, the imaging unit 11 discards the charge accumulated at the exposure time (III-B), and uses the image obtained by the charge accumulated at the exposure time (2-B) as an image in the third period. Therefore, an image corresponding to the exposure time (2-B) recorded in the buffer memory 12 is re-recorded in the buffer memory 12 as an image in the third period. Similarly, for the center pixel M and the last pixel E, the imaging apparatus 11 also uses the second period exposure time (Tb1M and Tb1E) before correction and the third period exposure time (Tb2M and Tb2E) after correction. Since duplication occurs, the image of the previous cycle is set as the image of the third cycle in the same manner as the first pixel B.

VSYNCTb2の4周期目(IV)以降は、充分な露光時間(IV−B、IV−M、IV−E)が確保されているため、撮像部11は、VSYNC:Tb2に従って、CMOSセンサを走査することで、中心の画素の露光時間Tb2Mの1周期分の半分が経過した時点(図9、Tb2Mの、IV−Mの露光時間の中央の○の箇所)が、振動W2における振動速度が遅くなる同期対象箇所、すなわち図8における同期対象箇所δ2に一致することになる。   Since a sufficient exposure time (IV-B, IV-M, IV-E) is secured after the fourth cycle (IV) of VSYNCTb2, the imaging unit 11 scans the CMOS sensor according to VSYNC: Tb2. As a result, the vibration speed at the vibration W2 becomes slow at the time when half of one period of the exposure time Tb2M of the center pixel has passed (the circle in FIG. 9, Tb2M, the center of the IV-M exposure time). This corresponds to the synchronization target portion, that is, the synchronization target portion δ2 in FIG.

補正部14により補正が行われた後も、撮像部11は、バッファメモリ12に撮像画像をCMOSセンサにおける走査の速度に従って記録し、画像処理部13は、予め定められる一定間隔でバッファメモリ12から画像を読み出して画面21に出力する。このとき、VSYNC:Tb1が補正されてVSYNC:Tbvのようなタイミングになったとしても、画像処理部13は、バッファメモリ12に記憶される撮像画像を一定間隔のタイミングTbBで表示するため、VSYNC:Tbvのタイミングとは無関係に画像を出力することができる。これにより、画面21への表示の途中で画像が抜けてしまうことや、表示のタイミングが合わずに画像が停止してしまうといったことを防ぐことが可能となる。   Even after correction by the correction unit 14, the imaging unit 11 records the captured image in the buffer memory 12 according to the scanning speed of the CMOS sensor, and the image processing unit 13 reads the image from the buffer memory 12 at predetermined intervals. The image is read and output to the screen 21. At this time, even if VSYNC: Tb1 is corrected and the timing becomes VSYNC: Tbv, the image processing unit 13 displays the captured image stored in the buffer memory 12 at the timing TbB at a constant interval. : An image can be output regardless of the timing of Tbv. As a result, it is possible to prevent the image from being lost during the display on the screen 21 or the image from stopping due to the timing of the display being out of time.

また、上記の第1及び第2の実施形態において、画像処理部13は、操作部20から撮影指示が入力されると、バッファメモリ12から複数個の画像データを読み出し、読み出した複数個の画像データを合成し、合成した画像データを撮影画像データとして携帯電話端末100内の画像ファイル保存用の記憶領域に記録する。従来では、合成して撮像画像データを生成する際に、画像データのフレームの位置をずらして補正することにより画像の歪みを軽減しており、本実施形態でも、フレームの位置をずらして、合成することにより、撮影画像データが得られることになるが、本実施形態では、1つの画像データの中での歪みが軽減された複数の画像データを合成させるので、合成により得られる撮像画像データの歪みをより軽減できる。   In the first and second embodiments, the image processing unit 13 reads a plurality of image data from the buffer memory 12 when a shooting instruction is input from the operation unit 20, and the plurality of read images. The data is combined, and the combined image data is recorded as captured image data in a storage area for storing an image file in the mobile phone terminal 100. Conventionally, when generating captured image data by compositing, image distortion is reduced by shifting and correcting the frame position of the image data. In this embodiment, the frame position is also shifted and compositing is performed. In this embodiment, a plurality of pieces of image data in which distortion in one image data is reduced are combined, so that the captured image data obtained by the combination can be obtained. Distortion can be further reduced.

なお、上記の実施形態では、振動による振動波の谷側のみを振動速度の遅い同期対象箇所としていたが、本発明は、これに限られず、振動波の山側のみを振動速度の遅い同期対象箇所として補正するようにしてもよい。即ち、手振れの振動方向が変化する箇所が振動速度が一番遅い箇所であるため、この箇所が画像における中央の画素に対応するように走査開始タイミングを調整することにより、画像の歪みが軽減される。そして、この基準となる振動速度が遅くなる箇所を振動波の谷側又は山側の何れか(同一の振動方向にて振動の速度が遅くなる箇所)とすることにより、複数の画像を合成する際に、同じ谷側(又は山側)で撮像された画像同士を合成するので、画像フレームのずらし量を抑えることができる。   In the above-described embodiment, only the trough side of the vibration wave caused by vibration is the synchronization target portion having a low vibration speed, but the present invention is not limited to this, and only the peak side of the vibration wave is a synchronization target portion having a low vibration speed. May be corrected as follows. In other words, the part where the vibration direction of hand shake changes is the place where the vibration speed is the slowest. Therefore, by adjusting the scanning start timing so that this part corresponds to the center pixel in the image, image distortion is reduced. The Then, when synthesizing a plurality of images by setting the part where the vibration speed as a reference is slow to be either the valley side or the mountain side of the vibration wave (the part where the vibration speed is slow in the same vibration direction) In addition, since the images captured on the same valley side (or mountain side) are combined, the shift amount of the image frame can be suppressed.

本実施形態に係る携帯電話端末の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the mobile telephone terminal which concerns on this embodiment. 同実施形態に係るCMOSセンサの走査処理を説明するための図である。It is a figure for demonstrating the scanning process of the CMOS sensor which concerns on the same embodiment. 第1実施形態に係る補正処理の原理を説明するための図である。It is a figure for demonstrating the principle of the correction process which concerns on 1st Embodiment. 第1実施形態に係る撮像処理の具体例における手ぶれ振動による振動波を示した図である。It is the figure which showed the vibration wave by the camera shake vibration in the specific example of the imaging process which concerns on 1st Embodiment. 第1実施形態に係る撮像処理の流れを示したタイミングチャートである。It is a timing chart which showed the flow of the imaging processing concerning a 1st embodiment. 第2実施形態に係る補正処理の原理を説明するための図(その1)である。It is FIG. (1) for demonstrating the principle of the correction process which concerns on 2nd Embodiment. 第2実施形態に係る補正処理の原理を説明するための図(その2)である。It is FIG. (2) for demonstrating the principle of the correction process which concerns on 2nd Embodiment. 第2実施形態に係る撮像処理の具体例における手ぶれ振動による振動波を示した図である。It is the figure which showed the vibration wave by the camera shake vibration in the specific example of the imaging process which concerns on 2nd Embodiment. 第2実施形態に係る撮像処理の流れを示したタイミングチャートである。It is the timing chart which showed the flow of the imaging processing which relates to 2nd execution form. 手ぶれ発生時のCMOSセンサによる画像の歪みの例を示した図である。It is the figure which showed the example of the distortion of the image by a CMOS sensor at the time of camera shake occurrence.

符号の説明Explanation of symbols

1 撮像装置
10 レンズ
11 撮像部
12 バッファメモリ
13 画像処理部
14 補正部
15 振動検出部
22 通信部
20 操作部
21 画面
100 携帯電話端末
DESCRIPTION OF SYMBOLS 1 Imaging device 10 Lens 11 Imaging part 12 Buffer memory 13 Image processing part 14 Correction part 15 Vibration detection part 22 Communication part 20 Operation part 21 Screen 100 Mobile phone terminal

Claims (6)

筐体と、前記筐体に備えられる撮像素子を用いて、前記撮像素子の各画素の走査を開始して前記撮像素子に映る被写体の画像を撮像する撮像手段を具備する撮像装置において、
前記筐体の振動を検出する振動検出手段と、
前記撮像手段が撮像を開始した場合に前記振動検出手段が検出する振動に基づいて同一の振動方向にて振動の速度が遅くなる箇所を検出し、検出した箇所にて前記画像の中心の画素が撮像されるように前記走査の開始時点を補正する補正手段と、
前記画像を表示する画面と、
前記画像を記憶する記憶手段と、
前記記憶手段が記憶する前記画像を読み出して予め定められる一定間隔で前記画面に表示する画像処理手段と、
を具備することを特徴とする撮像装置。
An imaging apparatus comprising: a housing; and an imaging device that starts scanning each pixel of the imaging device using the imaging device provided in the housing and captures an image of a subject reflected on the imaging device.
Vibration detecting means for detecting vibration of the housing;
Based on the vibration detected by the vibration detection means when the imaging means starts imaging, a location where the vibration speed is slow in the same vibration direction is detected, and the pixel at the center of the image is detected at the detected location. Correction means for correcting the start time of the scanning so as to be imaged;
A screen for displaying the image;
Storage means for storing the image;
Image processing means for reading out the image stored in the storage means and displaying it on the screen at predetermined intervals;
An imaging apparatus comprising:
前記画像は、前記補正手段により補正される前に撮像された画像と、前記補正手段により補正された後に撮像された画像であることを特徴とする請求項1に記載の撮像装置 The imaging apparatus according to claim 1, wherein the image is an image captured before being corrected by the correcting unit and an image captured after being corrected by the correcting unit . 筐体と、前記筐体に備えられる撮像素子を用いて、前記撮像素子の各画素の走査を開始して前記撮像素子に映る被写体の画像を撮像する撮像手段を具備する撮像装置において、An imaging apparatus comprising: a housing; and an imaging device that starts scanning each pixel of the imaging device using the imaging device provided in the housing and captures an image of a subject reflected on the imaging device.
前記筐体の振動を検出する振動検出手段と、Vibration detecting means for detecting vibration of the housing;
前記撮像手段が撮像を開始した場合に前記振動検出手段が検出する振動に基づいて同一の振動方向にて振動の速度が遅くなる箇所を検出し、検出した箇所にて前記画像の中心の画素が撮像されるように前記走査の開始時点を補正する補正手段と、Based on the vibration detected by the vibration detection means when the imaging means starts imaging, a location where the vibration speed is slow in the same vibration direction is detected, and the pixel at the center of the image is detected at the detected location. Correction means for correcting the start time of the scanning so as to be imaged;
前記補正手段により同一の振動方向において補正されて撮像された複数の画像を重ね合わせて合成し、合成した画像を撮像画像として出力する画像処理手段と、An image processing unit that superimposes and combines a plurality of images that are corrected and captured in the same vibration direction by the correction unit, and outputs the combined image as a captured image;
を具備することを特徴とする撮像装置。An imaging apparatus comprising:
前記振動検出手段は、前記撮像手段による前記撮像素子の画素の走査の方向の振動を検出することを特徴とする請求項1から3に記載の撮像装置。 The vibration detection means, the imaging apparatus according to claims 1 to 3, characterized by detecting the vibration in the direction of scanning of the pixels of the imaging device by the imaging device. 前記撮像素子は、CMOSセンサであることを特徴とする請求項1からのいずれか1つに記載の撮像装置。 The imaging device, the imaging device according to any one of claims 1 to 4, characterized in that it is a CMOS sensor. 筐体に備えられる撮像素子を用いて、前記撮像素子の各画素の走査を開始して前記撮像素子に映る被写体の画像を出力する撮像方法であって、
前記筐体の振動を検出し、検出した振動に基づいて同一の振動方向にて振動の速度が遅くなる箇所を検出するステップと、
検出した箇所にて前記画像の中心の画素が撮像されるように前記走査の開始時点を補正するステップと、
同一の振動方向において補正されて撮像された複数枚の画像を重ね合わせて合成するステップと、
を含むことを特徴とする撮像方法。
An imaging method that starts scanning each pixel of the image sensor using an image sensor provided in a housing and outputs an image of a subject reflected on the image sensor,
A step of said detecting a vibration of the housing, for detecting the portion where the speed of the vibration is delayed in the same vibration direction based on the detected vibration,
Correcting the start point of the scan so that the center pixel of the image is imaged at the detected location;
A step of superimposing and synthesizing a plurality of images that are corrected and imaged in the same vibration direction;
An imaging method comprising:
JP2006057687A 2006-03-03 2006-03-03 Imaging apparatus and imaging method Expired - Fee Related JP4846394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006057687A JP4846394B2 (en) 2006-03-03 2006-03-03 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006057687A JP4846394B2 (en) 2006-03-03 2006-03-03 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2007235819A JP2007235819A (en) 2007-09-13
JP4846394B2 true JP4846394B2 (en) 2011-12-28

Family

ID=38555905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006057687A Expired - Fee Related JP4846394B2 (en) 2006-03-03 2006-03-03 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP4846394B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4689687B2 (en) 2008-01-29 2011-05-25 株式会社モルフォ Imaging method and imaging apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05107622A (en) * 1991-02-20 1993-04-30 Asahi Optical Co Ltd Blurred photograph preventing camera
JP2000227613A (en) * 1998-11-30 2000-08-15 Ricoh Co Ltd Camera shake correcting device

Also Published As

Publication number Publication date
JP2007235819A (en) 2007-09-13

Similar Documents

Publication Publication Date Title
JP4446193B2 (en) Image processing apparatus and method, and program
JP5764740B2 (en) Imaging device
JP2008109336A (en) Image processor and imaging apparatus
JP2006148861A (en) Image signal processing device and method
JP2007281555A (en) Imaging apparatus
US8319841B2 (en) Video processing apparatus, video processing system, video processing method, and program
JP2007110636A (en) Camera apparatus
JP4846394B2 (en) Imaging apparatus and imaging method
JP2006148550A (en) Image processor and imaging device
JP2011114486A (en) Imaging device
JP2000023024A (en) Image input device
JP2006074693A (en) Imaging apparatus
JP4926422B2 (en) Image processing apparatus and electronic apparatus using the same
JP2014121024A (en) Imaging apparatus
JP4606989B2 (en) Imaging device
JPH1175106A (en) Still image camera
JP5300606B2 (en) Imaging apparatus and control method thereof
JP4292963B2 (en) Imaging device
JP4229234B2 (en) Digital camera
JP5089499B2 (en) Shooting device, video still image recording method
JP2006229552A (en) Video camera
JP3286349B2 (en) Image signal output control device
JP4730530B2 (en) Imaging device
JP2005286819A (en) Imaging apparatus and program
JP2005020521A (en) Imaging apparatus and cellular phone equipped with the same imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4846394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees