JP5869833B2 - Camera shake correction processing apparatus and camera shake correction processing method - Google Patents

Camera shake correction processing apparatus and camera shake correction processing method Download PDF

Info

Publication number
JP5869833B2
JP5869833B2 JP2011222155A JP2011222155A JP5869833B2 JP 5869833 B2 JP5869833 B2 JP 5869833B2 JP 2011222155 A JP2011222155 A JP 2011222155A JP 2011222155 A JP2011222155 A JP 2011222155A JP 5869833 B2 JP5869833 B2 JP 5869833B2
Authority
JP
Japan
Prior art keywords
image
feature point
motion vector
image frame
pixel data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011222155A
Other languages
Japanese (ja)
Other versions
JP2013085035A (en
Inventor
啓一郎 石原
啓一郎 石原
英昭 横田
英昭 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THine Electronics Inc
Original Assignee
THine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by THine Electronics Inc filed Critical THine Electronics Inc
Priority to JP2011222155A priority Critical patent/JP5869833B2/en
Publication of JP2013085035A publication Critical patent/JP2013085035A/en
Application granted granted Critical
Publication of JP5869833B2 publication Critical patent/JP5869833B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Description

本発明は、手振れ補正処理装置および手振れ補正処理方法に関するものである。   The present invention relates to a camera shake correction processing apparatus and a camera shake correction processing method.

カメラを手に持って動画像を撮影する際に手振れに因りカメラが動くと、取得される動画像に手振れの影響が現れる。このような手振れを補償する装置として、動画像における手振れの影響を補正処理する手振れ補正処理装置が知られている(特許文献1,2)。動画像に対する電子式の手振れ補正処理では、動画像を構成する複数の画像フレームのうち時間的に隣接する前後の画像フレームの画素データに基づいて、手振れに因る画像の動きベクトル(方向および量)が検出され、この動きベクトルの検出結果に基づいて画像フレーム中の部分範囲の画素データが切り出されることで手振れ補正処理が行われる。   If the camera moves due to camera shake when shooting a moving image with the camera in hand, the effect of camera shake appears in the acquired moving image. As an apparatus for compensating for such a camera shake, a camera shake correction processing apparatus that corrects the influence of camera shake in a moving image is known (Patent Documents 1 and 2). In the electronic camera shake correction processing for a moving image, the motion vector (direction and amount) of the image due to the camera shake is based on the pixel data of the preceding and subsequent image frames among the plurality of image frames constituting the moving image. ) Is detected, and pixel data of a partial range in the image frame is cut out based on the detection result of the motion vector, thereby performing a camera shake correction process.

特開2007−151008号公報JP 2007-151008 A 特開2006−246270号公報JP 2006-246270 A

このような動きベクトル検出による手振れ補正処理では、補正対象の現時点の画像フレームの画素データがフレームメモリに保持される必要があり、また、過去の画像フレームの画素データもフレームメモリに保持される必要がある。一般にフレームメモリとしてSDRAM(Synchronous Dynamic Random Access Memory)等の大容量のものが用いられ、また、このSDRAMを制御するための制御回路が必要となる。これらは、手振れ補正処理装置のコスト上昇の要因となり、また、手振れ補正処理装置を搭載するカメラシステムのコスト上昇の要因となる。   In such a camera shake correction process based on motion vector detection, pixel data of a current image frame to be corrected needs to be held in a frame memory, and pixel data of a past image frame needs to be held in a frame memory. There is. Generally, a large capacity memory such as SDRAM (Synchronous Dynamic Random Access Memory) is used as a frame memory, and a control circuit for controlling the SDRAM is required. These cause the cost increase of the camera shake correction processing apparatus and the cost increase of the camera system equipped with the camera shake correction processing apparatus.

なお、特許文献2に記載された発明は、補正対象の現時点の画像フレームの画素データを保持するフレームメモリを不要としているものの、過去の画像フレームの画素データを保持するフレームメモリを依然として必要としている。   Although the invention described in Patent Document 2 does not require a frame memory that holds pixel data of a current image frame to be corrected, it still needs a frame memory that holds pixel data of a past image frame. .

本発明は、上記問題点を解消する為になされたものであり、フレームメモリを使用することなく手振れ補正処理を行うことが可能な手振れ補正処理装置および手振れ補正処理方法を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a camera shake correction processing apparatus and a camera shake correction processing method capable of performing camera shake correction processing without using a frame memory. To do.

本発明の手振れ補正処理装置は、複数の画像フレームからなる動画像における手振れの影響を補正処理する装置であって、(1) 複数の画像フレームのうちの第nの画像フレームF(n)の画素データを入力する際の初期の所定期間に入力した画像フレームF(n)中の第1エリアの画素データと、画像フレームF(n)より前の第(n−1)の画像フレームF(n-1)中の第1エリアの特徴点に関する情報とに基づいて、画像フレームF(n-1)から画像フレームF(n)までの期間T(n)の画像の動きベクトルを検出する動きベクトル検出部と、(2) 動きベクトル検出部により検出された画像の動きベクトルに基づいて画像フレームF(n)についての切り出し位置を算出する補正量算出部と、(3) 補正量算出部により算出された切り出し位置に基づいて画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力する画像切り出し処理部と、(4) 画像フレームF(n-1)中の特徴点に関する情報として、該特徴点の座標値を記憶するとともに、これと対応付けて該画像フレームのうち該特徴点を含む一部の画素ブロックの画素データを選択的に記憶する特徴点データメモリと、(5) 画像フレームF(n)のうち特徴点の座標値に対応する位置を含む一部の画素ブロックの画素データを選択的に記憶するサーチデータメモリと、を備えることを特徴とする。さらに、動きベクトル検出部が、特徴点データメモリに記憶された画像フレームF(n-1)中の特徴点に関する情報と、サーチデータメモリに記憶された画像フレームF(n)中の一部の画素ブロックの画素データとに基づいて、期間T(n)の画像の動きベクトルを検出することを特徴とする。 A camera shake correction processing device according to the present invention is a device for correcting the influence of camera shake in a moving image composed of a plurality of image frames. (1) The nth image frame F (n) of the plurality of image frames. The pixel data of the first area in the image frame F (n) input in the initial predetermined period when the pixel data is input, and the (n−1) th image frame F () before the image frame F (n). n-1) motion for detecting a motion vector of an image during a period T (n) from the image frame F (n-1) to the image frame F (n) based on the information on the feature points of the first area A vector detection unit; (2) a correction amount calculation unit that calculates a cutout position for the image frame F (n) based on the motion vector of the image detected by the motion vector detection unit; and (3) a correction amount calculation unit. A part in the image frame F (n) based on the calculated cut-out position Cut out pixel data of the circumference, and image cropping processing unit for outputting the pixel data after the cut, (4) as information about the feature points in the image frame F (n-1), stores the coordinate values of the feature points And a feature point data memory for selectively storing pixel data of some pixel blocks including the feature point in the image frame in association with the image frame, and (5) a feature in the image frame F (n). And a search data memory that selectively stores pixel data of a part of pixel blocks including a position corresponding to a coordinate value of a point . Further, the motion vector detection unit detects information about the feature points in the image frame F (n−1) stored in the feature point data memory and a part of the image frame F (n) stored in the search data memory. A motion vector of an image in a period T (n) is detected based on pixel data of a pixel block.

動きベクトル検出部は、(1) 各画像フレーム中の第1エリアにおける複数の特徴点を抽出する第1抽出部と、(2) 第1抽出部により抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて特徴点データメモリに保存する第1保存部と、(3) 第1保存部により特徴点データメモリに保存された画像フレームF(n-1)中の第1エリアの各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第1エリアの特徴点を含む画素ブロックの画素データと、サーチデータメモリに保存された画像フレームF(n)中の第1エリアにおいて該特徴点の座標値に対応する位置を含む画素ブロックの画素データとに基づいて、期間T(n)の第1エリアの各特徴点の動きベクトルを検出する第1検出部と、(4) 第1検出部により検出された期間T(n)の第1エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する第1算出部と、を含むのが好適である。このとき、補正量算出部が、第1算出部により算出された期間T(n)の画像の動きベクトルに基づいて、画像フレームF(n)についての切り出し位置を算出するのが好適である。 The motion vector detection unit includes (1) a first extraction unit that extracts a plurality of feature points in a first area in each image frame, and (2) a coordinate value of each feature point extracted by the first extraction unit and A first storage unit that associates the pixel data of the pixel block including the feature point with each other and stores it in the feature point data memory ; and (3) an image frame F (n−1) stored in the feature point data memory by the first storage unit. ) Read out the coordinate value of each feature point in the first area and pixel data of the pixel block including the feature point, and the pixel of the pixel block including the feature point in the first area in the image frame F (n−1). Based on the data and the pixel data of the pixel block including the position corresponding to the coordinate value of the feature point in the first area in the image frame F (n) stored in the search data memory , the period T (n) First detection for detecting a motion vector of each feature point in the first area And (4) a first calculation for calculating a motion vector of the image in the period T (n) based on the motion vector of each feature point in the first area in the period T (n) detected by the first detection unit. It is preferable to include a part. At this time, it is preferable that the correction amount calculation unit calculates the cutout position for the image frame F (n) based on the motion vector of the image of the period T (n) calculated by the first calculation unit.

動きベクトル検出部は、(1) 各画像フレーム中の第1エリア以外の第2エリアにおける複数の特徴点を抽出する第2抽出部と、(2) 第2抽出部により抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて特徴点データメモリに保存する第2保存部と、(3) 第2保存部により特徴点データメモリに保存された画像フレームF(n-1)中の第2エリアの各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第2エリアの特徴点を含む画素ブロックの画素データと、サーチデータメモリに保存された画像フレームF(n)中の第2エリアにおいて該特徴点の座標値に対応する位置を含む画素ブロックの画素データとに基づいて、期間T(n)の第2エリアの各特徴点の動きベクトルを検出する第2検出部と、(4) 第2検出部により検出された期間T(n)の第2エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する第2算出部と、を更に含むのも好適である。このとき、補正量算出部が、第1算出部により算出された期間T(n)の画像の動きベクトルと、第2算出部により算出された期間T(n-1)の画像の動きベクトルとに基づいて、画像フレームF(n)についての切り出し位置を算出するのが好適である。 The motion vector detection unit includes: (1) a second extraction unit that extracts a plurality of feature points in a second area other than the first area in each image frame; and (2) each feature point extracted by the second extraction unit. A second storage unit for storing the coordinate value of the pixel block and the pixel data of the pixel block including the feature point in the feature point data memory, and (3) an image frame stored in the feature point data memory by the second storage unit The coordinate value of each feature point in the second area in F (n-1) and the pixel data of the pixel block including the feature point are read, and the feature point in the second area in the image frame F (n-1) is read. Based on the pixel data of the pixel block including the pixel block and the pixel data of the pixel block including the position corresponding to the coordinate value of the feature point in the second area in the image frame F (n) stored in the search data memory. The motion vector of each feature point in the second area of T (n) A second detection unit to detect, and (4) based on the motion vector of each feature point in the second area in the period T (n) detected by the second detection unit, the motion vector of the image in the period T (n) It is also preferable to further include a second calculation unit for calculating. At this time, the correction amount calculation unit calculates the motion vector of the image in the period T (n) calculated by the first calculation unit, and the motion vector of the image in the period T (n−1) calculated by the second calculation unit. Based on the above, it is preferable to calculate the cut-out position for the image frame F (n).

第1保存部は、第1抽出部により抽出された各特徴点の特徴量をも特徴点データメモリに保存するのが好適である。このとき、第1算出部は、第1検出部により検出された各特徴点の動きベクトルに対して、第1保存部により特徴点データメモリに保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出するのが好適である。 The first storage unit preferably stores the feature amount of each feature point extracted by the first extraction unit in the feature point data memory . At this time, the first calculation unit weights the motion vectors of the feature points detected by the first detection unit with the feature amounts of the feature points stored in the feature point data memory by the first storage unit. Thus, it is preferable to calculate the motion vector of the image during the period T (n).

第2保存部は、第2抽出部により抽出された各特徴点の特徴量をも特徴点データメモリに保存するのが好適である。このとき、第2算出部は、第2検出部により検出された各特徴点の動きベクトルに対して、第2保存部により特徴点データメモリに保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出するのが好適である。 It is preferable that the second storage unit also stores the feature amount of each feature point extracted by the second extraction unit in the feature point data memory . At this time, the second calculation unit weights the motion vectors of the feature points detected by the second detection unit with the feature amounts of the feature points stored in the feature point data memory by the second storage unit. Thus, it is preferable to calculate the motion vector of the image during the period T (n).

補正量算出部は、第1算出部により算出された期間T(n)の画像の動きベクトルと、第2算出部により算出された期間T(n-1)の画像の動きベクトルとに対して、重み付けを行って画像の動きベクトルを求めて、画像フレームF(n)についての切り出し位置を算出するのが好適である。   The correction amount calculation unit calculates the motion vector of the image during the period T (n) calculated by the first calculation unit and the motion vector of the image during the period T (n−1) calculated by the second calculation unit. It is preferable to calculate the cut-out position for the image frame F (n) by calculating the motion vector of the image by weighting.

本発明の画像処理システムは、(1) 複数の画像フレームからなる動画像における手振れの影響を補正処理する上記の本発明の手振れ補正処理装置と、(2) 複数の画像フレームそれぞれの画素データについて手振れ補正処理装置による手振れ補正処理とは異なる画像処理を行う画像信号処理部と、を備えることを特徴とする。そして、本発明の画像処理システムは、画像信号処理部による画像処理および手振れ補正処理装置による手振れ補正処理がなされた各画像フレームの画素データを出力することを特徴とする。   The image processing system of the present invention includes (1) the above-described camera shake correction processing device of the present invention that corrects the influence of camera shake in a moving image composed of a plurality of image frames, and (2) pixel data of each of the plurality of image frames. And an image signal processing unit that performs image processing different from the camera shake correction processing performed by the camera shake correction processing device. The image processing system of the present invention outputs pixel data of each image frame that has been subjected to image processing by an image signal processing unit and camera shake correction processing by a camera shake correction processing device.

手振れ補正処理装置の補正量算出部は、画像信号処理部が画像フレームF(n)について画像処理後の画素データを出力するときまでに該画像フレームF(n)についての切り出し位置を算出するのが好適である。このとき、手振れ補正処理装置の画像切り出し処理部は、補正量算出部により算出された切り出し位置に基づいて、画像信号処理部から出力された該画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力するのが好適である。   The correction amount calculation unit of the camera shake correction processing device calculates the cutout position for the image frame F (n) until the image signal processing unit outputs pixel data after image processing for the image frame F (n). Is preferred. At this time, the image cutout processing unit of the camera shake correction processing device, based on the cutout position calculated by the correction amount calculation unit, the pixel data of the partial range in the image frame F (n) output from the image signal processing unit. It is preferable to cut out and output pixel data after the cutout.

本発明の手振れ補正処理方法は、複数の画像フレームからなる動画像における手振れの影響を補正処理する方法であって、(1) 複数の画像フレームのうちの第nの画像フレームF(n)の画素データを入力する際の初期の所定期間に入力した画像フレームF(n)中の第1エリアの画素データと、画像フレームF(n)より前の第(n−1)の画像フレームF(n-1)中の第1エリアの特徴点に関する情報とに基づいて、画像フレームF(n-1)から画像フレームF(n)までの期間T(n)の画像の動きベクトルを検出する動きベクトル検出ステップと、(2) 動きベクトル検出ステップで検出された画像の動きベクトルに基づいて画像フレームF(n)についての切り出し位置を算出する補正量算出ステップと、(3) 補正量算出ステップで算出された切り出し位置に基づいて画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力する画像切り出し処理ステップと、を備えることを特徴とする。さらに、動きベクトル検出ステップにおいて、画像フレームF(n-1)中の特徴点に関する情報として、該特徴点の座標値を記憶するとともに、これと対応付けて該画像フレームのうち該特徴点を含む一部の画素ブロックの画素データを選択的に記憶する特徴点データメモリと、画像フレームF(n)のうち特徴点の座標値に対応する位置を含む一部の画素ブロックの画素データを選択的に記憶するサーチデータメモリと、を用いて、特徴点データメモリに記憶された画像フレームF(n-1)中の特徴点に関する情報と、サーチデータメモリに記憶された画像フレームF(n)中の一部の画素ブロックの画素データとに基づいて、期間T(n)の画像の動きベクトルを検出することを特徴とする。 The camera shake correction processing method of the present invention is a method for correcting the influence of camera shake in a moving image composed of a plurality of image frames. (1) The nth image frame F (n) of the plurality of image frames is corrected. The pixel data of the first area in the image frame F (n) input in the initial predetermined period when the pixel data is input, and the (n−1) th image frame F () before the image frame F (n). n-1) motion for detecting a motion vector of an image during a period T (n) from the image frame F (n-1) to the image frame F (n) based on the information on the feature points of the first area A vector detection step; (2) a correction amount calculation step for calculating a cutout position for the image frame F (n) based on the motion vector of the image detected in the motion vector detection step; and (3) a correction amount calculation step. Based on the calculated clipping position, Cut out the pixel data of sub-ranges in beam F (n), to the image cutting processing step of outputting the pixel data after the cut, characterized in that it comprises a. Further, in the motion vector detection step, the coordinate value of the feature point is stored as information on the feature point in the image frame F (n-1), and the feature point is included in the image frame in association with the coordinate value. A feature point data memory for selectively storing pixel data of some pixel blocks, and pixel data of some pixel blocks including positions corresponding to coordinate values of feature points in the image frame F (n) are selectively selected. And a search data memory stored in the image data F, information on feature points in the image frame F (n-1) stored in the feature point data memory, and an image frame F (n) stored in the search data memory. The motion vector of the image in the period T (n) is detected based on the pixel data of some of the pixel blocks.

動きベクトル検出ステップは、(1) 各画像フレーム中の第1エリアにおける複数の特徴点を抽出する第1抽出ステップと、(2) 第1抽出ステップで抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて特徴点データメモリに保存する第1保存ステップと、(3) 第1保存ステップで特徴点データメモリに保存された画像フレームF(n-1)中の第1エリアの各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第1エリアの特徴点を含む画素ブロックの画素データと、サーチデータメモリに保存された画像フレームF(n)中の第1エリアにおいて該特徴点の座標値に対応する位置を含む画素ブロックの画素データとに基づいて、期間T(n)の第1エリアの各特徴点の動きベクトルを検出する第1検出ステップと、(4) 第1検出ステップで検出された期間T(n)の第1エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する第1算出ステップと、を含むのが好適である。このとき、補正量算出ステップでは、第1算出ステップで算出された期間T(n)の画像の動きベクトルに基づいて、画像フレームF(n)についての切り出し位置を算出するのが好適である。 The motion vector detection step includes (1) a first extraction step for extracting a plurality of feature points in the first area in each image frame, and (2) a coordinate value of each feature point extracted in the first extraction step, and A first storage step for storing in the feature point data memory in association with the pixel data of the pixel block including the feature point ; and (3) an image frame F (n−1) stored in the feature point data memory in the first storage step. ) Read out the coordinate value of each feature point in the first area and pixel data of the pixel block including the feature point, and the pixel of the pixel block including the feature point in the first area in the image frame F (n−1). Based on the data and the pixel data of the pixel block including the position corresponding to the coordinate value of the feature point in the first area in the image frame F (n) stored in the search data memory , the period T (n) Movement vector of each feature point in the first area A first detection step for detecting a toll; and (4) a motion of the image in the period T (n) based on the motion vector of each feature point in the first area in the period T (n) detected in the first detection step. And a first calculation step of calculating a vector. At this time, in the correction amount calculation step, it is preferable to calculate the cutout position for the image frame F (n) based on the motion vector of the image in the period T (n) calculated in the first calculation step.

動きベクトル検出ステップは、(1) 各画像フレーム中の第1エリア以外の第2エリアにおける複数の特徴点を抽出する第2抽出ステップと、(2) 第2抽出ステップで抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて特徴点データメモリに保存する第2保存ステップと、(3) 第2保存ステップで特徴点データメモリに保存された画像フレームF(n-1)中の第2エリアの各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第2エリアの特徴点を含む画素ブロックの画素データと、サーチデータメモリに保存された画像フレームF(n)中の第2エリアにおいて該特徴点の座標値に対応する位置を含む画素ブロックの画素データとに基づいて、期間T(n)の第2エリアの各特徴点の動きベクトルを検出する第2検出ステップと、(4) 第2検出ステップで検出された期間T(n)の第2エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する第2算出ステップと、を更に含むのが好適である。このとき、補正量算出ステップでは、第1算出ステップで算出された期間T(n)の画像の動きベクトルと、第2算出ステップで算出された期間T(n-1)の画像の動きベクトルとに基づいて、画像フレームF(n)についての切り出し位置を算出するのが好適である。 The motion vector detection step includes (1) a second extraction step for extracting a plurality of feature points in a second area other than the first area in each image frame, and (2) each feature point extracted in the second extraction step. A second storing step for storing the coordinate value of the pixel block and the pixel data of the pixel block including the feature point in the feature point data memory, and (3) the image frame stored in the feature point data memory in the second storing step The coordinate value of each feature point in the second area in F (n-1) and the pixel data of the pixel block including the feature point are read, and the feature point in the second area in the image frame F (n-1) is read. Based on the pixel data of the pixel block including the pixel block and the pixel data of the pixel block including the position corresponding to the coordinate value of the feature point in the second area in the image frame F (n) stored in the search data memory. Each of the second area of T (n) A second detection step of detecting a motion vector of the feature point; and (4) a period T (n) based on the motion vector of each feature point in the second area of the period T (n) detected in the second detection step. It is preferable that the method further includes a second calculation step of calculating a motion vector of the first image. At this time, in the correction amount calculation step, the motion vector of the image in the period T (n) calculated in the first calculation step, and the motion vector of the image in the period T (n−1) calculated in the second calculation step Based on the above, it is preferable to calculate the cut-out position for the image frame F (n).

第1保存ステップでは、第1抽出ステップで抽出された各特徴点の特徴量をも特徴点データメモリに保存するのが好適である。このとき、第1算出ステップでは、第1検出ステップで検出された各特徴点の動きベクトルに対して、第1保存ステップで特徴点データメモリに保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出するのが好適である。 In the first storage step, it is preferable that the feature amount of each feature point extracted in the first extraction step is also stored in the feature point data memory . At this time, in the first calculation step, the motion vector of each feature point detected in the first detection step is weighted with the feature amount of each feature point stored in the feature point data memory in the first storage step. Thus, it is preferable to calculate the motion vector of the image during the period T (n).

第2保存ステップでは、第2抽出ステップで抽出された各特徴点の特徴量をも特徴点データメモリに保存するのが好適である。このとき、第2算出ステップでは、第2検出ステップで検出された各特徴点の動きベクトルに対して、第2保存ステップで特徴点データメモリに保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出するのが好適である。 In the second storage step, it is preferable that the feature amount of each feature point extracted in the second extraction step is also stored in the feature point data memory . At this time, in the second calculation step, the motion vector of each feature point detected in the second detection step is weighted with the feature amount of each feature point stored in the feature point data memory in the second storage step. Thus, it is preferable to calculate the motion vector of the image during the period T (n).

補正量算出ステップでは、第1算出ステップで算出された期間T(n)の画像の動きベクトルと、第2算出ステップで算出された期間T(n-1)の画像の動きベクトルとに対して、重み付けを行って画像の動きベクトルを求めて、画像フレームF(n)についての切り出し位置を算出するのが好適である。   In the correction amount calculation step, the motion vector of the image in the period T (n) calculated in the first calculation step and the motion vector of the image in the period T (n−1) calculated in the second calculation step. It is preferable to calculate the cut-out position for the image frame F (n) by calculating the motion vector of the image by weighting.

本発明の画像処理方法は、(1) 複数の画像フレームからなる動画像における手振れの影響を補正処理する上記の本発明の手振れ補正処理方法と、(2) 複数の画像フレームそれぞれの画素データについて手振れ補正処理方法による手振れ補正処理とは異なる画像処理を行う画像信号処理ステップと、を備えることを特徴とする。さらに、本発明の画像処理方法は、画像信号処理ステップによる画像処理および手振れ補正処理方法による手振れ補正処理がなされた各画像フレームの画素データを出力することを特徴とする。   The image processing method of the present invention includes (1) the above-described camera shake correction processing method of the present invention for correcting the influence of camera shake in a moving image composed of a plurality of image frames, and (2) pixel data of each of the plurality of image frames. And an image signal processing step for performing image processing different from the camera shake correction processing by the camera shake correction processing method. Furthermore, the image processing method of the present invention is characterized by outputting pixel data of each image frame that has been subjected to image processing by the image signal processing step and camera shake correction processing by the camera shake correction processing method.

手振れ補正処理方法の補正量算出ステップでは、画像信号処理ステップで画像フレームF(n)について画像処理後の画素データを出力するときまでに該画像フレームF(n)についての切り出し位置を算出するのが好適である。このとき、手振れ補正処理方法の画像切り出し処理ステップでは、補正量算出ステップで算出された切り出し位置に基づいて、画像信号処理ステップから出力された該画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力するのが好適である。   In the correction amount calculation step of the camera shake correction processing method, the cutout position for the image frame F (n) is calculated until the pixel data after image processing is output for the image frame F (n) in the image signal processing step. Is preferred. At this time, in the image cutout processing step of the camera shake correction processing method, the pixel data of the partial range in the image frame F (n) output from the image signal processing step based on the cutout position calculated in the correction amount calculation step It is preferable to cut out and output pixel data after the cutout.

本発明によれば、フレームメモリを使用することなく手振れ補正処理を行うことが可能である。   According to the present invention, it is possible to perform camera shake correction processing without using a frame memory.

本実施形態の手振れ補正処理装置10を備えるカメラシステム1の構成を示す図である。It is a figure which shows the structure of the camera system 1 provided with the camera-shake correction processing apparatus 10 of this embodiment. 動画像を構成する画像フレームF(n-2),F(n-1),F(n),F(n+1) ,…の時間的順序を説明する図である。It is a figure explaining the time order of image frame F (n-2), F (n-1), F (n), F (n + 1), ... which comprises a moving image. 画像フレームF(n)中の第1エリアおよび第2エリアを説明する図である。It is a figure explaining the 1st area and 2nd area in image frame F (n). 画像信号処理部20における画像フレームF(n)の入力タイミングおよび出力タイミングを示す図である。It is a figure which shows the input timing and output timing of image frame F (n) in the image signal processing part 20. 本実施形態における特徴点抽出方法について説明する図である。It is a figure explaining the feature point extraction method in this embodiment. 本実施形態の手振れ補正処理装置10の動きベクトル検出部11の構成を示すブロック図である。It is a block diagram which shows the structure of the motion vector detection part 11 of the camera-shake correction processing apparatus 10 of this embodiment. 本実施形態の手振れ補正処理方法を説明するフローチャートである。It is a flowchart explaining the camera-shake correction processing method of this embodiment.

以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.

図1は、本実施形態の手振れ補正処理装置10を備えるカメラシステム1の構成を示す図である。カメラシステム1は、画像処理システム2,撮像部30および表示部40を備える。画像処理システム2は、手振れ補正処理装置10および画像信号処理部20を備える。また、手振れ補正処理装置10は、動きベクトル検出部11,補正量算出部12,画像切り出し処理部13,特徴点データメモリ14およびサーチデータメモリ15を含む。   FIG. 1 is a diagram illustrating a configuration of a camera system 1 including a camera shake correction processing device 10 according to the present embodiment. The camera system 1 includes an image processing system 2, an imaging unit 30, and a display unit 40. The image processing system 2 includes a camera shake correction processing device 10 and an image signal processing unit 20. Further, the camera shake correction processing device 10 includes a motion vector detection unit 11, a correction amount calculation unit 12, an image cutout processing unit 13, a feature point data memory 14, and a search data memory 15.

撮像部30は、被写体の光学像を電気信号に変換して出力するものであって、動画像を構成する複数の画像フレームそれぞれの画素データを手振れ補正処理装置10および画像信号処理部20へ出力する。撮像部30として例えばCMOSイメージセンサやCCDイメージセンサを含むカメラが用いられる。   The imaging unit 30 converts an optical image of a subject into an electrical signal and outputs the electrical signal, and outputs pixel data of each of a plurality of image frames constituting a moving image to the camera shake correction processing device 10 and the image signal processing unit 20. To do. For example, a camera including a CMOS image sensor or a CCD image sensor is used as the imaging unit 30.

画像信号処理部20は、撮像部30から出力された各画像フレームの画素データを入力し、各画像フレームの画素データについて手振れ補正処理とは異なる各種の画像処理(例えば、白バランス調整、ノイズ除去、ガンマ補正、色空間変換など)を行って、その処理後の画像フレームの画素データを出力する。   The image signal processing unit 20 receives the pixel data of each image frame output from the imaging unit 30, and performs various types of image processing (for example, white balance adjustment, noise removal) different from the camera shake correction processing for the pixel data of each image frame. , Gamma correction, color space conversion, etc.) and output pixel data of the processed image frame.

手振れ補正処理装置10は、複数の画像フレームからなる動画像における手振れの影響を補正処理する。具体的には、手振れ補正処理装置10は、撮像部30から出力された各画像フレームの画素データを入力して、これに基づいて画像の動きベクトル(方向および量)を検出し、この検出した動きベクトルに基づいて画像フレームについての切り出し位置を算出する。そして、手振れ補正処理装置10は、この算出された切り出し位置に基づいて、画像信号処理部20から出力された画像フレームの画素データのうち部分範囲の画素データを切り出して、その切り出し後の画素データを表示部40へ出力する。   The camera shake correction processing apparatus 10 corrects the influence of camera shake in a moving image composed of a plurality of image frames. Specifically, the camera shake correction processing apparatus 10 receives pixel data of each image frame output from the imaging unit 30, detects a motion vector (direction and amount) of the image based on the pixel data, and detects the detected motion vector. Based on the motion vector, the cutout position for the image frame is calculated. Then, based on the calculated cutout position, the camera shake correction processing apparatus 10 cuts out the pixel data of the partial range from the pixel data of the image frame output from the image signal processing unit 20, and the pixel data after the cutout Is output to the display unit 40.

表示部40は、画像信号処理部20による各種画像処理および手振れ補正処理装置10による手振れ補正処理がなされた各画像フレームの画素データを入力して、動画像を表示する。   The display unit 40 inputs pixel data of each image frame that has been subjected to various types of image processing by the image signal processing unit 20 and camera shake correction processing by the camera shake correction processing device 10, and displays a moving image.

手振れ補正処理装置10の詳細は以下のとおりである。なお、以下では、図2に示されるように、動画像を構成する複数の画像フレームのうち第nの画像フレームをF(n)と表し、画像フレームF(n-1)から画像フレームF(n)までの期間をT(n)と表す。画像フレームF(n-2),F(n-1),F(n),F(n+1),…の順に一定時間間隔で撮像部30から画素データが出力される。また、以下では、第nの画像フレームF(n)の画素データについて手振れ補正処理をする場合について説明する。   The details of the camera shake correction processing apparatus 10 are as follows. In the following, as shown in FIG. 2, the n-th image frame among the plurality of image frames constituting the moving image is represented as F (n), and the image frame F (n−1) to the image frame F ( The period up to n) is represented as T (n). Pixel data is output from the imaging unit 30 at regular time intervals in the order of image frames F (n-2), F (n-1), F (n), F (n + 1),. In the following, a case where the camera shake correction process is performed on the pixel data of the nth image frame F (n) will be described.

動きベクトル検出部11は、画像フレームF(n)の画素データを入力する際の初期の所定期間に入力した画像フレームF(n)中の第1エリアの画素データと、画像フレームF(n-1)中の第1エリアの特徴点に関する情報とに基づいて、期間T(n)の画像の動きベクトルを検出する。   The motion vector detection unit 11 receives the pixel data of the first area in the image frame F (n) input during the initial predetermined period when the pixel data of the image frame F (n) is input, and the image frame F (n− 1) The motion vector of the image in the period T (n) is detected based on the information on the feature points in the first area.

特徴点データメモリ14は、動きベクトル検出部11が画像の動きベクトルを検出する際に抽出した画像フレームF(n)中の特徴点に関するデータを保存する。サーチデータメモリ15は、動きベクトル検出部11が画像の動きベクトルを検出する際に用いる画像フレームF(n)中の第1エリアの特徴点を含む画素ブロックの画素データを保存する。   The feature point data memory 14 stores data relating to feature points in the image frame F (n) extracted when the motion vector detecting unit 11 detects a motion vector of the image. The search data memory 15 stores pixel data of pixel blocks including feature points of the first area in the image frame F (n) used when the motion vector detection unit 11 detects a motion vector of the image.

動きベクトル検出部11は、特徴点データメモリ14に保存された画像フレームF(n-1)中の特徴点に関するデータと、サーチデータメモリ15に保存された画像フレームF(n)中の第1エリアの画素データとに基づいて、期間T(n)の画像の動きベクトルを検出する。   The motion vector detection unit 11 includes data relating to feature points in the image frame F (n−1) stored in the feature point data memory 14 and the first in the image frame F (n) stored in the search data memory 15. Based on the pixel data of the area, the motion vector of the image in the period T (n) is detected.

なお、動きベクトル検出部11は、各画像フレームF(n)の画素データを入力する際の初期の所定期間に入力した画像フレームF(n)中の第1エリアの特徴点に加えて、第1エリア以外の第2エリアの特徴点をも利用して、画像の動きベクトルを検出してもよい。   In addition to the feature points of the first area in the image frame F (n) input in the initial predetermined period when the pixel data of each image frame F (n) is input, the motion vector detection unit 11 The motion vector of the image may be detected using the feature points in the second area other than the first area.

補正量算出部12は、動きベクトル検出部11により検出された画像の動きベクトルに基づいて画像フレームF(n)についての切り出し位置を算出する。そして、画像切り出し処理部13は、補正量算出部12により算出された切り出し位置に基づいて、画像信号処理部20から出力された画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力する。   The correction amount calculation unit 12 calculates a cutout position for the image frame F (n) based on the motion vector of the image detected by the motion vector detection unit 11. Then, the image cutout processing unit 13 cuts out the pixel data of the partial range in the image frame F (n) output from the image signal processing unit 20 based on the cutout position calculated by the correction amount calculation unit 12, The extracted pixel data is output.

図3は、画像フレームF(n)中の第1エリアおよび第2エリアを説明する図である。撮像部30から各画像フレームF(n)の画素データがラスタスキャン順で出力されて、該画像フレームF(n)の画素データが手振れ補正処理装置10に入力されるものとする。すなわち、同図において、画像フレームF(n)の上から順に各行の画素データが手振れ補正処理装置10に入力され、各行においては左から順に画素データが手振れ補正処理装置10に入力されるものとする。このとき、画像フレームF(n)中の上部エリアを第1エリアF1(n)とすることができ、また、画像フレームF(n)中の中央部エリアを第2エリアF2(n)とすることができる。   FIG. 3 is a diagram illustrating the first area and the second area in the image frame F (n). It is assumed that the pixel data of each image frame F (n) is output from the imaging unit 30 in the raster scan order, and the pixel data of the image frame F (n) is input to the camera shake correction processing device 10. That is, in the figure, pixel data of each row is input to the camera shake correction processing device 10 in order from the top of the image frame F (n), and pixel data is input to the camera shake correction processing device 10 in order from the left in each row. To do. At this time, the upper area in the image frame F (n) can be the first area F1 (n), and the central area in the image frame F (n) is the second area F2 (n). be able to.

図4は、画像信号処理部20における画像フレームF(n)の入力タイミングおよび出力タイミングを示す図である。画像信号処理部20が行う画像処理は、ノイズ除去処理に代表されるようなフィルタ処理を含み、画像フレームF(n)中の数行分の画素データを内部に保持することにより行われる。したがって、画像信号処理部20からの画像フレームF(n)の出力タイミングは、画像信号処理部20への該画像フレームF(n)の入力タイミングに対し数行分の遅延を有する。   FIG. 4 is a diagram illustrating the input timing and output timing of the image frame F (n) in the image signal processing unit 20. The image processing performed by the image signal processing unit 20 includes filter processing as typified by noise removal processing, and is performed by internally holding several rows of pixel data in the image frame F (n). Therefore, the output timing of the image frame F (n) from the image signal processing unit 20 has a delay of several lines with respect to the input timing of the image frame F (n) to the image signal processing unit 20.

そこで、補正量算出部12は、画像信号処理部20が画像フレームF(n)について画像処理後の画素データを出力するときまでに該画像フレームF(n)についての切り出し位置を算出するのが好適である。そして、画像切り出し処理部13は、補正量算出部12により算出された切り出し位置に基づいて、画像信号処理部から出力された該画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力するのが好適である。   Therefore, the correction amount calculation unit 12 calculates the cutout position for the image frame F (n) until the image signal processing unit 20 outputs the pixel data after image processing for the image frame F (n). Is preferred. Then, the image cutout processing unit 13 cuts out pixel data of a partial range in the image frame F (n) output from the image signal processing unit based on the cutout position calculated by the correction amount calculation unit 12, It is preferable to output the pixel data after the cutout.

次に、本実施形態における特徴点抽出方法について説明する。画像フレームF(n-1)から画像フレームF(n)までの期間T(n)の画像の動きベクトルを検出するために、画像の特徴点を用いることができる。画像の特徴点を用いることにより、動きベクトルを求める際の計算量を低減することができ、必要なメモリ容量をも低減することができ、また、画像の動きベクトルを高精度に検出することができる。   Next, the feature point extraction method in this embodiment will be described. In order to detect a motion vector of an image during a period T (n) from the image frame F (n−1) to the image frame F (n), the feature point of the image can be used. By using the feature points of the image, the amount of calculation when obtaining the motion vector can be reduced, the required memory capacity can be reduced, and the motion vector of the image can be detected with high accuracy. it can.

画像中の例えばエッジ部やコーナー部を特徴点として抽出する。画像中の隣接画素間の画素データの微分やHarrisオペレータによる評価により、特徴点を抽出することができる。また、その微分値やHarrisオペレータ評価値を該特徴点の特徴量とすることができる。なお、Harrisオペレータは、画像中の各画素データの間の相関性に基づいて特徴点を抽出する手法であって、画像中のエッジやコーナー等の特徴点において相関出力値が大きくなることを利用して特徴点を抽出することができる。   For example, edge portions and corner portions in the image are extracted as feature points. Feature points can be extracted by differentiating pixel data between adjacent pixels in the image or by evaluation by a Harris operator. Further, the differential value or the Harris operator evaluation value can be used as the feature amount of the feature point. The Harris operator is a technique for extracting feature points based on the correlation between pixel data in the image, and uses the fact that the correlation output value becomes large at the feature points such as edges and corners in the image. Thus, feature points can be extracted.

本実施形態では、画像フレームF(n)中の第1エリアF1(n)において複数個の特徴点を抽出することを基本とする。画像フレームF(n)中の第2エリアF2(n)においても複数個の特徴点を抽出してもよい。画像フレームF(n)中の第1エリアF1(n)の大きさ及び特徴点の抽出個数は、図4に示された画像信号処理部20における画像フレームF(n)の入力タイミングから出力タイミングまでの遅延時間に対応することができるように設定されるのが好ましい。画像フレームF(n)中の第1エリアF1(n)の大きさは例えば10行分とすることができる。   The present embodiment is basically based on extracting a plurality of feature points in the first area F1 (n) in the image frame F (n). A plurality of feature points may be extracted also in the second area F2 (n) in the image frame F (n). The size of the first area F1 (n) in the image frame F (n) and the number of extracted feature points are determined from the input timing of the image frame F (n) in the image signal processing unit 20 shown in FIG. It is preferable that the delay time is set so as to correspond to the delay time up to. The size of the first area F1 (n) in the image frame F (n) can be, for example, 10 lines.

特徴点の抽出個数が少なすぎると、特徴点の動きベクトルに基づいて算出される画像の動きベクトルの精度が低下する。一方、特徴点の抽出個数が多すぎると、特徴点データメモリ14およびサーチデータメモリ15それぞれの必要容量が大きくなる。これらの観点から特徴点の抽出個数は適当な数に設定される。例えば、第1エリアF1(n)における特徴点の抽出個数を10とし、第2エリアF2(n)における特徴点の抽出個数を50とする。特徴量が大きいものを選んで特徴点を抽出する。また、第1エリアF1(n)および第2エリアF2(n)それぞれにおいて、選択される特徴点が局所領域に偏らないようにするのが好ましく、その為に各エリアをさらに細区分して、区分された各領域内で1つの特徴点を選択するのが好ましい。   When the number of feature points extracted is too small, the accuracy of the motion vector of the image calculated based on the motion vector of the feature point is lowered. On the other hand, if the number of feature points extracted is too large, the required capacity of each of the feature point data memory 14 and the search data memory 15 increases. From these viewpoints, the number of extracted feature points is set to an appropriate number. For example, the number of feature points extracted in the first area F1 (n) is 10, and the number of feature points extracted in the second area F2 (n) is 50. A feature point is extracted by selecting a feature having a large feature amount. In addition, in each of the first area F1 (n) and the second area F2 (n), it is preferable that the selected feature points are not biased to the local region. For this purpose, each area is further subdivided, Preferably, one feature point is selected in each segmented area.

図5は、本実施形態における特徴点抽出方法について説明する図である。同図には、第1エリアF1(n)および第2エリアF2(n)を含む画像フレームF(n)に加えて、画像フレームF(n-1)中の特徴点Pを含む画素ブロックBp(n-1)、および、画像フレームF(n)中の該特徴点Pの座標値に対応する位置を含む画素ブロックBs(n) も示されている。画素ブロックBp(n-1)は特徴点Pを中心とする例えば5×5画素のブロックであって、画素ブロックBp(n-1)の画素データは特徴点データメモリ14により保持される。画素ブロックBs(n)は特徴点Pの対応位置を中心とする例えば横13画素×縦9画素のブロックであって、画素ブロックBs(n)の画素データはサーチデータメモリ15により保持される。   FIG. 5 is a diagram for explaining a feature point extraction method according to the present embodiment. In the figure, in addition to the image frame F (n) including the first area F1 (n) and the second area F2 (n), the pixel block Bp including the feature point P in the image frame F (n-1). A pixel block Bs (n) including a position corresponding to the coordinate value of the feature point P in the image frame F (n) is also shown. The pixel block Bp (n−1) is a block of, for example, 5 × 5 pixels centered on the feature point P, and the pixel data of the pixel block Bp (n−1) is held by the feature point data memory 14. The pixel block Bs (n) is, for example, a block of horizontal 13 pixels × vertical 9 pixels centered on the corresponding position of the feature point P, and the pixel data of the pixel block Bs (n) is held by the search data memory 15.

動きベクトル検出部11は、画像フレームF(n-1)中の特徴点Pを含む画素ブロックBp(n-1)の画素データと、画像フレームF(n)中の該特徴点Pの対応位置を含む画素ブロックBs(n)の画素データとに基づいて、特徴点Pの動きベクトルを検出する。具体的には、動きベクトル検出部11は、一般に知られている画像間の類似性を評価する手法であるブロックマッチング法を用いる。すなわち、動きベクトル検出部11は、画素ブロックBp(n-1)をベクトル(Vx,Vy)だけ移動させたものと画素ブロックBs(n)とから、互いに対応する位置にある各画素データの差分の絶対値和SAD(Sum of Absolute Difference)を両者間の類似度の評価値として求める。そして、動きベクトル検出部11は、Vx,Vyを画素単位で様々な値に設定して絶対値和SADを求めて、その絶対値和SADが最小となるときのベクトル(Vx,Vy)を特徴点Pの動きベクトルとする。   The motion vector detection unit 11 detects the pixel data of the pixel block Bp (n-1) including the feature point P in the image frame F (n-1) and the corresponding position of the feature point P in the image frame F (n). The motion vector of the feature point P is detected based on the pixel data of the pixel block Bs (n) including Specifically, the motion vector detection unit 11 uses a block matching method that is a generally known method for evaluating similarity between images. That is, the motion vector detection unit 11 calculates the difference between pixel data at positions corresponding to each other from the pixel block Bs (n) obtained by moving the pixel block Bp (n−1) by the vector (Vx, Vy). The absolute value sum SAD (Sum of Absolute Difference) is obtained as an evaluation value of the similarity between the two. Then, the motion vector detection unit 11 sets Vx and Vy to various values for each pixel to obtain an absolute value sum SAD, and features a vector (Vx, Vy) when the absolute value sum SAD is minimized. The motion vector of the point P is assumed.

図6は、本実施形態の手振れ補正処理装置10の動きベクトル検出部11の構成を示すブロック図である。動きベクトル検出部11は、第1抽出部51,第1保存部52,第1検出部53および第1算出部54を含み、これらにより第1エリアF1(n)の画素データの処理を行う。好適には、動きベクトル検出部11は、第2抽出部61,第2保存部62,第2検出部63および第2算出部64を更に含み、これらにより第2エリアF2(n)の画素データの処理を行う。   FIG. 6 is a block diagram illustrating a configuration of the motion vector detection unit 11 of the camera shake correction processing apparatus 10 according to the present embodiment. The motion vector detection unit 11 includes a first extraction unit 51, a first storage unit 52, a first detection unit 53, and a first calculation unit 54, which process pixel data of the first area F1 (n). Preferably, the motion vector detection unit 11 further includes a second extraction unit 61, a second storage unit 62, a second detection unit 63, and a second calculation unit 64, whereby the pixel data of the second area F2 (n) Perform the process.

なお、図6はベクトル検出部11の機能ブロックを示している。各画像フレームF(n)の第1エリアF1(n)の画素データの処理の後に第2エリアF2(n)の画素データの処理が行われるので、第1抽出部51と第2抽出部61とは共通の回路により実現されてもよく、第1検出部53と第2検出部63とは共通の回路により実現されてもよく、また、第1算出部54と第2算出部64とは共通の回路により実現されてもよい。   FIG. 6 shows functional blocks of the vector detection unit 11. Since the pixel data of the second area F2 (n) is processed after the pixel data of the first area F1 (n) of each image frame F (n), the first extractor 51 and the second extractor 61 are processed. May be realized by a common circuit, the first detection unit 53 and the second detection unit 63 may be realized by a common circuit, and the first calculation unit 54 and the second calculation unit 64 are It may be realized by a common circuit.

第1抽出部51は、各画像フレームF(n)中の第1エリアF1(n)における複数の特徴点を抽出する。第1保存部52は、第1抽出部51により抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて特徴点データメモリ14に保存する。好適には、第1保存部52は、第1抽出部52により抽出された各特徴点の特徴量をも特徴点データメモリ14に保存する。   The first extraction unit 51 extracts a plurality of feature points in the first area F1 (n) in each image frame F (n). The first storage unit 52 stores the coordinate value of each feature point extracted by the first extraction unit 51 and the pixel data of the pixel block including the feature point in the feature point data memory 14 in association with each other. Preferably, the first storage unit 52 also stores the feature amount of each feature point extracted by the first extraction unit 52 in the feature point data memory 14.

第1検出部53は、第1保存部52により特徴点データメモリ14に保存された画像フレームF(n-1)中の第1エリアF1(n-1)の各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第1エリアF1(n-1)の特徴点を含む画素ブロックBp(n-1)の画素データと、画像フレームF(n)中の第1エリアF1(n)において該特徴点の座標値に対応する位置を含む画素ブロックBs(n)の画素データとに基づいて、期間T(n)の第1エリアの各特徴点の動きベクトルを検出する。   The first detection unit 53 includes the coordinate value of each feature point of the first area F1 (n-1) in the image frame F (n-1) stored in the feature point data memory 14 by the first storage unit 52 and the coordinate value. Pixel data of a pixel block including a feature point, and pixel data of a pixel block Bp (n-1) including a feature point of the first area F1 (n-1) in the image frame F (n-1); Based on the pixel data of the pixel block Bs (n) including the position corresponding to the coordinate value of the feature point in the first area F1 (n) in the image frame F (n), the first in the period T (n). A motion vector of each feature point in the area is detected.

第1算出部54は、第1検出部53により検出された期間T(n)の第1エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する。好適には、第1算出部54は、第1検出部51により検出された各特徴点の動きベクトルに対して、第1保存部52により保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出する。   The first calculator 54 calculates a motion vector of the image in the period T (n) based on the motion vector of each feature point in the first area in the period T (n) detected by the first detector 53. Preferably, the first calculation unit 54 weights the motion vectors of the feature points detected by the first detection unit 51 with the feature amounts of the feature points stored by the first storage unit 52. Then, the motion vector of the image in the period T (n) is calculated.

第1算出部54により算出される期間T(n)の画像の動きベクトル(V1x,V1y)は下記(1)式で表される。ここで、V1x(i)は第1エリアの特徴点iにおける動きベクトルの水平成分であり、V1y(i)は第1エリアの特徴点iにおける動きベクトルの垂直成分であり、W1(i)は第1エリアの特徴点iの特徴量である。   The motion vector (V1x, V1y) of the image in the period T (n) calculated by the first calculator 54 is expressed by the following equation (1). Here, V1x (i) is the horizontal component of the motion vector at the feature point i in the first area, V1y (i) is the vertical component of the motion vector at the feature point i in the first area, and W1 (i) is This is the feature amount of the feature point i in the first area.

第2抽出部61は、各画像フレームF(n)中の第2エリアF2(n)における複数の特徴点を抽出する。第2保存部62は、第2抽出部61により抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて特徴点データメモリ14に保存する。好適には、第2保存部62は、第2抽出部61により抽出された各特徴点の特徴量をも特徴点データメモリ14に保存する。   The second extraction unit 61 extracts a plurality of feature points in the second area F2 (n) in each image frame F (n). The second storage unit 62 stores the coordinate values of the feature points extracted by the second extraction unit 61 in association with the pixel data of the pixel block including the feature points in the feature point data memory 14. Preferably, the second storage unit 62 also stores the feature amount of each feature point extracted by the second extraction unit 61 in the feature point data memory 14.

第2検出部63は、第2保存部62により特徴点データメモリ14に保存された画像フレームF(n-1)中の第2エリアF2(n-1)の各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第2エリアF2(n-1)の特徴点を含む画素ブロックBp(n-1)の画素データと、画像フレームF(n)中の第2エリアF2(n)において該特徴点の座標値に対応する位置を含む画素ブロックBs(n)の画素データとに基づいて、期間T(n)の第2エリアの各特徴点の動きベクトルを検出する。   The second detection unit 63 includes the coordinate values of the feature points of the second area F2 (n-1) in the image frame F (n-1) stored in the feature point data memory 14 by the second storage unit 62 and the coordinate values. Pixel data of a pixel block including a feature point, and pixel data of a pixel block Bp (n-1) including a feature point of the second area F2 (n-1) in the image frame F (n-1); Based on the pixel data of the pixel block Bs (n) including the position corresponding to the coordinate value of the feature point in the second area F2 (n) in the image frame F (n), the second area T (n). A motion vector of each feature point in the area is detected.

第2算出部64は、第2検出部63により検出された期間T(n)の第2エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する。好適には、第2算出部64は、第2検出部61により検出された各特徴点の動きベクトルに対して、第2保存部62により保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出する。   The second calculator 64 calculates the motion vector of the image in the period T (n) based on the motion vector of each feature point in the second area in the period T (n) detected by the second detector 63. Preferably, the second calculation unit 64 weights the motion vectors of the feature points detected by the second detection unit 61 with the feature amounts of the feature points stored by the second storage unit 62. Then, the motion vector of the image in the period T (n) is calculated.

第2算出部64により算出される期間T(n)の画像の動きベクトル(V2x,V2y)は下記(2)式で表される。ここで、V2x(i)は第2エリアの特徴点iにおける動きベクトルの水平成分であり、V2y(i)は第2エリアの特徴点iにおける動きベクトルの垂直成分であり、W2(i)は第2エリアの特徴点iの特徴量である。   The motion vector (V2x, V2y) of the image in the period T (n) calculated by the second calculator 64 is expressed by the following equation (2). Here, V2x (i) is the horizontal component of the motion vector at the feature point i in the second area, V2y (i) is the vertical component of the motion vector at the feature point i in the second area, and W2 (i) is This is the feature amount of the feature point i in the second area.

補正量算出部12は、第1算出部54により算出された期間T(n)の画像の動きベクトル(V1x,V1y)に基づいて、画像フレームF(n)についての切り出し位置を算出する。好適には、補正量算出部12は、第1算出部54により算出された期間T(n)の画像の動きベクトル(V1x,V1y)と、第2算出部64により算出された期間T(n-1)の画像の動きベクトル(V2x,V2y)とに基づいて、画像フレームF(n)についての切り出し位置を算出する。更に好適には、補正量算出部12は、第1算出部54により算出された期間T(n)の画像の動きベクトル(V1x,V1y)と、第2算出部64により算出された期間T(n-1)の画像の動きベクトル(V2x,V2y)とに対して重み付けを行って画像の動きベクトル(Mx,My)を求め、これに基づいて画像フレームF(n)についての切り出し位置を算出する。   The correction amount calculation unit 12 calculates the cutout position for the image frame F (n) based on the motion vector (V1x, V1y) of the image in the period T (n) calculated by the first calculation unit 54. Preferably, the correction amount calculation unit 12 includes the motion vector (V1x, V1y) of the image in the period T (n) calculated by the first calculation unit 54 and the period T (n calculated by the second calculation unit 64. Based on the motion vector (V2x, V2y) of the image of (-1), the cut-out position for the image frame F (n) is calculated. More preferably, the correction amount calculation unit 12 includes the motion vector (V1x, V1y) of the image in the period T (n) calculated by the first calculation unit 54 and the period T ( The image motion vector (Mx, My) is obtained by weighting the image motion vector (V2x, V2y) of n-1), and the cutout position for the image frame F (n) is calculated based on this. To do.

補正量算出部12により算出される画像の動きベクトル(Mx,My)は下記(3)式で表される。ここで、ΣW1(i)およびW2それぞれは重み付けの係数である。重み付け係数W2は、固定値であってもよく、外部から設定可能であってもよい。重み付け係数W2は、kΣW2(i)であってもよく、係数kが外部から設定可能であってもよい。ΣW1(i)に替えて固定値が用いられてもよい。   The motion vector (Mx, My) of the image calculated by the correction amount calculation unit 12 is expressed by the following equation (3). Here, ΣW1 (i) and W2 are weighting coefficients. The weighting coefficient W2 may be a fixed value or may be set from the outside. The weighting coefficient W2 may be kΣW2 (i), and the coefficient k may be set from the outside. A fixed value may be used instead of ΣW1 (i).

この(3)式が表していることは以下のとおりである。本実施形態における手振れ補正処理では、画像フレーム中の第1エリアの特徴点の動きベクトルに基づいて画像の動きベクトルを求めることを基本とする。しかし、画像フレームの画像の絵柄によっては第1エリアのみでは正確な動きベクトルを検出することができない場合がある。代表的な例としては、第1エリア(例えば画面上部)の絵柄が極端に平坦であって、特徴をもった特徴点が第1エリアにおいて検出されない場合である。このような画像に対してブロックマッチング処理を行うと、画像の特徴よりランダムなノイズ成分に対してマッチングを行ってしまう可能性が高く、手振れ補正処理という目的に対して不適切な動きベクトルが得られてしまう場合がある。   The expression (3) represents as follows. In the camera shake correction process according to the present embodiment, the motion vector of the image is basically obtained based on the motion vector of the feature point of the first area in the image frame. However, an accurate motion vector may not be detected only in the first area depending on the image pattern of the image frame. A typical example is a case where the pattern of the first area (for example, the upper part of the screen) is extremely flat and a feature point having a feature is not detected in the first area. If block matching processing is performed on such an image, there is a high possibility that matching will be performed on random noise components rather than image features, and motion vectors inappropriate for the purpose of camera shake correction processing will be obtained. You might get lost.

このような場合、第1算出部54により算出された期間T(n)の画像の動きベクトル(V1x,V1y)より、時刻は1フレーム分だけ過去とはなるが第2算出部64により算出された期間T(n-1)の画像の動きベクトル(V2x,V2y)のほうが、確率的には真の動きベクトルに近い値をとる可能性が高い。そこで、本実施形態では、画像フレームF(n-1)の第2エリアF2(n-1)で検出した動きベクトルの値を加味する意図で、特徴量で重みづけを行う。   In such a case, from the motion vector (V1x, V1y) of the image of the period T (n) calculated by the first calculation unit 54, the time is calculated by the second calculation unit 64 although it is past by one frame. The motion vector (V2x, V2y) of the image during the period T (n-1) is more likely to take a value close to the true motion vector in terms of probability. Therefore, in the present embodiment, weighting is performed with the feature amount with the intention of taking into account the value of the motion vector detected in the second area F2 (n-1) of the image frame F (n-1).

上記(3)式によれば、第1エリアの絵柄が平坦な場合には、上式の特徴量W1(i)が小さい値をとり、画像フレームF(n)の第1エリアF1(n)で検出した動きベクトルの重みと比べて、画像フレームF(n-1)の第2エリアF2(n-1)で検出した動きベクトルの重みが相対的に大きくなる。重み付け係数W2は実際のシステム上で適当に決定されればよい。   According to the above equation (3), when the pattern of the first area is flat, the feature amount W1 (i) in the above equation takes a small value and the first area F1 (n) of the image frame F (n). The weight of the motion vector detected in the second area F2 (n-1) of the image frame F (n-1) is relatively larger than the weight of the motion vector detected in step 1. The weighting factor W2 may be determined appropriately on an actual system.

次に、本実施形態の手振れ補正処理装置10の動作について説明するとともに、本実施形態の手振れ補正処理方法について説明する。図7は、本実施形態の手振れ補正処理方法を説明するフローチャートである。ここでは、手振れ補正処理装置10に画像フレームF(n)の画素データが入力されたときに行われる処理を説明する。本実施形態の手振れ補正処理方法は、ステップS10〜S19を含む動きベクトル検出ステップ,補正量算出ステップS20および画像切り出し処理ステップS30を備える。   Next, the operation of the camera shake correction processing apparatus 10 of the present embodiment will be described, and the camera shake correction processing method of the present embodiment will be described. FIG. 7 is a flowchart for explaining the camera shake correction processing method of the present embodiment. Here, a process performed when the pixel data of the image frame F (n) is input to the camera shake correction processing apparatus 10 will be described. The camera shake correction processing method of this embodiment includes a motion vector detection step including steps S10 to S19, a correction amount calculation step S20, and an image cutout processing step S30.

ステップS10では、撮像部30から出力された画像フレームF(n)の画素データがラスタスキャン順で動きベクトル検出部11に入力される。画像フレームF(n)の入力期間のうちの初期の所定期間に動きベクトル検出部11に入力された第1エリアF1(n)の画素データは、第1抽出部51および第1検出部53に入力されて、ステップS11〜S14の処理が行われる。   In step S10, the pixel data of the image frame F (n) output from the imaging unit 30 is input to the motion vector detection unit 11 in raster scan order. The pixel data of the first area F1 (n) input to the motion vector detection unit 11 in the initial predetermined period of the input period of the image frame F (n) is sent to the first extraction unit 51 and the first detection unit 53. As a result, the processes of steps S11 to S14 are performed.

第1抽出ステップS11では、第1抽出部51により、画像フレームF(n)中の第1エリアF1(n)における複数の特徴点が抽出される。第1保存ステップS12では、第1保存部52により、第1抽出ステップS11で抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データと該特徴点の特徴量とが対応付けられて特徴点データメモリ14に保存される。   In the first extraction step S11, the first extraction unit 51 extracts a plurality of feature points in the first area F1 (n) in the image frame F (n). In the first storage step S12, the coordinate value of each feature point extracted in the first extraction step S11 by the first storage unit 52, the pixel data of the pixel block including the feature point, and the feature amount of the feature point correspond to each other. Attached and stored in the feature point data memory 14.

第1検出ステップS13では、第1検出部53により、第1保存ステップS12で特徴点データメモリ14に保存された画像フレームF(n-1)中の第1エリアF1(n-1)の各特徴点の座標値と該特徴点を含む画素ブロックの画素データとが読み出され、画像フレームF(n-1)中の第1エリアF1(n-1)の特徴点を含む画素ブロックBp(n-1)の画素データと、画像フレームF(n)中の第1エリアF1(n)において該特徴点の座標値に対応する位置を含む画素ブロックBs(n)の画素データとに基づいて、期間T(n)の第1エリアの各特徴点の動きベクトルが検出される。   In the first detection step S13, each of the first areas F1 (n−1) in the image frame F (n−1) stored in the feature point data memory 14 in the first storage step S12 by the first detection unit 53. The coordinate value of the feature point and the pixel data of the pixel block including the feature point are read out, and the pixel block Bp (including the feature point of the first area F1 (n-1) in the image frame F (n-1) is read. based on the pixel data of (n-1) and the pixel data of the pixel block Bs (n) including the position corresponding to the coordinate value of the feature point in the first area F1 (n) in the image frame F (n). The motion vector of each feature point in the first area in the period T (n) is detected.

第1算出ステップS14では、第1算出部54により、第1保存ステップS12で特徴点データメモリ14に保存された画像フレームF(n-1)中の第1エリアF1(n-1)の各特徴点の特徴量が読み出され、第1検出ステップS13で検出された各特徴点の動きベクトルに対して各特徴点の特徴量で重み付けが行われて、期間T(n)の画像の動きベクトル(V1x,V1y)が算出される(上記(1)式)。   In the first calculation step S14, each of the first areas F1 (n-1) in the image frame F (n-1) stored in the feature point data memory 14 in the first storage step S12 by the first calculation unit 54. The feature amount of the feature point is read out, the motion vector of each feature point detected in the first detection step S13 is weighted with the feature amount of each feature point, and the motion of the image in the period T (n) A vector (V1x, V1y) is calculated (the above equation (1)).

画像フレームF(n)の第1エリアF1(n)の画素データの後に動きベクトル検出部11に入力された第2エリアF2(n)の画素データは、第2抽出部61および第2検出部63に入力されて、ステップS16〜S19の処理が行われる。   The pixel data of the second area F2 (n) input to the motion vector detection unit 11 after the pixel data of the first area F1 (n) of the image frame F (n) is the second extraction unit 61 and the second detection unit. 63, the processes of steps S16 to S19 are performed.

第2抽出ステップS16では、第2抽出部61により、画像フレームF(n)中の第2エリアF2(n)における複数の特徴点が抽出される。第2保存ステップS17では、第2保存部62により、第2抽出ステップS16で抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データと該特徴点の特徴量とが対応付けられて特徴点データメモリ14に保存される。   In the second extraction step S16, the second extraction unit 61 extracts a plurality of feature points in the second area F2 (n) in the image frame F (n). In the second storage step S17, the coordinate value of each feature point extracted in the second extraction step S16 by the second storage unit 62, the pixel data of the pixel block including the feature point, and the feature amount of the feature point correspond to each other. Attached and stored in the feature point data memory 14.

第2検出ステップS18では、第2検出部63により、第2保存ステップS17で特徴点データメモリ14に保存された画像フレームF(n-1)中の第2エリアF2(n-1)の各特徴点の座標値と該特徴点を含む画素ブロックの画素データとが読み出され、画像フレームF(n-1)中の第2エリアF2(n-1)の特徴点を含む画素ブロックBp(n-1)の画素データと、画像フレームF(n)中の第2エリアF2(n)において該特徴点の座標値に対応する位置を含む画素ブロックBs(n)の画素データとに基づいて、期間T(n)の第2エリアの各特徴点の動きベクトルが検出される。   In the second detection step S18, each of the second areas F2 (n-1) in the image frame F (n-1) stored in the feature point data memory 14 in the second storage step S17 by the second detection unit 63. The coordinate value of the feature point and the pixel data of the pixel block including the feature point are read, and the pixel block Bp () including the feature point of the second area F2 (n-1) in the image frame F (n-1) is read. n-1) pixel data and pixel data of the pixel block Bs (n) including the position corresponding to the coordinate value of the feature point in the second area F2 (n) in the image frame F (n). The motion vector of each feature point in the second area in the period T (n) is detected.

第2算出ステップS19では、第2算出部64により、第2保存ステップS17で特徴点データメモリ14に保存された画像フレームF(n-1)中の第2エリアF2(n-1)の各特徴点の特徴量が読み出され、第2検出ステップS18で検出された各特徴点の動きベクトルに対して各特徴点の特徴量で重み付けが行われて、期間T(n)の画像の動きベクトル(V2x,V2y)が算出される(上記(2)式)。   In the second calculation step S19, each of the second areas F2 (n-1) in the image frame F (n-1) stored in the feature point data memory 14 in the second storage step S17 by the second calculation unit 64. The feature amount of the feature point is read out, the motion vector of each feature point detected in the second detection step S18 is weighted with the feature amount of each feature point, and the motion of the image in the period T (n) A vector (V2x, V2y) is calculated (the above equation (2)).

第1抽出ステップS11および第1保存ステップS12と、第1検出ステップS13および第1算出ステップS14とは、並列処理が可能である。また、第2抽出ステップS16および第2保存ステップS17と、第2検出ステップS18および第2算出ステップS19とは、並列処理が可能である。第1算出ステップS14の後に補正量算出ステップS20が行われる。   The first extraction step S11 and the first storage step S12, and the first detection step S13 and the first calculation step S14 can be performed in parallel. Further, the second extraction step S16 and the second storage step S17, and the second detection step S18 and the second calculation step S19 can be performed in parallel. After the first calculation step S14, a correction amount calculation step S20 is performed.

補正量算出ステップS20では、補正量算出部12により、第1算出ステップS14で算出された期間T(n)の画像の動きベクトル(V1x,V1y)と、第2算出ステップS19で算出された期間T(n-1)の画像の動きベクトル(V2x,V2y)とに対して重み付けが行われて画像の動きベクトル(Mx,My)が求められ(上記(3)式)、これに基づいて画像フレームF(n)についての切り出し位置が算出される。   In the correction amount calculation step S20, the correction amount calculation unit 12 calculates the motion vector (V1x, V1y) of the image in the period T (n) calculated in the first calculation step S14 and the period calculated in the second calculation step S19. The motion vector (Mx, My) of the image is obtained by weighting the motion vector (V2x, V2y) of the image of T (n-1) (the above equation (3)), and the image is based on this. A cut-out position for the frame F (n) is calculated.

画像切り出し処理ステップS30では、画像切り出し処理部13により、補正量算出ステップS20で算出された切り出し位置に基づいて、画像信号処理部20による画像信号処理ステップで画像処理がなされて出力された画像フレームF(n)中の部分範囲の画素データが切り出されて、その切り出し後の画素データが出力される。   In the image cutout processing step S30, the image cutout processing unit 13 outputs an image frame that has been subjected to image processing in the image signal processing step by the image signal processing unit 20 based on the cutout position calculated in the correction amount calculation step S20. Pixel data in a partial range in F (n) is cut out, and the pixel data after the cut out is output.

そして、画像信号処理部20による各種画像処理および手振れ補正処理装置10による手振れ補正処理がなされた各画像フレームの画素データが表示部40に入力されて、手振れの影響が低減された動画像が表示部40により表示される。   Then, pixel data of each image frame that has been subjected to various types of image processing by the image signal processing unit 20 and camera shake correction processing by the camera shake correction processing device 10 is input to the display unit 40, and a moving image with reduced influence of camera shake is displayed. Displayed by the unit 40.

本実施形態では、特徴点を抽出して手振れ補正処理をする際に、動きベクトル検出部11の第1抽出部51および第2抽出部61が抽出した画像フレームF(n)中の特徴点に関するデータ(特徴点の座標値、特徴点の特徴量、特徴点を含む画素ブロックBp(n)の画素データ)を特徴点データメモリ14に保存するとともに、動きベクトル検出部11の第1検出部53および第2検出部63が画像の動きベクトルを検出する際に用いる画像フレームF(n)中の一部の画素ブロックBs(n)の画素データをサーチデータメモリ15に保存すればよいので、フレームメモリを使用することなく手振れ補正処理を行うことが可能である。したがって、本実施形態では、手振れ補正処理装置10のコストを抑えることが可能であり、カメラシステム1や画像処理システム2のコストをも抑えることが可能である。   In the present embodiment, the feature points in the image frame F (n) extracted by the first extraction unit 51 and the second extraction unit 61 of the motion vector detection unit 11 when the feature points are extracted and the camera shake correction process is performed. The data (the coordinate value of the feature point, the feature amount of the feature point, and the pixel data of the pixel block Bp (n) including the feature point) are stored in the feature point data memory 14 and the first detection unit 53 of the motion vector detection unit 11 is used. Since the pixel data of a part of the pixel blocks Bs (n) in the image frame F (n) used when the second detection unit 63 detects the motion vector of the image may be stored in the search data memory 15, the frame It is possible to perform camera shake correction processing without using a memory. Therefore, in this embodiment, it is possible to reduce the cost of the camera shake correction processing apparatus 10 and it is also possible to reduce the cost of the camera system 1 and the image processing system 2.

また、本実施形態では、画像フレームF(n)の第1エリアF1(n)についての第1算出部54による処理(第1算出ステップS14)が終了すると、補正量算出部12による処理(補正量算出ステップS20)が行われるので、画像信号処理部20が画像フレームF(n)について画像処理後の画素データを出力するときまでに補正量算出部12による切り出し位置算出の処理(補正量算出ステップS20)の終了が可能となる。しがたって、本実施形態では、カメラシステム1における動画像処理で必要とされるリアルタイム処理が可能である。   In the present embodiment, when the process by the first calculation unit 54 (first calculation step S14) for the first area F1 (n) of the image frame F (n) is completed, the process (correction) by the correction amount calculation unit 12 is completed. Since the amount calculation step S20) is performed, the correction amount calculation unit 12 performs the cut-out position calculation process (correction amount calculation) until the image signal processing unit 20 outputs pixel data after image processing for the image frame F (n). Step S20) can be terminated. Therefore, in the present embodiment, real-time processing required for moving image processing in the camera system 1 is possible.

1…カメラシステム、2…画像処理システム、10…手振れ補正処理装置、11…動きベクトル検出部、12…補正量算出部、13…画像切り出し処理部、14…特徴点データメモリ、15…サーチデータメモリ、20…画像信号処理部、30…撮像部、40…表示部、51…第1抽出部、52…第1保存部、53…第1検出部、54…第1算出部、61…第2抽出部、62…第2保存部、63…第2検出部、64…第2算出部。
DESCRIPTION OF SYMBOLS 1 ... Camera system, 2 ... Image processing system, 10 ... Camera shake correction processing apparatus, 11 ... Motion vector detection part, 12 ... Correction amount calculation part, 13 ... Image cut-out processing part, 14 ... Feature point data memory, 15 ... Search data Memory 20, image signal processing unit 30, imaging unit 40, display unit 51, first extraction unit 52, first storage unit 53, first detection unit 54, first calculation unit 61, first 2 extraction unit, 62 ... second storage unit, 63 ... second detection unit, 64 ... second calculation unit.

Claims (16)

複数の画像フレームからなる動画像における手振れの影響を補正処理する装置であって、
前記複数の画像フレームのうちの第nの画像フレームF(n)の画素データを入力する際の初期の所定期間に入力した画像フレームF(n)中の第1エリアの画素データと、画像フレームF(n)より前の第(n−1)の画像フレームF(n-1)中の第1エリアの特徴点に関する情報とに基づいて、画像フレームF(n-1)から画像フレームF(n)までの期間T(n)の画像の動きベクトルを検出する動きベクトル検出部と、
前記動きベクトル検出部により検出された画像の動きベクトルに基づいて画像フレームF(n)についての切り出し位置を算出する補正量算出部と、
前記補正量算出部により算出された切り出し位置に基づいて画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力する画像切り出し処理部と、
画像フレームF(n-1)中の特徴点に関する情報として、該特徴点の座標値を記憶するとともに、これと対応付けて該画像フレームのうち該特徴点を含む一部の画素ブロックの画素データを選択的に記憶する特徴点データメモリと、
画像フレームF(n)のうち前記特徴点の座標値に対応する位置を含む一部の画素ブロックの画素データを選択的に記憶するサーチデータメモリと、
を備え、
前記動きベクトル検出部が、前記特徴点データメモリに記憶された画像フレームF(n-1)中の特徴点に関する情報と、前記サーチデータメモリに記憶された画像フレームF(n)中の一部の画素ブロックの画素データとに基づいて、期間T(n)の画像の動きベクトルを検出する、
ことを特徴とする手振れ補正処理装置。
An apparatus for correcting the influence of camera shake in a moving image composed of a plurality of image frames,
The pixel data of the first area in the image frame F (n) input in the initial predetermined period when the pixel data of the nth image frame F (n) among the plurality of image frames is input, and the image frame Based on the information on the feature points of the first area in the (n-1) th image frame F (n-1) before F (n), the image frame F (n-1) to the image frame F ( a motion vector detection unit for detecting a motion vector of an image in a period T (n) until n);
A correction amount calculation unit that calculates a cutout position for the image frame F (n) based on the motion vector of the image detected by the motion vector detection unit;
An image cutout processing unit that cuts out pixel data of a partial range in the image frame F (n) based on the cutout position calculated by the correction amount calculation unit, and outputs the pixel data after the cutout;
The coordinate value of the feature point is stored as information on the feature point in the image frame F (n-1), and the pixel data of a part of the pixel block including the feature point in the image frame is associated with the feature point. A feature point data memory for selectively storing
A search data memory for selectively storing pixel data of some pixel blocks including a position corresponding to the coordinate value of the feature point in the image frame F (n);
Bei to give a,
The motion vector detection unit includes information on feature points in the image frame F (n−1) stored in the feature point data memory and a part of the image frame F (n) stored in the search data memory. A motion vector of an image in a period T (n) is detected based on pixel data of the pixel block of
And a camera shake correction processing apparatus.
前記動きベクトル検出部が、
各画像フレーム中の第1エリアにおける複数の特徴点を抽出する第1抽出部と、
前記第1抽出部により抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて前記特徴点データメモリに保存する第1保存部と、
前記第1保存部により前記特徴点データメモリに保存された画像フレームF(n-1)中の第1エリアの各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第1エリアの特徴点を含む画素ブロックの画素データと、前記サーチデータメモリに保存された画像フレームF(n)中の第1エリアにおいて該特徴点の座標値に対応する位置を含む画素ブロックの画素データとに基づいて、期間T(n)の第1エリアの各特徴点の動きベクトルを検出する第1検出部と、
前記第1検出部により検出された期間T(n)の第1エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する第1算出部と、
を含み、
前記補正量算出部が、前記第1算出部により算出された期間T(n)の画像の動きベクトルに基づいて、画像フレームF(n)についての切り出し位置を算出する、
ことを特徴とする請求項1に記載の手振れ補正処理装置。
The motion vector detection unit is
A first extraction unit that extracts a plurality of feature points in a first area in each image frame;
A first storage unit that associates the coordinate value of each feature point extracted by the first extraction unit with the pixel data of a pixel block including the feature point and stores the data in the feature point data memory ;
Reading out the coordinate value of each feature point of the first area in the image frame F (n−1) stored in the feature point data memory by the first storage unit and the pixel data of the pixel block including the feature point; Pixel data of a pixel block including a feature point of the first area in the image frame F (n-1), and coordinates of the feature point in the first area in the image frame F (n) stored in the search data memory A first detector that detects a motion vector of each feature point in the first area of the period T (n) based on pixel data of a pixel block including a position corresponding to the value;
A first calculation unit that calculates a motion vector of an image of a period T (n) based on a motion vector of each feature point of the first area of the period T (n) detected by the first detection unit;
Including
The correction amount calculation unit calculates a cut-out position for the image frame F (n) based on the motion vector of the image in the period T (n) calculated by the first calculation unit;
The camera shake correction processing apparatus according to claim 1.
前記動きベクトル検出部が、
各画像フレーム中の第1エリア以外の第2エリアにおける複数の特徴点を抽出する第2抽出部と、
前記第2抽出部により抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて前記特徴点データメモリに保存する第2保存部と、
前記第2保存部により前記特徴点データメモリに保存された画像フレームF(n-1)中の第2エリアの各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第2エリアの特徴点を含む画素ブロックの画素データと、前記サーチデータメモリに保存された画像フレームF(n)中の第2エリアにおいて該特徴点の座標値に対応する位置を含む画素ブロックの画素データとに基づいて、期間T(n)の第2エリアの各特徴点の動きベクトルを検出する第2検出部と、
前記第2検出部により検出された期間T(n)の第2エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する第2算出部と、
を更に含み、
前記補正量算出部が、前記第1算出部により算出された期間T(n)の画像の動きベクトルと、前記第2算出部により算出された期間T(n-1)の画像の動きベクトルとに基づいて、画像フレームF(n)についての切り出し位置を算出する、
ことを特徴とする請求項2に記載の手振れ補正処理装置。
The motion vector detection unit is
A second extraction unit for extracting a plurality of feature points in a second area other than the first area in each image frame;
A second storage unit that stores the coordinate value of each feature point extracted by the second extraction unit and the pixel data of the pixel block including the feature point in association with each other in the feature point data memory ;
Reading out the coordinate value of each feature point of the second area in the image frame F (n−1) stored in the feature point data memory by the second storage unit and the pixel data of the pixel block including the feature point; Pixel data of a pixel block including a feature point of the second area in the image frame F (n-1), and coordinates of the feature point in the second area in the image frame F (n) stored in the search data memory A second detection unit that detects a motion vector of each feature point in the second area of the period T (n) based on pixel data of a pixel block including a position corresponding to the value;
A second calculation unit that calculates a motion vector of the image in the period T (n) based on the motion vector of each feature point in the second area in the period T (n) detected by the second detection unit;
Further including
The correction amount calculation unit includes a motion vector of the image for the period T (n) calculated by the first calculation unit, and a motion vector of the image for the period T (n−1) calculated by the second calculation unit. Based on the above, a cutout position for the image frame F (n) is calculated.
The camera shake correction processing apparatus according to claim 2.
前記第1保存部が、前記第1抽出部により抽出された各特徴点の特徴量をも前記特徴点データメモリに保存し、
前記第1算出部が、前記第1検出部により検出された各特徴点の動きベクトルに対して、前記第1保存部により前記特徴点データメモリに保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出する、
ことを特徴とする請求項2に記載の手振れ補正処理装置。
The first storage unit also stores the feature amount of each feature point extracted by the first extraction unit in the feature point data memory ;
The first calculation unit weights the motion vector of each feature point detected by the first detection unit with the feature amount of each feature point stored in the feature point data memory by the first storage unit. Go to calculate the motion vector of the image of period T (n),
The camera shake correction processing apparatus according to claim 2.
前記第2保存部が、前記第2抽出部により抽出された各特徴点の特徴量をも前記特徴点データメモリに保存し、
前記第2算出部が、前記第2検出部により検出された各特徴点の動きベクトルに対して、前記第2保存部により前記特徴点データメモリに保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出する、
ことを特徴とする請求項3に記載の手振れ補正処理装置。
The second storage unit also stores the feature amount of each feature point extracted by the second extraction unit in the feature point data memory ;
The second calculation unit weights the motion vectors of the feature points detected by the second detection unit with the feature amounts of the feature points stored in the feature point data memory by the second storage unit. Go to calculate the motion vector of the image of period T (n),
The camera shake correction processing apparatus according to claim 3.
前記補正量算出部が、前記第1算出部により算出された期間T(n)の画像の動きベクトルと、前記第2算出部により算出された期間T(n-1)の画像の動きベクトルとに対して、重み付けを行って画像の動きベクトルを求めて、画像フレームF(n)についての切り出し位置を算出する、ことを特徴とする請求項3に記載の手振れ補正処理装置。   The correction amount calculation unit includes a motion vector of the image for the period T (n) calculated by the first calculation unit, and a motion vector of the image for the period T (n−1) calculated by the second calculation unit. The camera shake correction processing apparatus according to claim 3, wherein weighting is performed to obtain a motion vector of the image, and a cut-out position for the image frame F (n) is calculated. 複数の画像フレームからなる動画像における手振れの影響を補正処理する請求項1〜6の何れか1項に記載の手振れ補正処理装置と、
前記複数の画像フレームそれぞれの画素データについて前記手振れ補正処理装置による手振れ補正処理とは異なる画像処理を行う画像信号処理部と、
を備え、
前記画像信号処理部による画像処理および前記手振れ補正処理装置による手振れ補正処理がなされた各画像フレームの画素データを出力する、
ことを特徴とする画像処理システム。
The camera shake correction processing apparatus according to any one of claims 1 to 6, which corrects an influence of camera shake in a moving image including a plurality of image frames.
An image signal processing unit that performs image processing different from the camera shake correction processing by the camera shake correction processing device for the pixel data of each of the plurality of image frames;
With
Outputting pixel data of each image frame subjected to image processing by the image signal processing unit and camera shake correction processing by the camera shake correction processing device;
An image processing system characterized by that.
前記手振れ補正処理装置の前記補正量算出部が、前記画像信号処理部が画像フレームF(n)について画像処理後の画素データを出力するときまでに該画像フレームF(n)についての切り出し位置を算出し、
前記手振れ補正処理装置の前記画像切り出し処理部が、前記補正量算出部により算出された切り出し位置に基づいて、前記画像信号処理部から出力された該画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力する、
ことを特徴とする請求項7に記載の画像処理システム。
The correction amount calculation unit of the camera shake correction processing apparatus determines a cutout position for the image frame F (n) until the image signal processing unit outputs pixel data after image processing for the image frame F (n). Calculate
Based on the cutout position calculated by the correction amount calculation unit, the image cutout processing unit of the camera shake correction processing device outputs pixels in a partial range in the image frame F (n) output from the image signal processing unit. Cut out the data and output the pixel data after the cut out.
The image processing system according to claim 7.
複数の画像フレームからなる動画像における手振れの影響を補正処理する方法であって、
前記複数の画像フレームのうちの第nの画像フレームF(n)の画素データを入力する際の初期の所定期間に入力した画像フレームF(n)中の第1エリアの画素データと、画像フレームF(n)より前の第(n−1)の画像フレームF(n-1)中の第1エリアの特徴点に関する情報とに基づいて、画像フレームF(n-1)から画像フレームF(n)までの期間T(n)の画像の動きベクトルを検出する動きベクトル検出ステップと、
前記動きベクトル検出ステップで検出された画像の動きベクトルに基づいて画像フレームF(n)についての切り出し位置を算出する補正量算出ステップと、
前記補正量算出ステップで算出された切り出し位置に基づいて画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力する画像切り出し処理ステップと、
を備え、
前記動きベクトル検出ステップにおいて、
画像フレームF(n-1)中の特徴点に関する情報として、該特徴点の座標値を記憶するとともに、これと対応付けて該画像フレームのうち該特徴点を含む一部の画素ブロックの画素データを選択的に記憶する特徴点データメモリと、
画像フレームF(n)のうち前記特徴点の座標値に対応する位置を含む一部の画素ブロックの画素データを選択的に記憶するサーチデータメモリと、
を用いて、
前記特徴点データメモリに記憶された画像フレームF(n-1)中の特徴点に関する情報と、前記サーチデータメモリに記憶された画像フレームF(n)中の一部の画素ブロックの画素データとに基づいて、期間T(n)の画像の動きベクトルを検出する、
ことを特徴とする手振れ補正処理方法。
A method for correcting the influence of camera shake in a moving image composed of a plurality of image frames,
The pixel data of the first area in the image frame F (n) input in the initial predetermined period when the pixel data of the nth image frame F (n) among the plurality of image frames is input, and the image frame Based on the information on the feature points of the first area in the (n-1) th image frame F (n-1) before F (n), the image frame F (n-1) to the image frame F ( a motion vector detection step of detecting a motion vector of an image in a period T (n) until n);
A correction amount calculating step for calculating a cutout position for the image frame F (n) based on the motion vector of the image detected in the motion vector detecting step;
An image cutout processing step of cutting out pixel data of a partial range in the image frame F (n) based on the cutout position calculated in the correction amount calculating step, and outputting the pixel data after the cutout;
Bei to give a,
In the motion vector detection step,
The coordinate value of the feature point is stored as information on the feature point in the image frame F (n-1), and the pixel data of a part of the pixel block including the feature point in the image frame is associated with the feature point. A feature point data memory for selectively storing
A search data memory for selectively storing pixel data of some pixel blocks including a position corresponding to the coordinate value of the feature point in the image frame F (n);
Using,
Information on feature points in the image frame F (n−1) stored in the feature point data memory, pixel data of some pixel blocks in the image frame F (n) stored in the search data memory, and To detect a motion vector of an image in a period T (n) based on
And a camera shake correction processing method.
前記動きベクトル検出ステップが、
各画像フレーム中の第1エリアにおける複数の特徴点を抽出する第1抽出ステップと、
前記第1抽出ステップで抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて前記特徴点データメモリに保存する第1保存ステップと、
前記第1保存ステップで前記特徴点データメモリに保存された画像フレームF(n-1)中の第1エリアの各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第1エリアの特徴点を含む画素ブロックの画素データと、前記サーチデータメモリに保存された画像フレームF(n)中の第1エリアにおいて該特徴点の座標値に対応する位置を含む画素ブロックの画素データとに基づいて、期間T(n)の第1エリアの各特徴点の動きベクトルを検出する第1検出ステップと、
前記第1検出ステップで検出された期間T(n)の第1エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する第1算出ステップと、
を含み、
前記補正量算出ステップでは、前記第1算出ステップで算出された期間T(n)の画像の動きベクトルに基づいて、画像フレームF(n)についての切り出し位置を算出する、
ことを特徴とする請求項に記載の手振れ補正処理方法。
The motion vector detection step comprises:
A first extraction step of extracting a plurality of feature points in a first area in each image frame;
A first storage step of storing the coordinate values of each feature point extracted in the first extraction step and the pixel data of the pixel block including the feature point in association with each other in the feature point data memory ;
Reading out the coordinate value of each feature point of the first area in the image frame F (n-1) saved in the feature point data memory in the first saving step and the pixel data of the pixel block including the feature point; Pixel data of a pixel block including a feature point of the first area in the image frame F (n-1), and coordinates of the feature point in the first area in the image frame F (n) stored in the search data memory A first detection step of detecting a motion vector of each feature point in the first area of the period T (n) based on pixel data of a pixel block including a position corresponding to the value;
A first calculation step of calculating a motion vector of an image in the period T (n) based on a motion vector of each feature point in the first area in the period T (n) detected in the first detection step;
Including
In the correction amount calculating step, a cut-out position for the image frame F (n) is calculated based on the motion vector of the image in the period T (n) calculated in the first calculating step.
The camera shake correction processing method according to claim 9 .
前記動きベクトル検出ステップが、
各画像フレーム中の第1エリア以外の第2エリアにおける複数の特徴点を抽出する第2抽出ステップと、
前記第2抽出ステップで抽出された各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを対応付けて前記特徴点データメモリに保存する第2保存ステップと、
前記第2保存ステップで前記特徴点データメモリに保存された画像フレームF(n-1)中の第2エリアの各特徴点の座標値と該特徴点を含む画素ブロックの画素データとを読み出し、画像フレームF(n-1)中の第2エリアの特徴点を含む画素ブロックの画素データと、前記サーチデータメモリに保存された画像フレームF(n)中の第2エリアにおいて該特徴点の座標値に対応する位置を含む画素ブロックの画素データとに基づいて、期間T(n)の第2エリアの各特徴点の動きベクトルを検出する第2検出ステップと、
前記第2検出ステップで検出された期間T(n)の第2エリアの各特徴点の動きベクトルに基づいて、期間T(n)の画像の動きベクトルを算出する第2算出ステップと、
を更に含み、
前記補正量算出ステップでは、前記第1算出ステップで算出された期間T(n)の画像の動きベクトルと、前記第2算出ステップで算出された期間T(n-1)の画像の動きベクトルとに基づいて、画像フレームF(n)についての切り出し位置を算出する、
ことを特徴とする請求項10に記載の手振れ補正処理方法。
The motion vector detection step comprises:
A second extraction step of extracting a plurality of feature points in a second area other than the first area in each image frame;
A second storage step of associating the coordinate value of each feature point extracted in the second extraction step with the pixel data of the pixel block including the feature point in the feature point data memory ;
Reading out the coordinate value of each feature point of the second area in the image frame F (n-1) saved in the feature point data memory in the second saving step and the pixel data of the pixel block including the feature point; Pixel data of a pixel block including a feature point of the second area in the image frame F (n-1), and coordinates of the feature point in the second area in the image frame F (n) stored in the search data memory A second detection step of detecting a motion vector of each feature point in the second area of the period T (n) based on pixel data of a pixel block including a position corresponding to the value;
A second calculation step of calculating a motion vector of the image in the period T (n) based on the motion vector of each feature point in the second area in the period T (n) detected in the second detection step;
Further including
In the correction amount calculating step, the motion vector of the image in the period T (n) calculated in the first calculation step, and the motion vector of the image in the period T (n−1) calculated in the second calculation step Based on the above, a cutout position for the image frame F (n) is calculated.
The camera shake correction processing method according to claim 10.
前記第1保存ステップでは、前記第1抽出ステップで抽出された各特徴点の特徴量をも前記特徴点データメモリに保存し、
前記第1算出ステップでは、前記第1検出ステップで検出された各特徴点の動きベクトルに対して、前記第1保存ステップで前記特徴点データメモリに保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出する、
ことを特徴とする請求項10に記載の手振れ補正処理方法。
In the first storage step, the feature amount of each feature point extracted in the first extraction step is also stored in the feature point data memory ,
In the first calculation step, the motion vector of each feature point detected in the first detection step is weighted with the feature amount of each feature point stored in the feature point data memory in the first storage step. Go to calculate the motion vector of the image of period T (n),
The camera shake correction processing method according to claim 10.
前記第2保存ステップでは、前記第2抽出ステップで抽出された各特徴点の特徴量をも前記特徴点データメモリに保存し、
前記第2算出ステップでは、前記第2検出ステップで検出された各特徴点の動きベクトルに対して、前記第2保存ステップで前記特徴点データメモリに保存された各特徴点の特徴量で重み付けを行って、期間T(n)の画像の動きベクトルを算出する、
ことを特徴とする請求項11に記載の手振れ補正処理方法。
In the second storage step, the feature amount of each feature point extracted in the second extraction step is also stored in the feature point data memory ,
In the second calculation step, the motion vector of each feature point detected in the second detection step is weighted with the feature amount of each feature point stored in the feature point data memory in the second storage step. Go to calculate the motion vector of the image of period T (n),
The camera shake correction processing method according to claim 11.
前記補正量算出ステップでは、前記第1算出ステップで算出された期間T(n)の画像の動きベクトルと、前記第2算出ステップで算出された期間T(n-1)の画像の動きベクトルとに対して、重み付けを行って画像の動きベクトルを求めて、画像フレームF(n)についての切り出し位置を算出する、ことを特徴とする請求項11に記載の手振れ補正処理方法。   In the correction amount calculating step, the motion vector of the image in the period T (n) calculated in the first calculation step, and the motion vector of the image in the period T (n−1) calculated in the second calculation step The camera shake correction processing method according to claim 11, wherein weighting is performed to obtain a motion vector of the image, and a cut-out position for the image frame F (n) is calculated. 複数の画像フレームからなる動画像における手振れの影響を補正処理する請求項9〜14の何れか1項に記載の手振れ補正処理方法と、
前記複数の画像フレームそれぞれの画素データについて前記手振れ補正処理方法による手振れ補正処理とは異なる画像処理を行う画像信号処理ステップと、
を備え、
前記画像信号処理ステップによる画像処理および前記手振れ補正処理方法による手振れ補正処理がなされた各画像フレームの画素データを出力する、
ことを特徴とする画像処理方法。
The camera shake correction processing method according to any one of claims 9 to 14, wherein an effect of camera shake in a moving image including a plurality of image frames is corrected.
An image signal processing step for performing image processing different from the camera shake correction processing by the camera shake correction processing method for the pixel data of each of the plurality of image frames;
With
Outputting pixel data of each image frame that has undergone image processing by the image signal processing step and image stabilization processing by the image stabilization processing method;
An image processing method.
前記手振れ補正処理方法の前記補正量算出ステップでは、前記画像信号処理ステップで画像フレームF(n)について画像処理後の画素データを出力するときまでに該画像フレームF(n)についての切り出し位置を算出し、
前記手振れ補正処理方法の前記画像切り出し処理ステップでは、前記補正量算出ステップで算出された切り出し位置に基づいて、前記画像信号処理ステップから出力された該画像フレームF(n)中の部分範囲の画素データを切り出して、その切り出し後の画素データを出力する、
ことを特徴とする請求項15に記載の画像処理方法。
In the correction amount calculation step of the camera shake correction processing method, the cut-out position for the image frame F (n) is determined until the pixel data after image processing is output for the image frame F (n) in the image signal processing step. Calculate
In the image cutout processing step of the camera shake correction processing method, pixels in a partial range in the image frame F (n) output from the image signal processing step based on the cutout position calculated in the correction amount calculation step Cut out the data and output the pixel data after the cut out.
The image processing method according to claim 15.
JP2011222155A 2011-10-06 2011-10-06 Camera shake correction processing apparatus and camera shake correction processing method Active JP5869833B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011222155A JP5869833B2 (en) 2011-10-06 2011-10-06 Camera shake correction processing apparatus and camera shake correction processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011222155A JP5869833B2 (en) 2011-10-06 2011-10-06 Camera shake correction processing apparatus and camera shake correction processing method

Publications (2)

Publication Number Publication Date
JP2013085035A JP2013085035A (en) 2013-05-09
JP5869833B2 true JP5869833B2 (en) 2016-02-24

Family

ID=48529813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011222155A Active JP5869833B2 (en) 2011-10-06 2011-10-06 Camera shake correction processing apparatus and camera shake correction processing method

Country Status (1)

Country Link
JP (1) JP5869833B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4620607B2 (en) * 2006-02-24 2011-01-26 株式会社モルフォ Image processing device
JP4930277B2 (en) * 2007-08-21 2012-05-16 カシオ計算機株式会社 Imaging apparatus and computer program therefor
JP5173549B2 (en) * 2008-04-17 2013-04-03 キヤノン株式会社 Image processing apparatus and imaging apparatus
JP5251410B2 (en) * 2008-10-03 2013-07-31 株式会社ニコン Camera work calculation program, imaging apparatus, and camera work calculation method
JP5740844B2 (en) * 2009-11-24 2015-07-01 株式会社リコー Imaging apparatus, image processing method, and computer program

Also Published As

Publication number Publication date
JP2013085035A (en) 2013-05-09

Similar Documents

Publication Publication Date Title
JP4509925B2 (en) Image processing apparatus, camera system, image processing method, and moving image display method
JP4509917B2 (en) Image processing apparatus and camera system
EP3480784B1 (en) Image processing method, and device
US20110211233A1 (en) Image processing device, image processing method and computer program
KR101441786B1 (en) Subject determination apparatus, subject determination method and recording medium storing program thereof
US20150170342A1 (en) System and method for spatio video image enhancement
US9554058B2 (en) Method, apparatus, and system for generating high dynamic range image
CN110866486B (en) Subject detection method and apparatus, electronic device, and computer-readable storage medium
JP5173549B2 (en) Image processing apparatus and imaging apparatus
US10116865B2 (en) Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions
JP6282133B2 (en) Imaging device, control method thereof, and control program
JP6178646B2 (en) Imaging apparatus and image shake correction processing method
JP2009042897A (en) Image processing unit and image processing method
JP5869833B2 (en) Camera shake correction processing apparatus and camera shake correction processing method
WO2017154423A1 (en) Image processing device, image processing method, and program
CN110692235B (en) Image processing apparatus, image processing program, and image processing method
CN113313707A (en) Original image processing method, device, equipment and readable storage medium
JP6063680B2 (en) Image generation apparatus, image generation method, imaging apparatus, and imaging method
JP2005295302A (en) Camera image processing device
JP2021047710A (en) Image processing apparatus, image processing method, image processing system, and program
JP5029573B2 (en) Imaging apparatus and imaging method
JP2019176261A (en) Image processor
JP6381212B2 (en) Imaging apparatus and control method thereof
JP4486487B2 (en) Smear correction device
JP2018072941A (en) Image processing device, image processing method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160108

R150 Certificate of patent or registration of utility model

Ref document number: 5869833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250