JP2016006920A - Imaging apparatus and image processing method - Google Patents

Imaging apparatus and image processing method Download PDF

Info

Publication number
JP2016006920A
JP2016006920A JP2014126825A JP2014126825A JP2016006920A JP 2016006920 A JP2016006920 A JP 2016006920A JP 2014126825 A JP2014126825 A JP 2014126825A JP 2014126825 A JP2014126825 A JP 2014126825A JP 2016006920 A JP2016006920 A JP 2016006920A
Authority
JP
Japan
Prior art keywords
motion vector
processing
vector
image
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014126825A
Other languages
Japanese (ja)
Inventor
稔 坂井田
Minoru Sakaida
稔 坂井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014126825A priority Critical patent/JP2016006920A/en
Publication of JP2016006920A publication Critical patent/JP2016006920A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of correcting a motion vector while effectively sharing a resource.SOLUTION: The imaging apparatus comprises: an imaging device which converts an optical image having passed through an optical system to an image signal; vector detection means which detects a motion vector; processing means which performs geometrical deformation processing of the image signal and correction processing of the motion vector; and determination means for determining the execution of the correction processing of the motion vector by the processing means.

Description

本発明は、撮像装置および画像処理方法に関する。   The present invention relates to an imaging apparatus and an image processing method.

コンパクトデジタルカメラ、一眼レフレックスカメラおよびビデオカメラなどの撮像装置において、撮影者の手ぶれ等に起因した像ぶれが発生してしまう問題がある。特許文献1では、撮像された複数フレームの画像をメモリに保持し、前後のフレーム間で画像を比較(テンプレートマッチング)して動きベクトルを検出して手ぶれ量を推定し、像ぶれを抑圧する技術が開示されている。また、特許文献2では、画像を幾何変形処理することによって、光学系の歪曲収差や、センサのローリングシャッター歪み、像ぶれの回転成分を補正する技術が開示されている。   In an imaging apparatus such as a compact digital camera, a single-lens reflex camera, and a video camera, there is a problem that image blur due to camera shake of a photographer occurs. In Patent Literature 1, a plurality of frames of captured images are stored in a memory, images are compared (template matching) between previous and next frames, a motion vector is detected, an amount of camera shake is estimated, and image blur is suppressed. Is disclosed. Patent Document 2 discloses a technique for correcting distortion of an optical system, rolling shutter distortion of a sensor, and a rotational component of image blur by performing geometric deformation processing on the image.

図15は、幾何変形処理前後の画像を示している。一般的に、防振処理を行うための手ぶれ量はリアルタイムで算出されることが望ましく、図15(a)に示す歪み補正前の元画像で動きベクトルが検出される。しかし、実際の出画は、図15(b)に示す歪み補正後の画像となるため、ベクトル検出枠1501、ベクトル検出枠1501の重心1502、動きベクトル1503が歪んでしまい、動きベクトル1503の精度が低下してしまう問題が生じる。特許文献3では、動きベクトルに対して、画像の変形量を考慮した座標変換処理(アフィン変換)を実施することで、動きベクトルの歪みを補正する技術が開示されている。   FIG. 15 shows images before and after the geometric deformation process. In general, it is desirable that the amount of camera shake for performing the image stabilization process be calculated in real time, and a motion vector is detected in the original image before distortion correction illustrated in FIG. However, since the actual image is the image after distortion correction shown in FIG. 15B, the vector detection frame 1501, the center of gravity 1502 of the vector detection frame 1501, and the motion vector 1503 are distorted, and the accuracy of the motion vector 1503 This causes a problem of lowering. Patent Document 3 discloses a technique for correcting motion vector distortion by performing coordinate transformation processing (affine transformation) in consideration of the amount of deformation of an image on a motion vector.

特開2000−261757号公報JP 2000-261757 A 特開2006−127083号公報JP 2006-127083 A 特開2009−258868号公報JP 2009-258868 A

画像の変形量の算出ならびにその座標変換処理は、計算負荷が高いため、ハードウェアで処理されるのが望ましいが、回路規模が大きくなる問題がある。そこで、幾何変形処理の座標演算処理と回路リソースを共有して、動きベクトルの歪みを補正することが、解決策として考えられる。   The calculation of the amount of deformation of the image and the coordinate transformation process are preferably performed by hardware because of the high calculation load, but there is a problem that the circuit scale becomes large. Therefore, it is conceivable as a solution to correct the distortion of the motion vector by sharing the circuit resource with the coordinate calculation process of the geometric deformation process.

図16(a)は動きベクトルの検出処理から防振制御を行うまでのタイミングを示しており、図16(b)は回路リソースを共有して動きベクトルの検出、動きベクトルの補正、防振制御を行うまでのタイミングを示している。図16(a)では、手ぶれ量を早く算出するために、ベクトル検出処理の間に、例えば、1水平ライン分のベクトル検出枠単位で、ベクトル値の読み出しを行う。そして、最後の水平ラインのベクトル値を読み出して、手ぶれ量を算出し、防振制御を行う。図16(b)では、ベクトル検出処理が完了しても、幾何変形処理が完了しないと座標演算回路のリソースが開放されないため、動きベクトルの補正処理を行うことができない。したがって、従来よりもベクトル値が使用可能となる時間が遅れてしまうため、防振制御ができる時間に遅れが生じてしまう。   FIG. 16A shows the timing from motion vector detection processing to image stabilization control. FIG. 16B shares circuit resources and detects motion vectors, motion vector correction, image stabilization control. It shows the timing until it performs. In FIG. 16A, in order to quickly calculate the amount of camera shake, the vector value is read out in units of vector detection frames for one horizontal line, for example, during the vector detection process. Then, the vector value of the last horizontal line is read, the amount of camera shake is calculated, and image stabilization control is performed. In FIG. 16B, even if the vector detection process is completed, the motion vector correction process cannot be performed because the resources of the coordinate arithmetic circuit are not released unless the geometric deformation process is completed. Therefore, since the time when the vector value can be used is delayed as compared with the conventional case, the time during which the image stabilization control can be performed is delayed.

このような課題を鑑みて、本発明は、効果的にリソース共有しながら、動きベクトルを補正することが可能な撮像装置を提供することを目的とする。   In view of such a problem, an object of the present invention is to provide an imaging device capable of correcting a motion vector while effectively sharing resources.

本発明の一側面としての撮像装置は、光学系を通過した光学像を画像信号に変換する撮像素子と、動きベクトルを検出するベクトル検出手段と、前記画像信号の幾何変形処理を行うとともに、前記動きベクトルの補正処理を行う処理手段と、前記処理手段による前記動きベクトルの補正処理の実行を判定する判定手段と、を有することを特徴とする。   An imaging apparatus according to one aspect of the present invention performs an image sensor that converts an optical image that has passed through an optical system into an image signal, a vector detection unit that detects a motion vector, a geometric deformation process of the image signal, and It is characterized by comprising processing means for performing motion vector correction processing, and determination means for determining execution of the motion vector correction processing by the processing means.

また、本発明の他の側面としての画像処理方法は、光学系を通過した光学像を画像信号に変換する撮像素子と、動きベクトルを検出するベクトル検出手段と、前記画像信号の幾何変形処理を行うとともに、前記動きベクトルの補正処理を行う処理手段と、前記処理手段による前記動きベクトルの補正処理の実行を判定する判定手段と、を有する撮像装置の画像処理方法であって、前記判定手段が前記処理手段による前記動きベクトルの補正処理が必要であるかを判定する判定ステップと、前記判定ステップにおいて、補正処理が必要でないと判定された場合、前記処理手段が前記動きベクトルの補正処理を行わず、補正処理が必要であると判定された場合、前記動きベクトルの補正処理を行う処理ステップと、を有することを特徴とする。   An image processing method according to another aspect of the present invention includes an image sensor that converts an optical image that has passed through an optical system into an image signal, vector detection means that detects a motion vector, and geometric deformation processing of the image signal. And an image processing method for an imaging apparatus comprising: a processing unit that performs the motion vector correction process; and a determination unit that determines execution of the motion vector correction process by the processing unit. In the determination step for determining whether the motion vector correction processing by the processing means is necessary, and in the determination step, when it is determined that the correction processing is not necessary, the processing means performs the motion vector correction processing. First, it is characterized by including a processing step of performing the correction processing of the motion vector when it is determined that the correction processing is necessary.

また、本発明の他の側面としての画像処理方法は、光学系を通過した光学像を画像信号に変換する撮像素子と、動きベクトルを検出するベクトル検出手段と、前記画像信号の幾何変形処理を行うとともに、前記動きベクトルの補正処理を行う処理手段と、前記画像信号を複数に分割した検出枠ごとに、前記動きベクトルの補正処理の実行を判定する判定手段と、前記動きベクトルを読み出して、手ぶれ量を算出する制御部と、を有する撮像装置の画像処理方法であって、前記判定手段が前記処理手段による前記動きベクトルの補正処理の実行が必要であるかを判定する判定ステップと、前記制御部が前記判定ステップにおいて補正処理が必要でないと判定された前記検出枠の前記動きベクトルを読み出す第1の読み出しステップと、前記処理手段が前記画像信号の幾何変形処理を行う変形処理ステップと、前記判定ステップにおいて補正処理が必要であると判定された前記検出枠の前記動きベクトルの補正処理を行う補正処理ステップと、前記制御手段が前記補正処理ステップにおいて補正処理された前記動きベクトルを読み出す第2の読み出しステップと、を有することを特徴とする。   An image processing method according to another aspect of the present invention includes an image sensor that converts an optical image that has passed through an optical system into an image signal, vector detection means that detects a motion vector, and geometric deformation processing of the image signal. And processing means for performing correction processing of the motion vector, determination means for determining execution of the correction processing of the motion vector for each detection frame obtained by dividing the image signal, and reading the motion vector, An image processing method for an imaging apparatus having a control unit for calculating an amount of camera shake, wherein the determination unit determines whether the motion unit needs to execute correction processing of the motion vector, and A first reading step for reading out the motion vector of the detection frame determined by the control unit as not requiring correction processing in the determination step; A deformation processing step in which a stage performs geometric deformation processing of the image signal; a correction processing step in which correction processing of the motion vector of the detection frame determined to require correction processing in the determination step; and the control means Comprises a second reading step for reading the motion vector corrected in the correction processing step.

効果的にリソース共有しながら、動きベクトルを補正することが可能な撮像装置を提供することができる。   An imaging apparatus capable of correcting a motion vector while effectively sharing resources can be provided.

実施例1の撮像装置のブロック構成図である。1 is a block configuration diagram of an imaging apparatus according to Embodiment 1. FIG. ベクトル検出処理の概要を示した図である。It is the figure which showed the outline | summary of the vector detection process. 幾何変形処理の概要を示した図である。It is the figure which showed the outline | summary of the geometric deformation process. 座標演算手段の構成図である。It is a block diagram of a coordinate calculation means. 実施例1の画像処理のフローチャートである。3 is a flowchart of image processing according to the first exemplary embodiment. 図形歪みとベクトル検出における探索範囲を示した図である。It is the figure which showed the search range in figure distortion and vector detection. 図形歪みとベクトル検出におけるテンプレートサイズを示した図である。It is the figure which showed the template size in figure distortion and vector detection. 歪曲収差特性を示した図である。It is the figure which showed the distortion aberration characteristic. 撮像素子の読み出しタイミングを示した図である。It is the figure which showed the read-out timing of an image pick-up element. 実施例2の撮像装置のブロック構成図である。6 is a block configuration diagram of an image pickup apparatus according to Embodiment 2. FIG. 実施例2の画像処理のフローチャートである。10 is a flowchart of image processing according to the second embodiment. 実施例2の画像処理のタイミングチャートである。6 is a timing chart of image processing according to the second embodiment. ベクトル補正フラグの概要を示した図である。It is the figure which showed the outline | summary of the vector correction flag. エッジ形状例を示した図である。It is the figure which showed the example of edge shape. ベクトル補正の概念を示した図である。It is the figure which showed the concept of vector correction. 従来のベクトル検出のタイミングチャートである。It is a timing chart of conventional vector detection.

以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted.

図1は、本実施例の撮像装置のブロック構成図である。光学系101を通過して撮像素子102に結像された光学像は、撮像素子102にて画像信号に変換される。撮像素子102が出力する画像信号は、メモリ103に保持される。メモリ103は、保持した画像信号をベクトル検出手段104と幾何変形手段105に出力する。ベクトル検出手段104は、撮像素子102が出力する画像信号と、メモリ103が出力する1フレーム前の画像信号より、ベクトル値を算出する。算出されたベクトル値は、システム制御手段107に送られる。幾何変形手段105は、内部の座標演算手段105aより入力される出力画素における幾何変形量に基づいて、幾何変形処理に必要となる画素群をメモリ103に入力する。メモリ103は、入力された画素群に基づいて、格納されている画像信号のうち、画素群に相当するメモリアドレスのデータを幾何変形手段105に入力していく。幾何変形手段105は、順次読み出された画像信号と幾何変形量に基づいて、出力画素における補間画素を生成していくことで、出力画像信号(防振画像)を生成し、外部に出力する。ベクトル検出手段104で算出したベクトル値は、座標演算手段105aに入力することが可能である。座標演算手段105aは、ベクトル値の補正を行い、補正したベクトル値をベクトル検出手段104に出力する。撮影パラメータ解析手段(判定手段)106は、システム制御手段107から入力される撮影パラメータよりベクトル値の補正処理を制御する。システム制御手段107は、撮像装置全体の動作を制御する。光学系101の焦点距離、絞り値、フォーカス距離や、撮像素子102の駆動、ベクトル検出手段104よりベクトル値を取得し、光学系101の防振のためのレンズ駆動の制御などを行う。   FIG. 1 is a block diagram of the imaging apparatus according to the present embodiment. An optical image that passes through the optical system 101 and is imaged on the image sensor 102 is converted into an image signal by the image sensor 102. An image signal output from the image sensor 102 is held in the memory 103. The memory 103 outputs the held image signal to the vector detection unit 104 and the geometric deformation unit 105. The vector detection unit 104 calculates a vector value from the image signal output from the image sensor 102 and the image signal of the previous frame output from the memory 103. The calculated vector value is sent to the system control means 107. The geometric deformation unit 105 inputs a pixel group necessary for the geometric deformation process to the memory 103 based on the geometric deformation amount in the output pixel input from the internal coordinate calculation unit 105 a. Based on the input pixel group, the memory 103 inputs data at a memory address corresponding to the pixel group, out of the stored image signals, to the geometric deformation means 105. The geometric deformation unit 105 generates an output image signal (anti-vibration image) by generating an interpolation pixel in the output pixel based on the sequentially read image signal and the amount of geometric deformation, and outputs it to the outside. . The vector value calculated by the vector detection unit 104 can be input to the coordinate calculation unit 105a. The coordinate calculation unit 105 a corrects the vector value and outputs the corrected vector value to the vector detection unit 104. An imaging parameter analysis unit (determination unit) 106 controls vector value correction processing based on imaging parameters input from the system control unit 107. A system control unit 107 controls the operation of the entire imaging apparatus. The focal length, aperture value, focus distance of the optical system 101, driving of the image sensor 102, vector values are acquired from the vector detection means 104, and lens drive control for vibration isolation of the optical system 101 is performed.

次に、ベクトル検出手段104の詳細について説明する。ベクトル検出手段104は、システム制御手段107で決定されたテンプレート配置に基づいて、入力された2枚のフレーム画像間での動きベクトルを検出する。   Next, details of the vector detection means 104 will be described. The vector detection unit 104 detects a motion vector between the two input frame images based on the template arrangement determined by the system control unit 107.

本実施例では、テンプレートマッチング方式を用いて動きベクトルを検出する。撮像素子102より入力される画像信号を原画像、メモリ103より入力される画像信号を参照画像とし、図2で示すように、原画像中の任意の位置にテンプレート201を配置し、テンプレート201と参照画像の各領域との相関値を算出する。このとき、参照画像の全領域に対して相関値を算出するのでは演算量が膨大なものとなるため、実際には参照画像上の相関値を算出する矩形領域を動きベクトルの探索範囲202として設定する。探索範囲202の位置や大きさについては特に制限はないが、探索範囲202の内部にテンプレート201の移動先に相当する領域が含まれていないと正しい動きベクトルを検出することはできない。   In this embodiment, a motion vector is detected using a template matching method. An image signal input from the image sensor 102 is an original image, and an image signal input from the memory 103 is a reference image. As shown in FIG. 2, a template 201 is arranged at an arbitrary position in the original image. A correlation value with each region of the reference image is calculated. At this time, since calculating the correlation value for the entire region of the reference image requires a large amount of computation, a rectangular region for calculating the correlation value on the reference image is actually used as the motion vector search range 202. Set. The position and size of the search range 202 are not particularly limited, but a correct motion vector cannot be detected unless the search range 202 includes an area corresponding to the movement destination of the template 201.

本実施例では、相関値の算出方法の一例として差分絶対値和(Sum of Absolute Difference、以下SADと略す)を使用する。SADの計算式を式(1)に示す。   In this embodiment, a sum of absolute difference (hereinafter abbreviated as SAD) is used as an example of a correlation value calculation method. The calculation formula of SAD is shown in Formula (1).

式(1)において、f(i,j)はテンプレート201内の座標(i,j)における画素値を表しており、g(i,j)は探索範囲202において相関値の算出対象となる領域内の各画素値を表す。相関値の算出対象の領域は、テンプレート201と同じ大きさである。SADでは、画素値f(i,j),g(i,j)の差分の絶対値を計算し、その総和を求めることで相関値S_SADを取得する。相関値S_SADの値が小さいほど領域間の輝度値の差分が小さい、すなわち、テンプレート201と相関値の算出対象の領域内のテクスチャが類似していることを表している。なお、本実施例では、相関値の算出方法の一例としてSADを使用しているが、これに限るものではなく、差分二乗和(SSD)や正規化相互相関(NCC)等の他の相関値の算出方法を用いてもよい。 In Expression (1), f (i, j) represents a pixel value at the coordinates (i, j) in the template 201, and g (i, j) is an area for which a correlation value is to be calculated in the search range 202. Represents each pixel value. The area for which the correlation value is to be calculated is the same size as the template 201. In SAD, the correlation value S_SAD is obtained by calculating the absolute value of the difference between the pixel values f (i, j) and g (i, j) and obtaining the sum thereof. The smaller the value of the correlation value S_SAD, the smaller the difference in luminance value between regions, that is, the texture in the region for which the correlation value is calculated is similar to the template 201. In this embodiment, SAD is used as an example of a correlation value calculation method. However, the present invention is not limited to this, and other correlation values such as sum of squared differences (SSD) and normalized cross-correlation (NCC) are used. The calculation method may be used.

本実施例では、テンプレート201は、格子上に配置されている。テンプレート201は水平サイズがTX画素、垂直サイズがTY画素、探索範囲202は左右サイズがSX画素、上下サイズがSY画素、テンプレート201間の距離は水平サイズがDX画素、垂直サイズがDY画素である。少ないテンプレート数で、広範囲の動きベクトルを観察できるように、千鳥状にテンプレート201を配置してもよい。なお、TX,TY,DX,DY,SX,SYといったパラメータは、目的に応じて、任意の値に変更が可能である。   In this embodiment, the template 201 is arranged on a lattice. The template 201 has a horizontal size of TX pixels, a vertical size of TY pixels, the search range 202 has a horizontal size of SX pixels, a vertical size of SY pixels, and the distance between the templates 201 is a horizontal size of DX pixels and a vertical size of DY pixels. . The templates 201 may be arranged in a staggered pattern so that a wide range of motion vectors can be observed with a small number of templates. Parameters such as TX, TY, DX, DY, SX, and SY can be changed to arbitrary values according to the purpose.

次に、幾何変形処理の詳細について説明する。本実施例の幾何変形処理は、出力画像に画素の欠陥が生じないように図3の出力画像座標(X’,Y’)に基づき、入力画像上で画素のサンプリングおよび補間を行う。   Next, details of the geometric deformation process will be described. In the geometric deformation processing of this embodiment, sampling and interpolation of pixels are performed on the input image based on the output image coordinates (X ′, Y ′) of FIG. 3 so that no pixel defect occurs in the output image.

幾何変形手段105は、出力画像上の画素を順次スキャンし、出力画像上の画素座標を入力画像上の画素座標(X,Y)に変換する処理を行う。幾何変形手段105は、座標演算手段105aより入力された入力画像上の画素座標(X,Y)を基にサンプリングし、補間により出力画素のデータを生成する。補間処理としては、例えば、4近傍を用いて線形補間を行うバイリニア補間処理が想定される。補間処理により、必要となるサンプリング座標近傍の画素群が異なってくることにより、幾何変形手段105は、座標演算手段105aから入力される画素座標(X,Y)と、補間に必要となる近傍画素群(X”,Y”)の情報を、メモリ103に入力する。メモリ103は、幾何変形手段105から入力された座標情報にしたがって、補間処理に必要となるサンプリング画素近傍の画素値群を読み出し、幾何変形手段105に伝送する。   The geometric deformation unit 105 sequentially scans pixels on the output image, and converts the pixel coordinates on the output image into pixel coordinates (X, Y) on the input image. The geometric deformation means 105 samples based on the pixel coordinates (X, Y) on the input image input from the coordinate calculation means 105a, and generates output pixel data by interpolation. As the interpolation processing, for example, bilinear interpolation processing that performs linear interpolation using four neighborhoods is assumed. Since the necessary pixel group in the vicinity of the sampling coordinate is different due to the interpolation processing, the geometrical deformation means 105 causes the pixel coordinate (X, Y) input from the coordinate calculation means 105a and the neighboring pixel necessary for the interpolation. Information on the group (X ″, Y ″) is input to the memory 103. The memory 103 reads out pixel value groups in the vicinity of the sampling pixels necessary for the interpolation processing according to the coordinate information input from the geometric deformation unit 105 and transmits the pixel value group to the geometric deformation unit 105.

次に、幾何変形量の算出方法について説明する。座標演算手段105aは、複数の幾何変形による座標変換を1つの座標変換に合成し、入力される出力画像上の画素ごとの座標を入力画像上のサンプリング画像に順次変換する座標演算を行う。図4は、座標演算手段105aの構成図である。座標演算手段105aは、複数の幾何変形要素に対応した座標演算手段401,402と座標移動ベクトル合成手段403で構成される。   Next, a method for calculating the geometric deformation amount will be described. The coordinate calculation unit 105a combines coordinate conversions by a plurality of geometric deformations into one coordinate conversion, and performs coordinate calculation for sequentially converting the coordinates of each pixel on the input output image into a sampling image on the input image. FIG. 4 is a configuration diagram of the coordinate calculation means 105a. The coordinate calculation means 105a includes coordinate calculation means 401 and 402 corresponding to a plurality of geometric deformation elements and a coordinate movement vector synthesis means 403.

座標演算手段401,402は、システム制御手段107から入力された座標演算情報(それぞれの幾何変形パラメータと幾何変形処理前の座標)から、座標移動ベクトルと、幾何変形処理後の座標を算出する。座標演算手段401は歪曲収差を補正し、座標演算手段402は射影変換を行う。   The coordinate calculation means 401 and 402 calculate the coordinate movement vector and the coordinates after the geometric deformation process from the coordinate calculation information (respective geometric deformation parameters and coordinates before the geometric deformation process) input from the system control means 107. The coordinate calculation means 401 corrects distortion aberration, and the coordinate calculation means 402 performs projective transformation.

座標演算手段401は、幾何変形処理前の座標(X,Y)と歪曲収差の収差補正パラメータPdx,Pdyより、歪曲収差補正前の座標移動ベクトル(drx,dry)と、歪曲収差補正後の座標(Xd,Yd)を算出する。座標移動ベクトル(drx,dry)、座標(Xd,Yd)は、式(2)〜(4)より算出される。   The coordinate calculation means 401 uses the coordinates (X, Y) before geometric deformation processing and the aberration correction parameters Pdx, Pdy for distortion aberration, and the coordinate movement vector (drx, dry) before distortion aberration correction and the coordinates after distortion aberration correction. (Xd, Yd) is calculated. The coordinate movement vector (drx, dry) and the coordinates (Xd, Yd) are calculated from equations (2) to (4).

収差補正パラメータPdx,Pdyは、理想像高rnと実像高rdの比で式(5)のように与えられ、X方向とY方向に分解される。   The aberration correction parameters Pdx and Pdy are given by the ratio of the ideal image height rn and the real image height rd as shown in Expression (5), and are resolved in the X direction and the Y direction.

座標演算手段402は,歪曲収差補正後の座標(Xd,Yd)と射影変換パラメータPhより、射影変換の座標移動ベクトル(dhx,dhy)と、射影変換後の座標(Xh,Yh)を算出する。座標ベクトル(dhx,dhy)、座標(Xh,Yh)は、式(6)〜(9)より算出される。   The coordinate calculation means 402 calculates a coordinate movement vector (dhx, dhy) for projective transformation and coordinates (Xh, Yh) after the projective transformation from the coordinates (Xd, Yd) after the distortion correction and the projection transformation parameter Ph. . The coordinate vector (dhx, dhy) and the coordinate (Xh, Yh) are calculated from equations (6) to (9).

射影変換パラメータPhは、射影変換行列Hと変換の中心(X0h,Y0h)である。射影変換行列Hは、例えば、光軸に対する3軸(ヨー方向,ピッチ方向,ロール方向)回転をカメラのモーションパラメータとして算出する方法などが考えられる。   The projective transformation parameter Ph is the projective transformation matrix H and the center of transformation (X0h, Y0h). As the projective transformation matrix H, for example, a method of calculating three axes (yaw direction, pitch direction, roll direction) rotation with respect to the optical axis as a motion parameter of the camera can be considered.

座標移動ベクトル合成手段403は、幾何変形処理前の座標(X,Y)、各座標演算で求められた移動ベクトル(drx,dry)、(dhx,dhy)および幾何変形パラメータPcを重み合成する。合成座標ベクトル(dcx,dcy)と幾何変形処理後の座標(Xc,Yc)は、式(10),(11)より算出される。   The coordinate movement vector composition means 403 performs weight composition of the coordinates (X, Y) before the geometric deformation process, the movement vectors (drx, dry) and (dhx, dhy) obtained by the respective coordinate operations, and the geometric deformation parameter Pc. The composite coordinate vector (dcx, dcy) and the coordinate (Xc, Yc) after the geometric deformation process are calculated from the equations (10) and (11).

幾何変形パラメータPcは、合成の重みax,bx,ay,byである。なお、本実施例では、歪曲収差と射影変換のパラメータについて説明したが、ローリングシャッターによる図形歪みの補正パラメータや、並進防振のための画像切り出しパラメータを幾何変形パラメータに合成してもよい。   The geometric deformation parameters Pc are composition weights ax, bx, ay, and by. In the present embodiment, the distortion aberration and projective transformation parameters have been described. However, a graphic distortion correction parameter by a rolling shutter and an image cut-out parameter for translational stabilization may be combined with a geometric deformation parameter.

次に、座標演算手段105aを使用した動きベクトルの補正処理について説明する。ベクトル検出手段104は、各ベクトル検出枠のベクトル起点座標(Vsx,Vsy)とベクトル終点座標(Vex,Vey)を座標演算手段105aに入力する。座標演算手段105aは、幾何変形量の算出方法と同様に、式(2)〜(11)のフローにて、補正ベクトル起点座標(Vsx’,Vsy’)と補正ベクトル終点座標(Vex’,Vey’)を演算する。また、ベクトル検出手段104がベクトル(Vx、Vy)のみを保持しておき、式(12),(13)でベクトル起点座標およびベクトル終点座標に変換してもよい。Sx,Syは画像の左上端枠の開始座標、Tx,Tyはテンプレートサイズ、Dx,Dyはテンプレート間隔、Nは左端枠を0としたときの水平枠カウント数、Mは上端枠を0としたときの垂直枠カウント数を示す。   Next, a motion vector correction process using the coordinate calculation means 105a will be described. The vector detection means 104 inputs the vector starting point coordinates (Vsx, Vsy) and vector end point coordinates (Vex, Vey) of each vector detection frame to the coordinate calculation means 105a. The coordinate calculation means 105a performs the correction vector starting point coordinates (Vsx ′, Vsy ′) and the correction vector end point coordinates (Vex ′, Vey ′) in the flow of the equations (2) to (11), as in the geometric deformation amount calculation method. '). Alternatively, the vector detection unit 104 may hold only the vectors (Vx, Vy) and convert them to the vector start point coordinates and the vector end point coordinates using the equations (12) and (13). Sx and Sy are start coordinates of the upper left frame of the image, Tx and Ty are template sizes, Dx and Dy are template intervals, N is a horizontal frame count when the left frame is 0, and M is 0. Indicates the vertical frame count.

次に、図5を用いて、本実施例の画像処理方法について説明する。   Next, the image processing method of the present embodiment will be described with reference to FIG.

ステップS501では、撮影パラメータ解析手段106がシステム制御手段107から入力される撮影パラメータを解析し、ベクトル検出処理を実行するかどうかを判定する。ベクトル検出処理の実行の有無は、ベクトル補正フラグで決定し、「1」のときはベクトル補正を実施し、「0」のときはベクトル補正を実施しない。   In step S501, the shooting parameter analysis unit 106 analyzes the shooting parameters input from the system control unit 107, and determines whether or not to execute vector detection processing. Whether or not the vector detection process is executed is determined by a vector correction flag. When “1”, vector correction is performed, and when “0”, vector correction is not performed.

撮影パラメータ解析手段106に入力される撮影パラメータと、ベクトル検出処理の実行の判定に関して説明する。判定に使用される撮影パラメータは、いくつかのケースがあるため、以下で説明する。
(i)探索範囲
図6を用いて、撮影パラメータがベクトルの探索範囲である場合について説明する。図6に示すように、時刻t1の被写体エッジ601、時刻t2(>t1)の被写体エッジ602がテンプレート603上に配置されている。被写体エッジ601,602は、本来、同形状であるが、光学系101の歪曲収差、撮像素子102のローリングシャッター歪み、あおり等によって、形状が異なっている。図6(b)の探索範囲604bは、図6(a)の探索範囲604aよりも広い。探索範囲が広い場合、図形歪みが発生した被写体エッジと広くパターンマッチングをとるため、探索範囲が狭い場合に比べ、ベクトルが歪みやすい。したがって、撮影パラメータ解析手段106は、ベクトル検出時の探索範囲(SX,SY)のいずれか一方が所定の閾値(SXth,SYth)よりも大きい場合にベクトル補正フラグを1とする。
(ii)テンプレートサイズ
図7を用いて、撮影パラメータがベクトルのテンプレートサイズである場合について説明する。図7に示すように、時刻t1の被写体エッジ701、時刻t2(>t1)の被写体エッジ702がテンプレート703aまたは703b上に配置されている。被写体エッジ701,702は、(i)で説明したように、形状が異なっている。図7(a)のテンプレート703aは、図7(b)のテンプレート703bよりも大きい。テンプレートが大きい場合、広い範囲でテンプレートマッチングをとるため、誤ったマッチング結果が発生しにくい。そのため、テンプレードが小さい場合に比べ、ベクトルが歪みにくい。したがって、撮影パラメータ解析手段106は、ベクトル検出時のテンプレートサイズ(TX,TY)のいずれか一方が所定の閾値(TXth,TYth)よりも小さい場合にベクトル補正フラグを1とする。
(iii)テンプレートの位置
撮影パラメータがテンプレートの位置である場合について説明する。像高の高い位置に配置されたテンプレートほど、図形歪みの影響を受けやすい。したがって、撮影パラメータ解析手段106は、テンプレートの位置が所定の像高の位置より高い場合、ベクトル補正フラグを1とする。
(iv)光学系の歪曲収差特性
図8を用いて、撮影パラメータが光学系101の歪曲収差特性である場合について説明する。曲線801a,801bは、異なる撮影条件時の光学系101の歪曲収差特性を示している。横軸は像高H、縦軸は歪み量D(H)を示す。歪曲収差が大きいほど、歪んだ被写体でテンプレートマッチングが行われるため、ベクトルの歪みは大きくなる。したがって、撮影パラメータ解析手段106は、テンプレート配置の中で像高がもっとも高くなるHtのときの歪曲収差特性の絶対値が所定の閾値(Dth)よりも大きい場合は、ベクトル補正フラグを1とする。なお、像高位置に応じて、ベクトルの歪みが変わることから、テンプレートごとの歪曲特性をプロット点で保持しておき、各テンプレートで所定の閾値(DTh)と比較して、テンプレードごとにベクトル補正フラグを設定してもよい。
(v)撮像素子の読み出し速度
図9を用いて、撮影パラメータが撮像素子102の読み出し速度である場合について説明する。撮像素子102がローリングシャッターで撮像する方式の場合、ラインごとで読み出し時間が変わるため、手ぶれや被写体ぶれによって、図形歪みが発生する。図9は、時間方向に対する撮像素子102の読み出しタイミングを示したものであり、各矩形が1画像分の読み出しを示す。tcは蓄積時間、vsizeはライン数(垂直画像サイズ)を示す。図9(a)は、画像の上端ライン(v=0)の読み出し時間と、下端ライン(v=vsize−1)の読み出し時間の差分trが大きい、すなわち撮像素子102の読み出し速度が遅い場合である。図9(b)は、差分trが小さい、すなわち撮像素子102の読み出し速度が早い場合である。図9(a)のように読み出し速度が遅くなるほど、ローリングシャッターによる図形歪みが大きくなるため、ベクトルが歪みやすくなる。したがって、撮影パラメータ解析手段106は、差分trが所定の閾値(TRth)よりも大きい場合は、ベクトル補正フラグを1とする。
The shooting parameters input to the shooting parameter analysis unit 106 and the determination of execution of the vector detection process will be described. The shooting parameters used for determination are described in the following because there are several cases.
(I) Search Range A case where the shooting parameter is a vector search range will be described with reference to FIG. As shown in FIG. 6, a subject edge 601 at time t 1 and a subject edge 602 at time t 2 (> t 1) are arranged on a template 603. The subject edges 601 and 602 are originally the same shape, but have different shapes depending on distortion aberration of the optical system 101, rolling shutter distortion of the image sensor 102, tilt, and the like. The search range 604b in FIG. 6B is wider than the search range 604a in FIG. When the search range is wide, pattern matching is widely performed with the subject edge where the graphic distortion has occurred, and thus the vector is more easily distorted than when the search range is narrow. Therefore, the imaging parameter analysis unit 106 sets the vector correction flag to 1 when any one of the search ranges (SX, SY) at the time of vector detection is larger than a predetermined threshold (SXth, SYth).
(Ii) Template Size A case where the shooting parameter is a vector template size will be described with reference to FIG. As shown in FIG. 7, a subject edge 701 at time t1 and a subject edge 702 at time t2 (> t1) are arranged on a template 703a or 703b. The object edges 701 and 702 have different shapes as described in (i). The template 703a in FIG. 7A is larger than the template 703b in FIG. If the template is large, template matching is performed over a wide range, so that erroneous matching results are unlikely to occur. Therefore, the vector is less likely to be distorted than when the template is small. Therefore, the imaging parameter analysis unit 106 sets the vector correction flag to 1 when any one of the template sizes (TX, TY) at the time of vector detection is smaller than the predetermined threshold (TXth, TYth).
(Iii) Template Position A case where the shooting parameter is the template position will be described. The template placed at a higher image height is more susceptible to graphic distortion. Therefore, the shooting parameter analysis unit 106 sets the vector correction flag to 1 when the position of the template is higher than the position of the predetermined image height.
(Iv) Distortion Aberration Characteristic of Optical System A case where the imaging parameter is the distortion aberration characteristic of the optical system 101 will be described with reference to FIG. Curves 801a and 801b show the distortion aberration characteristics of the optical system 101 under different shooting conditions. The horizontal axis represents the image height H, and the vertical axis represents the distortion amount D (H). The greater the distortion, the greater the distortion of the vector because template matching is performed on the distorted subject. Accordingly, the imaging parameter analysis means 106 sets the vector correction flag to 1 when the absolute value of the distortion aberration characteristic at Ht at which the image height is highest in the template arrangement is larger than the predetermined threshold (Dth). . Since the distortion of the vector changes depending on the image height position, the distortion characteristics for each template are held at the plot points, and each template is compared with a predetermined threshold (DTh), and the vector correction is performed for each template. A flag may be set.
(V) Reading speed of image sensor The case where the imaging parameter is the reading speed of the image sensor 102 will be described with reference to FIG. In the case where the image sensor 102 captures an image with a rolling shutter, the readout time changes for each line, and therefore, graphic distortion occurs due to camera shake or subject shake. FIG. 9 shows the readout timing of the image sensor 102 in the time direction, and each rectangle shows readout for one image. tc represents the accumulation time, and vsize represents the number of lines (vertical image size). FIG. 9A shows a case where the difference tr between the readout time of the upper end line (v = 0) and the readout time of the lower end line (v = vsize-1) is large, that is, the readout speed of the image sensor 102 is slow. is there. FIG. 9B shows a case where the difference tr is small, that is, the reading speed of the image sensor 102 is high. As the readout speed becomes slower as shown in FIG. 9A, the figure distortion due to the rolling shutter becomes larger, and the vector becomes more distorted. Therefore, the imaging parameter analysis unit 106 sets the vector correction flag to 1 when the difference tr is larger than the predetermined threshold (TRth).

なお、撮影パラメータは、(i)〜(v)で説明したパラメータを複数使用してもよい。例えば、各々のベクトル補正フラグの論理和をとることで、ベクトル補正が必要となる条件のいずれかが有効になった場合は、ベクトル補正を実施するように制御する。   Note that a plurality of parameters described in (i) to (v) may be used as shooting parameters. For example, by taking the logical sum of the vector correction flags, if any of the conditions that require vector correction becomes valid, control is performed so that vector correction is performed.

ステップS502では、ステップS501で求められたベクトル補正フラグが0の場合はシーケンスAのステップS503に、ベクトル補正フラグが0でない場合、すなわち1の場合はシーケンスBのステップS504に進む。   In step S502, if the vector correction flag obtained in step S501 is 0, the process proceeds to step S503 of the sequence A. If the vector correction flag is not 0, that is, the process proceeds to step S504 of the sequence B.

ステップS503では、ベクトル検出手段104は1水平ライン分のベクトル検出枠単位でベクトル値を算出し、システム制御手段107はベクトル値を読み出す。   In step S503, the vector detection unit 104 calculates a vector value in units of vector detection frames for one horizontal line, and the system control unit 107 reads the vector value.

ステップS504では、ベクトル検出手段104が全ベクトル検出枠のベクトル値を算出する。   In step S504, the vector detection unit 104 calculates the vector value of the entire vector detection frame.

ステップS505では、幾何変形手段105が画像信号の幾何変形処理を行う。このとき、ベクトル検出手段104は、幾何変形手段105がベクトル検出手段104のベクトル値を入力可能な状態となるまで待機する。幾何変形手段105は、ベクトル値が入力可能となった時点で、例えば、ベクトル検出手段104にイネーブル信号を送信する。   In step S505, the geometric deformation unit 105 performs a geometric deformation process on the image signal. At this time, the vector detection unit 104 stands by until the geometric deformation unit 105 becomes ready to input the vector value of the vector detection unit 104. The geometric deformation unit 105 transmits an enable signal to the vector detection unit 104, for example, when the vector value can be input.

ステップS506では、ベクトル検出手段104が幾何変形手段105にベクトル値を出力し、幾何変形手段105内の座標演算手段105aがベクトル補正を行う。補正されたベクトル値は、ベクトル検出手段104に出力される。ベクトル補正は、全ベクトル検出枠一括で実施される。   In step S506, the vector detection means 104 outputs a vector value to the geometric deformation means 105, and the coordinate calculation means 105a in the geometric deformation means 105 performs vector correction. The corrected vector value is output to the vector detection means 104. Vector correction is performed in a batch for all vector detection frames.

ステップS507では、システム制御手段107は、ベクトル検出手段104に入力された補正されたベクトル値を読み出す。   In step S <b> 507, the system control unit 107 reads the corrected vector value input to the vector detection unit 104.

ステップS508では、システム制御手段107は、読み出したベクトル値を用いて手ぶれ情報を算出し、さらに防振パラメータを算出する。   In step S508, the system control unit 107 calculates camera shake information using the read vector value, and further calculates an image stabilization parameter.

以上、説明したように、本実施例の撮像装置は、効果的にリソース共有しながら、動きベクトルを補正することが可能である。   As described above, the imaging apparatus according to the present embodiment can correct a motion vector while effectively sharing resources.

図10は、実施例2の撮像装置のブロック構成図である。本実施例の撮像装置は、ベクトル検出手段1004と画像解析手段(判定手段)1006以外の構成は、実施例1の撮像装置と差分がない。   FIG. 10 is a block diagram of the imaging apparatus according to the second embodiment. The imaging apparatus according to the present exemplary embodiment has no difference from the imaging apparatus according to the first exemplary embodiment except for the vector detection unit 1004 and the image analysis unit (determination unit) 1006.

画像解析手段1006は、撮像素子102が出力する画像信号より、各ベクトル検出枠に対するベクトル補正フラグを算出し、ベクトル検出手段1004に出力する。ベクトル検出手段1004は、撮像素子102が出力する画像信号と、メモリ103が出力する1フレーム前の画像信号より、ベクトル値を算出する。このとき、画像解析手段1006から出力される各ベクトル検出枠のベクトル補正フラグがベクトル値に付与される。ベクトル検出手段1004で算出されたベクトル値は、ベクトル検出枠ごとのベクトル補正フラグに基づいて、幾何変形手段105内の座標演算手段105aに入力される。座標演算手段105aは、ベクトル値の補正を行い、補正したベクトル値をベクトル検出手段1004に出力する。   The image analysis unit 1006 calculates a vector correction flag for each vector detection frame from the image signal output by the image sensor 102 and outputs the vector correction flag to the vector detection unit 1004. The vector detection unit 1004 calculates a vector value from the image signal output from the image sensor 102 and the image signal one frame before output from the memory 103. At this time, the vector correction flag of each vector detection frame output from the image analysis unit 1006 is added to the vector value. The vector value calculated by the vector detection means 1004 is input to the coordinate calculation means 105a in the geometric deformation means 105 based on the vector correction flag for each vector detection frame. The coordinate calculation unit 105 a corrects the vector value and outputs the corrected vector value to the vector detection unit 1004.

次に、図11を用いて、本実施例の画像処理方法について説明する。実施例1とは、枠単位でベクトル補正フラグを算出し、ベクトル補正しないベクトル検出枠は水平ラインごとで読み出すことで、ベクトル補正時でも手ぶれ情報を先行で求めていく点が異なる。具体的には、図12に示すように、システム制御手段107は、ベクトル補正しない検出枠のベクトル値は1201のタイミングで取得し、ベクトル補正する検出枠のベクトル値は幾何変形処理が完了した1202のタイミングで取得する。   Next, the image processing method of the present embodiment will be described with reference to FIG. The first embodiment is different from the first embodiment in that a vector correction flag is calculated for each frame and a vector detection frame without vector correction is read for each horizontal line, so that camera shake information is obtained in advance even during vector correction. Specifically, as shown in FIG. 12, the system control unit 107 acquires the vector value of the detection frame that is not vector-corrected at the timing 1201, and the vector value of the detection frame that is vector-corrected is 1202 for which the geometric deformation processing has been completed. Get at the timing.

ステップS1101では、画像解析手段1006は、撮像素子102からの画像信号より画像特徴量を抽出する。図13に示すように、画像信号を複数に分割したベクトル検出枠ごとにベクトル補正フラグを算出する。図13において、「0」が表示されている枠はベクトル補正を実施しない枠、「1」が表示されている枠はベクトル補正を実施する枠を示している。   In step S <b> 1101, the image analysis unit 1006 extracts an image feature amount from the image signal from the image sensor 102. As shown in FIG. 13, a vector correction flag is calculated for each vector detection frame obtained by dividing an image signal into a plurality of parts. In FIG. 13, a frame displaying “0” indicates a frame where vector correction is not performed, and a frame displaying “1” indicates a frame where vector correction is performed.

画像解析方法と、ベクトル検出処理の実行の判定に関して説明する。ベクトル補正フラグは、ベクトル検出枠内の被写体がベクトル検出に適しているか否かによって判定する。ベクトル検出に適している被写体を有する場合は、ベクトル補正を実施することで、さらにベクトル検出の精度を向上させる。ベクトル検出に適さない被写体を有する場合は、ベクトル補正を実施してもその効果が低いと考えられるため、ベクトル補正しない。制御に使用される画像特徴量は、いくつかのケースがあるため、以下で説明する。
(i)コントラスト(勾配)情報
ベクトル検出枠内のコントラストが低い場合は、高い相関値を出す位相が存在しない、ノイズ等の小振幅の影響を受けやすくなるため、精度の低いベクトル値が算出される可能性がある。したがって、画像解析手段1006は、ベクトル検出手段1004が不得意とするエッジ形状であると判定し、ベクトル補正フラグを0とする。なお、ベクトル検出枠内のコントラストの算出方法としては、既知のアルゴリズム、例えば、ベクトル検出枠内の微分フィルタをかけた画像信号の積分値などによって求めればよい。また、テンプレートマッチングの結果(相関値)を使用して、画像のコントラストを推定する手法を使用してもよい。例えば、最大相関値CMAXと最小相関値CMINの差分値が所定の閾値CTHよりも小さい場合に、画像解析手段1006は、低コントラスト被写体と判定し、ベクトル補正フラグVflagを0とする。
(ii)エッジ情報
図14は、ベクトル検出手段1004が得意・不得意とするエッジ形状例を示した図である。
An image analysis method and determination of execution of vector detection processing will be described. The vector correction flag is determined based on whether or not the subject within the vector detection frame is suitable for vector detection. When there is a subject suitable for vector detection, vector correction is performed to further improve the accuracy of vector detection. When there is a subject that is not suitable for vector detection, even if vector correction is performed, the effect is considered to be low, and thus vector correction is not performed. The image feature amount used for control has several cases and will be described below.
(I) Contrast (gradient) information When the contrast in the vector detection frame is low, there is no phase that produces a high correlation value, and it is easily affected by small amplitudes such as noise. There is a possibility. Therefore, the image analysis unit 1006 determines that the edge shape is unsuitable for the vector detection unit 1004 and sets the vector correction flag to 0. In addition, as a method for calculating the contrast in the vector detection frame, it may be obtained by a known algorithm, for example, an integral value of an image signal subjected to a differential filter in the vector detection frame. Further, a method for estimating the contrast of an image using a template matching result (correlation value) may be used. For example, when the difference value between the maximum correlation value CMAX and the minimum correlation value CMIN is smaller than a predetermined threshold CTH, the image analysis unit 1006 determines that the subject is a low contrast subject and sets the vector correction flag Vflag to 0.
(Ii) Edge Information FIG. 14 is a diagram showing an example of an edge shape that the vector detection unit 1004 is good at and not good at.

図14(a)は、1本の線エッジ(単線エッジ)1401aがベクトル検出枠内にある場合を示している。線エッジ1401aは、直線エッジ方向に動きがあった場合に、高い相関値を出してしまうため、正しくベクトル値が算出できない。したがって、画像解析手段1006は、ベクトル検出手段1004が不得意とするエッジ形状だと判定し、ベクトル補正フラグを0とする。   FIG. 14A shows a case where one line edge (single line edge) 1401a is in the vector detection frame. Since the line edge 1401a gives a high correlation value when there is a movement in the direction of the straight edge, the vector value cannot be calculated correctly. Therefore, the image analysis unit 1006 determines that the edge shape is unsuitable for the vector detection unit 1004 and sets the vector correction flag to 0.

図14(b)は、周期性のある線エッジ(周期エッジ)1401bがベクトル検出枠内にある場合を示している。線エッジ1401bは、高い相関値を出す位相が頻発するため、正しくベクトル値が算出できない。したがって、画像解析手段1006は、ベクトル検出手段1004が不得意とするエッジ形状だと判定し、ベクトル補正フラグを0とする。   FIG. 14B shows a case where a line edge (periodic edge) 1401b having periodicity is in the vector detection frame. Since the line edge 1401b frequently has a phase that gives a high correlation value, a vector value cannot be calculated correctly. Therefore, the image analysis unit 1006 determines that the edge shape is unsuitable for the vector detection unit 1004 and sets the vector correction flag to 0.

図14(c)は、2本以上の線エッジが交差するコーナー点(交差エッジ)1401cがベクトル検出枠内にある場合を示している。コーナー点1401cは、高い相関値を出す位相が近傍に集中するため、精度の高いベクトル値が算出できる。したがって、画像解析手段1006は、ベクトル検出手段1004が得意とするエッジ形状だと判定でき、ベクトル補正フラグを1とする。   FIG. 14C shows a case where a corner point (intersecting edge) 1401c where two or more line edges intersect is in the vector detection frame. Since the corner point 1401c concentrates in the vicinity of the phase that produces a high correlation value, a highly accurate vector value can be calculated. Therefore, the image analysis unit 1006 can determine that the edge shape is good for the vector detection unit 1004 and sets the vector correction flag to 1.

なお、ベクトル検出枠内のエッジ形状の算出方法としては、既知のアルゴリズム、例えば、パターンマッチングや、周波数解析、特徴点検出、などを使用する。また、テンプレートマッチングの結果(相関値)を使用して、ベクトル検出が苦手とする被写体の有無を推定する手法を使用してもよい。例えば、shi−tomasiのコーナー検出式(式(14)参照)を用いて求められた画素ごとのMcの最大値Mcmaxが閾値Mcthよりも大きい場合は、ベクトル補正フラグVflagを1とする。   As a method for calculating the edge shape in the vector detection frame, a known algorithm such as pattern matching, frequency analysis, feature point detection, or the like is used. Further, a method of estimating the presence or absence of a subject that is not good at vector detection using a template matching result (correlation value) may be used. For example, the vector correction flag Vflag is set to 1 when the maximum Mc value Mcmax for each pixel obtained using the shi-tomasi corner detection formula (see formula (14)) is larger than the threshold value Mcth.

なお、画像特徴量は、(i)、(ii)で示したパラメータの複数を使用してもよい。例えば、各々のベクトル補正フラグの論理和をとることで、ベクトル補正が必要となる条件のいずれかが有効になった場合は、ベクトル補正を実施するように制御する。   As the image feature amount, a plurality of parameters shown in (i) and (ii) may be used. For example, by taking the logical sum of the vector correction flags, if any of the conditions that require vector correction becomes valid, control is performed so that vector correction is performed.

ステップS1102では、ベクトル検出手段1004は1水平ライン分のベクトル検出枠単位でベクトル値を算出し、システム制御手段107はベクトル補正フラグが0であるベクトル値を読み出す。   In step S1102, the vector detection unit 1004 calculates a vector value in units of vector detection frames for one horizontal line, and the system control unit 107 reads a vector value whose vector correction flag is 0.

ステップS1103では、幾何変形手段105が画像信号の幾何変形処理を行う。このとき、ベクトル検出手段1004は、幾何変形手段105がベクトル検出手段1004のベクトル値を入力可能な状態となるまで待機する。幾何変形手段105は、ベクトル値が入力可能となった時点で、例えば、ベクトル検出手段1004にイネーブル信号を送信する。   In step S1103, the geometric deformation unit 105 performs a geometric deformation process on the image signal. At this time, the vector detection unit 1004 waits until the geometric deformation unit 105 becomes ready to input the vector value of the vector detection unit 1004. The geometric deformation unit 105 transmits an enable signal to the vector detection unit 1004, for example, when the vector value can be input.

ステップS1104では、ベクトル検出手段1004は幾何変形手段105にベクトル補正フラグが1であるベクトル値を出力し、幾何変形手段105内の座標演算手段105aがベクトル補正を行う。補正されたベクトル値は、ベクトル検出手段1004に出力される。   In step S1104, the vector detection unit 1004 outputs a vector value whose vector correction flag is 1 to the geometric deformation unit 105, and the coordinate calculation unit 105a in the geometric deformation unit 105 performs vector correction. The corrected vector value is output to the vector detection means 1004.

ステップS1105では、システム制御手段107は、ベクトル補正フラグが1のベクトル検出枠のベクトル値を読み出す。   In step S1105, the system control unit 107 reads the vector value of the vector detection frame whose vector correction flag is 1.

ステップS1106では、システム制御手段107は、読み出したベクトル値を用いて既知の手法で手ぶれ情報を算出し、さらに防振パラメータを算出する。   In step S1106, the system control unit 107 calculates camera shake information by a known method using the read vector value, and further calculates an image stabilization parameter.

以上、説明したように、本実施例の撮像装置は、効果的にリソース共有しながら、動きベクトルを補正することが可能である。   As described above, the imaging apparatus according to the present embodiment can correct a motion vector while effectively sharing resources.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

101 光学系
102 撮像素子
104,1004 ベクトル検出手段
105 幾何変形手段(処理手段)
106 撮影パラメータ解析手段(判定手段)
1006 画像解析手段(判定手段)
101 Optical system 102 Image sensor 104, 1004 Vector detection means 105 Geometric deformation means (processing means)
106 Imaging parameter analysis means (determination means)
1006 Image analysis means (determination means)

Claims (11)

光学系を通過した光学像を画像信号に変換する撮像素子と、
動きベクトルを検出するベクトル検出手段と、
前記画像信号の幾何変形処理を行うとともに、前記動きベクトルの補正処理を行う処理手段と、
前記処理手段による前記動きベクトルの補正処理の実行を判定する判定手段と、を有することを特徴とする撮像装置。
An image sensor that converts an optical image that has passed through the optical system into an image signal;
Vector detection means for detecting a motion vector;
Processing means for performing geometric deformation processing of the image signal and correcting the motion vector;
An image pickup apparatus comprising: determination means for determining execution of the motion vector correction processing by the processing means.
前記処理手段は、前記画像信号の幾何変形処理を行っていないときに、前記動きベクトルの補正処理を行うことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the processing unit performs correction processing of the motion vector when geometric processing of the image signal is not performed. 前記ベクトル検出手段は、テンプレートマッチング方式を用いて前記動きベクトルを検出することを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the vector detection unit detects the motion vector using a template matching method. 前記判定手段は、前記動きベクトルの検出に用いられるテンプレートの探索範囲、前記動きベクトルの検出に用いられるテンプレートのサイズ、前記動きベクトルの検出に用いられるテンプレートの位置、前記光学系の収差特性、および前記撮像素子の読み出し速度の少なくともいずれかに基づいて前記動きベクトルの補正処理の実行を判定することを特徴とする請求項3に記載の撮像装置。   The determination means includes a template search range used for detecting the motion vector, a template size used for detecting the motion vector, a template position used for detecting the motion vector, an aberration characteristic of the optical system, and The imaging apparatus according to claim 3, wherein execution of the motion vector correction process is determined based on at least one of a reading speed of the imaging element. 前記判定手段は、前記探索範囲が所定の広さより狭い場合、前記サイズが所定の大きさより大きい場合、前記テンプレートの位置が所定の像高の位置より低い位置である場合、前記光学系の歪曲収差が所定の値より小さい場合、および前記撮像素子の読み出し速度が所定の速度より早い場合の少なくともいずれかの場合に、前記処理手段が前記動きベクトルの補正処理を行わないように判定することを特徴とする請求項4に記載の撮像装置。   When the search range is narrower than a predetermined width, the size is larger than a predetermined size, the template position is lower than a predetermined image height position, the determination unit is configured to detect distortion of the optical system. The processing means determines not to perform the correction processing of the motion vector when at least one of the case is smaller than a predetermined value and the reading speed of the image sensor is higher than a predetermined speed. The imaging device according to claim 4. 前記判定手段は、前記画像信号を複数に分割した検出枠ごとに、前記動きベクトルの補正処理の実行を判定することを特徴とする請求項1から3のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the determination unit determines execution of the motion vector correction processing for each detection frame obtained by dividing the image signal into a plurality of frames. 前記判定手段は、前記検出枠のコントラストとエッジ形状の少なくともいずれかに基づいて前記動きベクトルの補正処理の実行を判定することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the determination unit determines execution of the motion vector correction processing based on at least one of a contrast and an edge shape of the detection frame. 前記判定手段は、前記コントラストが所定の値より低い場合、前記検出枠に単線エッジが含まれる場合、前記検出枠に周期エッジが含まれる場合および前記検出枠に交差エッジが含まれない場合の少なくともいずれかの場合に、前記処理手段が前記動きベクトルの補正処理を行わないように判定することを特徴とする請求項7に記載の撮像装置。   The determination means includes at least a case where the contrast is lower than a predetermined value, a case where a single-line edge is included in the detection frame, a case where a periodic edge is included in the detection frame, and a case where a cross edge is not included in the detection frame. 8. The imaging apparatus according to claim 7, wherein in any case, the processing unit determines not to perform the correction processing of the motion vector. 前記動きベクトルを読み出して、手ぶれ量を算出する制御手段を更に有し、
前記制御手段は、前記判定手段によって補正処理が必要でないと判定された前記検出枠の前記動きベクトルを幾何変形処理が完了する前に読み出し、前記判定手段によって補正処理が必要であると判定された前記検出枠の前記動きベクトルを幾何変形処理が完了した後に読み出すことを特徴とする請求項6から8のいずれか1項に記載の画像処理方法。
It further comprises control means for reading out the motion vector and calculating the amount of camera shake,
The control unit reads the motion vector of the detection frame determined by the determination unit as not requiring correction processing before the geometric deformation processing is completed, and the determination unit determines that correction processing is necessary. The image processing method according to claim 6, wherein the motion vector of the detection frame is read after the geometric deformation process is completed.
光学系を通過した光学像を画像信号に変換する撮像素子と、動きベクトルを検出するベクトル検出手段と、前記画像信号の幾何変形処理を行うとともに、前記動きベクトルの補正処理を行う処理手段と、前記処理手段による前記動きベクトルの補正処理の実行を判定する判定手段と、を有する撮像装置の画像処理方法であって、
前記判定手段が前記処理手段による前記動きベクトルの補正処理が必要であるかを判定する判定ステップと、
前記判定ステップにおいて、補正処理が必要でないと判定された場合、前記処理手段が前記動きベクトルの補正処理を行わず、補正処理が必要であると判定された場合、前記動きベクトルの補正処理を行う処理ステップと、を有することを特徴とする画像処理方法。
An image sensor that converts an optical image that has passed through the optical system into an image signal, a vector detection unit that detects a motion vector, a processing unit that performs a geometric deformation process of the image signal and a correction process of the motion vector, An image processing method for an imaging apparatus, comprising: a determination unit that determines execution of the motion vector correction process by the processing unit;
A determination step in which the determination unit determines whether the correction processing of the motion vector by the processing unit is necessary;
If it is determined in the determination step that correction processing is not necessary, the processing means does not perform the motion vector correction processing. If it is determined that correction processing is required, the motion vector correction processing is performed. And a processing step.
光学系を通過した光学像を画像信号に変換する撮像素子と、動きベクトルを検出するベクトル検出手段と、前記画像信号の幾何変形処理を行うとともに、前記動きベクトルの補正処理を行う処理手段と、前記画像信号を複数に分割した検出枠ごとに、前記動きベクトルの補正処理の実行を判定する判定手段と、前記動きベクトルを読み出して、手ぶれ量を算出する制御手段と、を有する撮像装置の画像処理方法であって、
前記判定手段が前記処理手段による前記動きベクトルの補正処理の実行が必要であるかを判定する判定ステップと、
前記制御手段が前記判定ステップにおいて補正処理が必要でないと判定された前記検出枠の前記動きベクトルを読み出す第1の読み出しステップと、
前記処理手段が前記画像信号の幾何変形処理を行う変形処理ステップと、
前記判定ステップにおいて補正処理が必要であると判定された前記検出枠の前記動きベクトルの補正処理を行う補正処理ステップと、
前記制御手段が前記補正処理ステップにおいて補正処理された前記動きベクトルを読み出す第2の読み出しステップと、を有することを特徴とする画像処理方法。
An image sensor that converts an optical image that has passed through the optical system into an image signal, a vector detection unit that detects a motion vector, a processing unit that performs a geometric deformation process of the image signal and a correction process of the motion vector, An image of an imaging apparatus, comprising: a determination unit that determines execution of the motion vector correction processing for each detection frame obtained by dividing the image signal into a plurality; and a control unit that reads the motion vector and calculates an amount of camera shake. A processing method,
A determination step for determining whether or not the determination unit needs to execute correction processing of the motion vector by the processing unit;
A first reading step in which the control means reads the motion vector of the detection frame that is determined not to require a correction process in the determination step;
A deformation processing step in which the processing means performs a geometric deformation processing of the image signal;
A correction processing step of performing correction processing of the motion vector of the detection frame determined to require correction processing in the determination step;
An image processing method comprising: a second reading step in which the control means reads the motion vector corrected in the correction processing step.
JP2014126825A 2014-06-20 2014-06-20 Imaging apparatus and image processing method Pending JP2016006920A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014126825A JP2016006920A (en) 2014-06-20 2014-06-20 Imaging apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014126825A JP2016006920A (en) 2014-06-20 2014-06-20 Imaging apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2016006920A true JP2016006920A (en) 2016-01-14

Family

ID=55225151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014126825A Pending JP2016006920A (en) 2014-06-20 2014-06-20 Imaging apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2016006920A (en)

Similar Documents

Publication Publication Date Title
JP5794705B2 (en) Imaging apparatus, control method thereof, and program
JP6688277B2 (en) Program, learning processing method, learning model, data structure, learning device, and object recognition device
JP6518115B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, CONTROL METHOD OF IMAGE PROCESSING APPARATUS, AND PROGRAM
JP5141245B2 (en) Image processing apparatus, correction information generation method, and imaging apparatus
JP6577703B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2014131257A (en) Image correction system, image correction method, and program
JP6172935B2 (en) Image processing apparatus, image processing method, and image processing program
JP2015148532A (en) Distance measuring device, imaging apparatus, distance measuring method, and program
JP6594170B2 (en) Image processing apparatus, image processing method, image projection system, and program
JP2017175364A (en) Image processing device, imaging device, and control method of image processing device
JP6564284B2 (en) Image processing apparatus and image processing method
JP6282133B2 (en) Imaging device, control method thereof, and control program
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
CN110852958B (en) Self-adaptive correction method and device based on object inclination angle
JP2016066848A (en) Imaging apparatus and method for controlling the same
JP5446285B2 (en) Image processing apparatus and image processing method
JP5955003B2 (en) Image processing apparatus, image processing method, and program
JP6604783B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2015095670A (en) Imaging apparatus, control method thereof and control program
JP6378496B2 (en) Image processing apparatus, control method, and recording medium
JP2016006920A (en) Imaging apparatus and image processing method
JP6516574B2 (en) Image blur correction device, imaging device, image blur correction method
JP6016546B2 (en) Imaging device, control method thereof, and control program
JP2008235958A (en) Imaging apparatus
JP6273881B2 (en) Image processing apparatus, image processing method, and program