JP6026752B2 - Object detection from image profiles - Google Patents

Object detection from image profiles Download PDF

Info

Publication number
JP6026752B2
JP6026752B2 JP2012030988A JP2012030988A JP6026752B2 JP 6026752 B2 JP6026752 B2 JP 6026752B2 JP 2012030988 A JP2012030988 A JP 2012030988A JP 2012030988 A JP2012030988 A JP 2012030988A JP 6026752 B2 JP6026752 B2 JP 6026752B2
Authority
JP
Japan
Prior art keywords
frame
determining
image
vector
integral projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012030988A
Other languages
Japanese (ja)
Other versions
JP2012168952A (en
JP2012168952A5 (en
Inventor
アルブ,フェリックス
マレー,ラリー
ステック,ピョートル
ラドゥカン,イラリウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fotonation Ltd
Original Assignee
DigitalOptics Corp Europe Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/028,205 external-priority patent/US8705894B2/en
Priority claimed from US13/028,203 external-priority patent/US8587665B2/en
Priority claimed from US13/028,206 external-priority patent/US8587666B2/en
Application filed by DigitalOptics Corp Europe Ltd filed Critical DigitalOptics Corp Europe Ltd
Publication of JP2012168952A publication Critical patent/JP2012168952A/en
Publication of JP2012168952A5 publication Critical patent/JP2012168952A5/ja
Application granted granted Critical
Publication of JP6026752B2 publication Critical patent/JP6026752B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

(関連出願)
この出願は、同一の発明者及び譲受人により同時期に提出された以下のタイトルを有する3件の出願の内の一つである:「高速な回転推定(FAST ROTATION ESTIMATION)」、「局所的動き推定に由来する画像回転(IMAGE ROTATION FROM LOCAL MOTION ESTIMATES)」、及び「画像プロフィールに由来する物体検出(OBJECT DETECTION FROM IMAGE PROFILES)」。
(Related application)
This application is one of three applications filed at the same time by the same inventor and assignee with the following titles: “FAST ROTATION ESTIMATION”, “Local Image rotation derived from motion estimation (IMAGE ROTATION FROM LOCAL MOTION ESTIMATES), and "Object detection derived from image profile (OBJECT DETECTION FROM IMAGE PROFILES)".

(バックグラウンド)
連続するビデオフレーム間の、あるいは画像対間の回転変化を発見するための効率的な解決策を持つことが望まれている。そのようなものは、多くの中のわずかの例をリストするために、測定及び補償、パノラマ生成、画像安定化及び/又は物体トラッキングを分かりにくくするように適用され得る。相互の情報に基づいた代替的な解決策は、ハフ変換、ラドン変換、フーリエ変換、そしてポーラー変換を含む。しかしながら、これらの代替的な解決策が資源消費的なので、より効率的な解決策を持つことが望まれている。
(Background)
It would be desirable to have an efficient solution for finding rotational changes between consecutive video frames or between image pairs. Such can be applied to obfuscate measurement and compensation, panorama generation, image stabilization and / or object tracking to list a few of the many examples. Alternative solutions based on mutual information include Hough transform, Radon transform, Fourier transform, and polar transform. However, since these alternative solutions are resource consuming, it is desirable to have a more efficient solution.

パノラマ生成における共通の問題点は、例えば、接合(stitch)或いは連結されるべき2つのフレーム間に回転が発生することである。代案は、接合の前に高精度回転推定を使用し画像を再サンプリングすることであるが、これは計算コストが高く、大量のメモリを必要とする。隣接した画像セグメントを接合または連結する前に、回転を検出する及び/又は修正するカメラでのパノラマ生成のためのアプリケーションを持つことが望まれている。   A common problem in panorama generation is, for example, the occurrence of rotation between two frames that are to be joined or connected. An alternative is to resample the image using high precision rotation estimation prior to splicing, but this is computationally expensive and requires a large amount of memory. It would be desirable to have an application for panorama generation with a camera that detects and / or corrects rotation before splicing or joining adjacent image segments.

画像回転は、通常、余分な計算及び処理時間を含んでおり、実時間で成功させることが困難である。画像が接合される前の回転を補償する画像再サンプリングは、遅く、計算コストが高い。   Image rotation usually involves extra computation and processing time and is difficult to succeed in real time. Image resampling that compensates for rotation before the images are spliced is slow and computationally expensive.

異なる角度で二値画像の中心を通り抜ける線から得られる積分投影ベクトルの勾配が、1つのより高い正のスパイク及び1つのより高い負のスパイクを有することの観測を示す256×256画像に基づくプロット図である。A plot based on a 256 × 256 image showing the observation that the slope of the integral projection vector obtained from a line passing through the center of the binary image at different angles has one higher positive spike and one higher negative spike FIG. 対応する係数で集中されたエネルギー・スパイクを示すプロット図である。FIG. 6 is a plot showing energy spikes concentrated with corresponding coefficients. 異なる変数ベクトルの長さに対する畳み込まれた絶対ベクトルの差分の合計を示すプロット図である。FIG. 7 is a plot diagram showing the sum of differences of convolved absolute vectors for different variable vector lengths. 512×512画像用のベクトル長さの関数として度数値で推定された回転角を示すプロット図である。FIG. 6 is a plot showing rotation angles estimated with power values as a function of vector length for a 512 × 512 image. シミュレートされた3度の回転に対して計算され推定された回転を示すプロット図である。FIG. 6 is a plot showing rotation calculated and estimated for a simulated 3 degree rotation. 回転角が0.2度から5度まで0.2度のステップで変えられる、シミュレートされた例を示すプロット図である。FIG. 6 is a plot showing a simulated example where the rotation angle is changed from 0.2 degrees to 5 degrees in steps of 0.2 degrees. カメラが回転する場合の局所的なウィンドウの相対的な方向を概略的に示す図である。It is a figure which shows roughly the relative direction of a local window when a camera rotates. 計算された水平及び垂直の置換を考慮に入れた点に関して行うことができる角度推定の例を示す図である。FIG. 6 shows an example of angle estimation that can be performed for points that take into account calculated horizontal and vertical permutations. 物体の動きを検知するのに用いられる整列されたプロフィールに対するプロフィールの差分のプロットを示す図である。FIG. 4 shows a profile difference plot against an aligned profile used to detect object motion. 物体検出及び/又はトラッキングに使用される、整列され動きのある画像プロフィールのプロットを示す図である。FIG. 6 shows a plot of an aligned and moving image profile used for object detection and / or tracking.

(実施の形態の詳細な説明)
技術は、画像取得装置内で、取得された画像の隅領域のマッチングから回転を検知する方法を遂行するために提供される。画像フレームのシーケンスが取得される。フレーム間の回転の度合いが決定される。画像フレームのシーケンスのフレームに続いて、第1のフレーム及び第2のフレームに対して大域的なXY整列が遂行される。整列された画像フレームの対の少なくとも2つの合致する隅領域で、局所のXY整列が決定される。局所のXY整列間の差分に基づいて、第1のフレームに関連のある第2のフレームの大域的な回転が決定される。決定された大域的な回転に基づいて、更なる動作が遂行される。
(Detailed description of embodiment)
Techniques are provided for performing a method for detecting rotation from matching corner regions of an acquired image within an image acquisition device. A sequence of image frames is acquired. The degree of rotation between frames is determined. Following the frame of the sequence of image frames, a global XY alignment is performed on the first frame and the second frame. A local XY alignment is determined in at least two matching corner regions of the aligned image frame pair. Based on the difference between the local XY alignments, the global rotation of the second frame relative to the first frame is determined. Further actions are performed based on the determined global rotation.

他の技術は、画像取得装置内で、取得された画像のマッチング領域から回転を検知する方法を遂行するために提供される。画像フレームのシーケンスが取得される。フレーム間の回転の度合いが決定される。画像シーケンスのフレームに続いて、第1のフレーム及び第2のフレームの大域的なXY整列が遂行される。整列された画像の対の少なくとも2つの合致する領域で、局所のXY整列が決定される。少なくとも2つの合致する領域間で、デルタ(delta−)X及びデルタYの差分が決定される。デルタX及びデルタYの差分から、大域的なフレーム間の回転が計算される。計算された大域的なフレーム間の回転に基づいて、更なる動作が遂行される。   Another technique is provided for performing a method for detecting rotation from a matching region of an acquired image in an image acquisition device. A sequence of image frames is acquired. The degree of rotation between frames is determined. Following the frame of the image sequence, a global XY alignment of the first frame and the second frame is performed. A local XY alignment is determined in at least two matching regions of the aligned image pair. The difference between delta X and delta Y is determined between at least two matching regions. From the difference between delta X and delta Y, a global interframe rotation is calculated. Further operations are performed based on the calculated global inter-frame rotation.

技術は、さらに、画像取得装置内で、積分投影ベクトルを相互相関させる方法を遂行するために提供される。画像フレームのシーケンスが取得される。フレーム間の回転の度合いが決定される。前記シーケンスの画像フレームに続いて、第1のフレーム及び第2のフレームの各々に対する水平・垂直の積分投影ベクトル勾配が決定される。積分投影ベクトル勾配は正規化される。積分投影ベクトル勾配の主要な最大及び最小ピークの位置が決定される。主要な最大及び最小ピークの間の正規化された距離に基づいて、大域的な画像回転が決定される。決定された大域的な画像回転に基づいて、更なる動作が遂行される。   The technique is further provided for performing a method for cross-correlating integral projection vectors in an image acquisition device. A sequence of image frames is acquired. The degree of rotation between frames is determined. Following the sequence of image frames, horizontal and vertical integral projection vector gradients for each of the first and second frames are determined. The integral projection vector gradient is normalized. The positions of the major maximum and minimum peaks of the integral projection vector gradient are determined. Based on the normalized distance between the major maximum and minimum peaks, a global image rotation is determined. Further actions are performed based on the determined global image rotation.

他の技術は、画像取得装置内で、積分投影ベクトルを相互相関させる方法を遂行するために提供される。画像フレームのシーケンスが取得される。フレーム間の回転の度合いが決定される。前記シーケンスの画像フレームに続いて、第1フレーム及び第2フレームの各々に対して水平・垂直の積分投影ベクトルが決定される。第1の積分投影ベクトルは、可変長ベクトルで連続的に畳み込まれる。第2の積分投影ベクトルは、固定長ベクトルで畳み込まれる。第1及び第2の積分投影ベクトルの畳み込みに基づいてフィルタリングされたベクトル間の差分の絶対和が決定される。差分の絶対和の最小値を導く可変ベクトルNの長さに基づいて、第1のフレームに対する第2のフレームの大域的な回転が決定される。決定された大域的な回転に基づいて、更なる動作が遂行される。   Another technique is provided for performing a method of cross-correlating integral projection vectors within an image acquisition device. A sequence of image frames is acquired. The degree of rotation between frames is determined. Following the sequence of image frames, horizontal and vertical integral projection vectors are determined for each of the first and second frames. The first integral projection vector is continuously convolved with a variable length vector. The second integral projection vector is convolved with a fixed length vector. An absolute sum of differences between the filtered vectors is determined based on the convolution of the first and second integral projection vectors. A global rotation of the second frame relative to the first frame is determined based on the length of the variable vector N leading to the minimum absolute sum of the differences. Further actions are performed based on the determined global rotation.

技術は、さらに、画像取得装置内で、積分投影ベクトル中の移動物体を決定する方法を遂行するために提供される。画像フレームのシーケンスが取得される。フレーム間の回転の度合いが決定される。画像シーケンスのフレームに続いて、第1のフレーム及び第2のフレームの大域的なXY整列が遂行される。整列された大域的なベクトルが顕著な局部的な差分を明示するX及びYの積分投影ベクトルの各々の少なくとも1つの部分が決定される。X及びYの積分投影ベクトルの少なくとも1つの部分のX及びYの位置に基づいて、画像フレームのシーケンス内で、少なくとも一の移動物体の、位置、相対速度、及び/又は近似の領域が決定される。少なくとも一の移動物体の決定された位置、相対速度、及び/又は近似の領域に基づいて、更なる動作が遂行される。   The technique is further provided for performing a method for determining a moving object in an integral projection vector in an image acquisition device. A sequence of image frames is acquired. The degree of rotation between frames is determined. Following the frame of the image sequence, a global XY alignment of the first frame and the second frame is performed. At least one portion of each of the X and Y integral projection vectors for which the aligned global vector manifests significant local differences is determined. Based on the X and Y positions of at least one portion of the X and Y integral projection vectors, the position, relative velocity, and / or approximate region of at least one moving object is determined within the sequence of image frames. The Further actions are performed based on the determined position, relative velocity and / or approximate area of the at least one moving object.

他の技術は、画像取得装置内で、積分投影ベクトル中の移動物体を決定する方法を遂行するために提供される。画像フレームのシーケンスが取得される。フレーム間の回転の度合いが決定される。画像シーケンスのフレームに続いて、第1のフレーム及び第2のフレームの大域的な整列が遂行される。整列された大域的なベクトルが顕著な局部的な差分を明示する積分投影ベクトルの少なくとも1つの部分が決定される。積分投影ベクトルの少なくとも1つの部分の各々の位置に基づいて、画像フレームのシーケンス内の少なくとも一の移動物体の、近似のサイズ及び相対速度が決定される。少なくとも一の移動物体の、決定された近似のサイズまたは相対速度あるいはこれら両方に基づいて、更なる動作が遂行される。   Another technique is provided for performing a method for determining a moving object in an integral projection vector in an image acquisition device. A sequence of image frames is acquired. The degree of rotation between frames is determined. Following the frame of the image sequence, a global alignment of the first frame and the second frame is performed. At least one portion of the integral projection vector is determined in which the aligned global vector manifests significant local differences. Based on the position of each of the at least one portion of the integral projection vector, an approximate size and relative velocity of at least one moving object in the sequence of image frames is determined. Further actions are performed based on the determined approximate size and / or relative velocity of at least one moving object.

これらの技術のうちのいずれにおいても、更なる動作は、パノラマ画像の隣接したフレームを連結すること;及び/又は、後のフレームでの追跡される物体の位置を予測すること;及び/又は、第1及び第2フレームの少なくとも1つよりも縮小されたぼやけで画像を提供すること;及び/又は、1以上の望まれない動きアーチファクトの除去によってより安定したビデオシーケンスを提供すること、を含むことができる。   In any of these techniques, a further action is to concatenate adjacent frames of the panoramic image; and / or predict the position of the tracked object in a later frame; and / or Providing an image with reduced blur than at least one of the first and second frames; and / or providing a more stable video sequence by removing one or more unwanted motion artifacts. be able to.

これらの技術のうちのいずれにおいても、少なくとも2つの合致する隅領域間のデルタX及びデルタYの差分が決定されることができる。大域的な回転の決定は、デルタX及びデルタYの差分にさらに基づくことができる。   In any of these techniques, the difference in delta X and delta Y between at least two matching corner regions can be determined. The global rotation determination can be further based on the difference between delta X and delta Y.

これらの技術のうちのいずれにおいても、シーケンスにおける画像フレームに続いて、第1のフレーム及び第2のフレームの各々に対して、水平・垂直の積分投影ベクトル勾配が決定されることができる。積分投影ベクトル勾配は、正規化されることができる。積分投影ベクトル勾配の主要な最大及び最小ピークの位置が決定されることができる。大域的な回転の決定は、さらに、主要な最大及び最小のピークの間の正規化された距離に基づくことができる。   In any of these techniques, horizontal and vertical integral projection vector gradients can be determined for each of the first and second frames following the image frames in the sequence. The integral projection vector gradient can be normalized. The positions of the major maximum and minimum peaks of the integral projection vector gradient can be determined. The global rotation determination can further be based on the normalized distance between the major maximum and minimum peaks.

これらの技術のうちのいずれにおいても、水平・垂直の積分投影ベクトルは、シーケンスの画像フレームに続いて、第1のフレーム及び第2のフレームの各々に対して決定されることができる。第1の積分投影ベクトルは、可変長ベクトルで連続的に畳み込まれることができる。第2の積分投影ベクトルは、固定長ベクトルで畳み込まれることができる。第1及び第2の積分投影ベクトルの畳み込みに基づいたフィルタリングされたベクトルの間で、差分の絶対和が決定されることができる。大域的な回転の決定は、さらに、差分の絶対和の最小値を導く可変ベクトルNの長さに基づくことができる。   In any of these techniques, horizontal and vertical integral projection vectors can be determined for each of the first and second frames following the sequence of image frames. The first integral projection vector can be continuously convolved with a variable length vector. The second integral projection vector can be convolved with a fixed length vector. An absolute sum of the differences can be determined between the filtered vectors based on the convolution of the first and second integral projection vectors. The determination of the global rotation can further be based on the length of the variable vector N that leads to the minimum of the absolute sum of the differences.

これらの技術のうちのいずれにおいても、画像フレームのシーケンスのフレームに続いて、第1のフレーム及び第2のフレームの大域的なXY整列が遂行されることができる。整列された画像対の少なくとも2つの合致した隅領域で、局所的なXY整列が決定されることができる。局所的なXY整列間の差分に基づいて、第1画像フレームに対する第2画像フレームのための大域的な回転を決定することができる。更なる動作は、さらに、決定された大域的な回転に基づくことができる。   In any of these techniques, a global XY alignment of the first frame and the second frame can be performed following the frame of the sequence of image frames. In at least two matched corner regions of the aligned image pair, a local XY alignment can be determined. Based on the difference between the local XY alignments, a global rotation for the second image frame relative to the first image frame can be determined. Further actions can further be based on the determined global rotation.

技術は、これら有利な技術の他のアプリケーションの間で、ここに記述される実施の形態に従って、連続するビデオフレーム(例えば、参照によって組み込まれる米国特許明細書US2009/0303343号を参照)、または連続する試写フレームのような他の画像対(例えば、参照によって組み込まれる米国特許明細書US2010/0060727号を参照)、パノラマ画像の隣接した画像セグメント(例えば、参照によって組み込まれる米国特許出願第12/636,608号明細書を参照)、ハンドヘルド型又は他の携帯型のカメラでの鮮明でさらに良く露光された画像を生み出すために組み合わされる低光及び通常光の画像の対(例えば、参照によって組み込まれる米国特許明細書US2009/167893号を参照)の間に現われる典型的な回転値に対して高速で効率的に遂行することができる。これらの技術は、異なる角度での多数の画像回転の使用を用いることなしに、有利な結果で遂行されることができる。   The technology, among other applications of these advantageous technologies, is continuous video frames (see, for example, US Patent Specification US 2009/03030334, incorporated by reference), or continuous, according to the embodiments described herein. Other image pairs such as preview frames (see, eg, US patent specification US 2010/0060727 incorporated by reference), adjacent image segments of panoramic images (eg, US patent application Ser. No. 12/636 incorporated by reference). , 608), a pair of low light and normal light images (eg incorporated by reference) that are combined to produce a sharper and better exposed image on a handheld or other portable camera Between US patent specification US 2009/167893) It can be efficiently performed at high speed for a typical rotation values appearing. These techniques can be accomplished with advantageous results without using multiple image rotations at different angles.

水平及び垂直に整列された後に、画像又はフレーム間の回転を推定する方法も提供される。この技術は、積分投影技術を使用し、幾つかの例として、連続するビデオフレーム、或いは異なって露光された画像対、或いはスペクトル的に異なる画像対、或いは異なるカメラで取得された画像の対に関して適用されることができる。1つの積分投影(IP)ベクトルは、可変長ベクトルで連続的に畳み込まれることができ、また、第2のIPベクトルは、固定ベクトルで畳み込まれることができる。これらフィルタリングされたベクトルの絶対値の差の合計が計算され、また、選択された範囲に渡って最小値を導く可変ベクトルの長さは、2つの画像又はフレーム間の回転で作られていることの推定を可能にする。   A method of estimating rotation between images or frames after being aligned horizontally and vertically is also provided. This technique uses an integral projection technique, and in some examples, with respect to successive video frames, or differently exposed image pairs, or spectrally different image pairs, or image pairs acquired with different cameras. Can be applied. One integral projection (IP) vector can be continuously convolved with a variable length vector, and the second IP vector can be convolved with a fixed vector. The sum of the absolute differences of these filtered vectors is calculated, and the length of the variable vector that leads to the minimum over the selected range is made by the rotation between the two images or frames Enables estimation of.

可変長ベクトルで1つの積分投影ベクトルを畳み込むことの使用は、固定ベクトルで他の積分投影ベクトルを畳み込むことと比較して、画像又は連続するフレーム間の回転の推定を可能にする。回転推定の精緻化は、IPベクトル畳み込みの比較の結果を使用する、積分投影方法及び探索方法に基づいて、局所のウィンドウにおける移動推定の結果を組み合わせることにより提供される。   The use of convolving one integral projection vector with a variable length vector allows estimation of rotation between images or successive frames compared to convolving another integral projection vector with a fixed vector. Refinement of the rotation estimation is provided by combining the results of the movement estimation in the local window based on the integral projection method and the search method using the result of the IP vector convolution comparison.

高速の回転推定方法

さらなる技術は、2つの画像間の回転を推定することが提供される。2つの画像は、連続した2つのフレーム又は画像対とされることができ、必ずしも同一のパラメーター或いはセンサーで取得される必要はない。そのような画像対の幾つかの例は上述された。一の実施の形態では、回転の推定は、各画像から1つのチャンネル上で行うことができる。例えば、Yチャンネル、灰色(gray)レベルの画像、緑(green)のチャンネル、などが選択され得る。水平及び垂直の積分投影ベクトルは、続いて、当該画像を閾値化することにより(例えば、1つの画像の中央値又は他の平均値、あるいはアプリケーションに依存するより小さい又はより大きな値で)得られた両方の二値画像からのピクセルに対して本実施の形態で計算される。幾つかの回転推定方法は、ライン検出手順を使用する(例えば、参照によって組み込まれる、JONATAN BLOMSTERによる「視覚とジャイロスコープの測定を組み合わせる配向推定」、修士号プロジェクト、スウェーデン、ストックホルム、2006年04月06日,XR−EE−SB 2006:012を参照されたい。)。かかるラインは、ほとんどの画像における共通の特徴である。もし連続するフレーム上で適用されれば、検知されたラインは、それらの方向の使用によりフレーム間の回転を推定するのに役立つことができる。
Fast rotation estimation method

A further technique is provided for estimating the rotation between two images. The two images can be two consecutive frames or image pairs and need not necessarily be acquired with the same parameters or sensors. Some examples of such image pairs have been described above. In one embodiment, the rotation estimation can be performed on one channel from each image. For example, a Y channel, a gray level image, a green channel, and the like may be selected. The horizontal and vertical integral projection vectors are then obtained by thresholding the image (eg, the median or other average value of one image, or a smaller or larger value depending on the application). In this embodiment, the calculation is performed for pixels from both binary images. Some rotation estimation methods use a line detection procedure (eg, “Orientation estimation combining visual and gyroscopic measurements” by JONATA BLOMSTER, incorporated by reference, Master's degree project, Stockholm, Sweden, April 2006. 06, XR-EE-SB 2006: 012). Such a line is a common feature in most images. If applied on successive frames, the sensed lines can help to estimate the rotation between frames by using their orientation.

殆どの回転推定技術は、複雑なハフ変換を使用する(例えば、参照によって組み込まれる、B.ZITOVA、J.FLUSSERによる「画像登録方法:調査」、イメージ・アンド・ヴィジョン・コンピューティング21(2003年)977−1000頁、を参照されたい。)。画像勾配領域では、線分は、輝度レベルの変化を示す。これらの変更は、適切な閾値の使用により二値画像において捕らえることができる。   Most rotation estimation techniques use complex Hough transforms (eg, “Image Registration Method: Survey” by B. ZITVA, J. FLUSSER, incorporated by reference, Image and Vision Computing 21 (2003). ) Pages 977-1000. In the image gradient region, the line segment indicates a change in luminance level. These changes can be captured in the binary image by using appropriate thresholds.

フレーム間の移動の置換は、二値画像の水平・垂直の積分投影(IP:integral projection)ベクトルを比較すること(例えば、参照によって組み込まれる、GREG WARDによる「手動操作の撮影に由来する高いダイナミックレンジ写真を合成するための高速で強健な画像登録」,グラフィックツールのジャーナル,2003年,8(2):17−30頁を参照)または勾配画像のそれらを比較すること(例えば、いずれも参照によって組み込まれる、米国特許出願第12/879,003号及び第12/636,629号明細書を参照)によって得ることができる。垂直のIPベクトルが画像の全ての列(row)の合計により得られる一方、水平のIPベクトルは、全ての行(colum)の合計により得られる。検知されたラインの異なる角度での回転は、IPベクトルにおけるその寄与を異なるように展開する。   The displacement per frame is compared by comparing the horizontal and vertical integral projection (IP) vectors of the binary image (eg, “high dynamics derived from manual manipulation imaging by GREG WARD, incorporated by reference. "Fast and robust image registration for compositing range photos", see Graphic Tool Journal, 2003, 8 (2): 17-30) or comparing them with gradient images (eg see both) US patent application Ser. Nos. 12 / 879,003 and 12 / 636,629, incorporated by reference). A vertical IP vector is obtained by the sum of all the rows of the image, while a horizontal IP vector is obtained by the sum of all the columns. Rotating the sensed line at different angles develops its contribution in the IP vector differently.

有利な実施の形態に従った技術は、異なる角度で二値画像の中心を通り抜ける線から得られる積分投影ベクトルの勾配が、1つのより高い正のスパイク及び1つのより高い負のスパイクを有することの観測を用いる。図1は、256×256画像用の例を示す。スパイクの振幅は、ヌル(null)でない二値ピクセルの合計の投影を用いた正規化ステップにより、回転角とともに減少する。さらに、ベクトルの中心位置からの距離は、回転角につれて増加し、画像サイズに依存する。   The technique according to an advantageous embodiment is that the gradient of the integral projection vector obtained from lines passing through the center of the binary image at different angles has one higher positive spike and one higher negative spike. Is used. FIG. 1 shows an example for a 256 × 256 image. The amplitude of the spikes decreases with the rotation angle by a normalization step using a total projection of non-null binary pixels. Furthermore, the distance from the center position of the vector increases with the rotation angle and depends on the image size.

特定の実施の形態に従った技術は、スパイクの間の、及びそれらの外側のリップルを無視する。それらは、最大のベクトル値に依存する(例えばその10分の1の)閾値を課することにより、特定の実施の形態においてゼロに設定される。スパイクのエネルギーは、対応する係数で強められる(図2を参照)。本発明者が作ったように、異なる角度及び画像サイズでノイズのより少ない二値画像についての近似を作ることができる。画像がC行を有する場合、水平投影図プロフィールを使用している間、ラジアンの回転は「a」として指定され、我々は、N=[a×C]を有する。対応するスパイクの両方の絶対的な標準化された振幅は、
1/(N+1)
に設定され、ここで、Nは顕著なスパイク間の距離、[×]は×の整数部分である。
Techniques according to certain embodiments ignore ripples between spikes and outside them. They are set to zero in certain embodiments by imposing a threshold that depends on the maximum vector value (eg, one tenth thereof). The spike energy is intensified by a corresponding factor (see FIG. 2). As the inventor made, an approximation can be made for a binary image with less noise at different angles and image sizes. If the image has C rows, the radians rotation is designated as “a” while using a horizontal projection profile, and we have N = [a × C]. The absolute standardized amplitude of both of the corresponding spikes is
1 / (N + 1)
Where N is the distance between significant spikes and [x] is the integer part of x.

一の実施の形態では、積分投影(IP)ベクトル(またはプロフィール)は、可変長ベクトル[−100...01](N,ゼロの数は可変)で連続的に畳み込まれ、また、その出力は、N+1(つまり、図2中に示されるような異なる角度値に対応する値)で割られる。第2のIPベクトルは、この実施の形態では、固定ベクトル[−1 1](つまり、図2における0度に対応する)で畳み込まれる。これらのフィルタリングされたベクトルの絶対値の差の合計が計算され、また、選択された範囲にわたる最小値につながる可変ベクトルNの長さは、2つの画像またはフレーム間の回転と関係する(図2参照)。   In one embodiment, the integral projection (IP) vector (or profile) is a variable length vector [-100. . . 01] (the number of N, zero is variable) is continuously convolved, and its output is divided by N + 1 (ie, the values corresponding to the different angle values as shown in FIG. 2). In this embodiment, the second IP vector is convolved with a fixed vector [−1 1] (that is, corresponding to 0 degrees in FIG. 2). The sum of the absolute differences of these filtered vectors is calculated, and the length of the variable vector N that leads to the minimum over the selected range is related to the rotation between the two images or frames (FIG. 2). reference).

ここで図3a乃至図3bを参照すると、512×512画像(図3bを参照)に対して3.2度に相当するベクトル(図3aを参照)を打つN=29についての最小値が得られる。推定された回転は、典型的な回転値に対するフィルター長である程度直線的に増加し、画像サイズと反比例する。畳み込み計算は、資源集約的でない演算を有利に含む。絶対差の合計は、2乗された差分の合計と交換することができる。通常、それは、より深い局所の最小値を備えた曲線(curves)を得るが、それは増加した数の複雑さを有する。さらに、より良い精度のために、水平及び垂直投影プロフィールの両方が使用されることができる。この場合、絶対差の水平・垂直の合計の最小値の合計は、適切なフィルター長を示すために、特定の実施の形態で使用されることができる。サブピクセル登録技術もまた、回転推定の正確さの改善のために、特定の実施の形態で同様に使用することができる。   Referring now to FIGS. 3a-3b, a minimum is obtained for N = 29 hitting a vector (see FIG. 3a) corresponding to 3.2 degrees for a 512 × 512 image (see FIG. 3b). . The estimated rotation increases somewhat linearly with the filter length for a typical rotation value and is inversely proportional to the image size. Convolution calculations advantageously include operations that are not resource intensive. The sum of absolute differences can be exchanged for the sum of squared differences. Usually it obtains curves with deeper local minima, but it has an increased number of complexity. Furthermore, both horizontal and vertical projection profiles can be used for better accuracy. In this case, the sum of the minimum of the horizontal and vertical sums of absolute differences can be used in certain embodiments to indicate an appropriate filter length. Subpixel registration techniques can also be used in certain embodiments as well to improve the accuracy of rotation estimation.

計算の複雑さを縮小するために、特定の実施の形態で、プロフィールの規模を、任意にあるいは選択的に縮小することができる。最大解像度でのプロフィールの長さも、任意にあるいは選択的に切り取ることができる。さらなる実施の形態では、計算の数を縮小するために、全ての調査された回転値について完全な探索を遂行しないことを含む下降アルゴリズムが使用されることができる。局所の極小値は、異なる区間長さでエラーを計算することにより回避することができる。区間長さは、それが十分に小さい内は、縮小され得る。各ステップで、最も小さなエラーを備えた回転は、3つの回転値の次の区間の中心点として選択され得る。図4は、他のシミュレートされた3度の回転に対して計算された、推定された回転を示するプロット図である。計算された値(赤い円)は、可能性がある回転角度の部分集合である。   To reduce the computational complexity, the profile size can be arbitrarily or selectively reduced in certain embodiments. The length of the profile at maximum resolution can also be arbitrarily or selectively clipped. In a further embodiment, a descent algorithm can be used that includes not performing a full search for all investigated rotation values to reduce the number of calculations. Local minima can be avoided by calculating the error with different interval lengths. The section length can be reduced as long as it is sufficiently small. At each step, the rotation with the smallest error can be selected as the center point of the next interval of the three rotation values. FIG. 4 is a plot showing the estimated rotation calculated for another simulated 3 degree rotation. The calculated value (red circle) is a subset of possible rotation angles.

回転値の範囲は、画像サイズに依存する。512×512画像の例では、5度の角度について、特定の実施の形態において含まれるフィルター長は、画像サイズの約8%に相当する。フィルター長が画像サイズの5分の1を越えるものである場合には、より低い精度が見込まれる。正確さは、画像の詳細に依存する。図5は、回転角度が0.2度のステップで0.2乃至5度まで変化される、シミュレートされた例を示す。真実の回転と推定された回転との間の絶対最大値回転推定エラーは、0.2である。しかしながら、このエラーは、不足する細部を備えたノイズのある又はぼかされた二値地図の場合に、いくつかの回転値に対して、数倍高くなり得る。例えば、ビデオシーケンスでは、幾つかのぼかされたフレームを持っていることは一般的である。これらの場合、回転推定は、それほど信頼できないかもしれない。したがって、特定の実施の形態では、有利な焦点測定が、両方の連続するフレームに関して遂行され得る(例えば、参照によって組込まれる、WEI HUANG、ZHONGLIANG JINGによる「多重焦点画像融合における焦点測定の推定」、パターン・リコグニション・レターズ、2007年3月,v.28 n.4、p.493−500を参照)。回転推定は、焦点測定間で十分に小さい差分がある場合(例えば20%未満)にのみ、選択的に遂行され得る。   The range of the rotation value depends on the image size. In the 512 × 512 image example, for a 5 degree angle, the filter length included in certain embodiments corresponds to about 8% of the image size. If the filter length is more than one fifth of the image size, lower accuracy is expected. The accuracy depends on the details of the image. FIG. 5 shows a simulated example where the rotation angle is changed from 0.2 to 5 degrees in steps of 0.2 degrees. The absolute maximum rotation estimation error between the true rotation and the estimated rotation is 0.2. However, this error can be several times higher for some rotation values in the case of a noisy or blurred binary map with missing details. For example, it is common to have several blurred frames in a video sequence. In these cases, the rotation estimate may not be as reliable. Thus, in certain embodiments, advantageous focus measurements can be performed on both consecutive frames (eg, “Estimation of focus measurements in multi-focus image fusion” by WEI HUANG, ZHONGLIANG JING, incorporated by reference, (See Pattern Recognition Letters, March 2007, v.28 n.4, p.493-500). Rotation estimation can be selectively performed only if there is a sufficiently small difference between focus measurements (eg, less than 20%).

特定の実施の形態では、回転が特定の値未満かどうかが判定される。回転の正確な形跡(sign)は、もし非常に小さな回転が検知されなければ、それ自体は大きな結果を達成しないものとして判定され又は決定されないかもしれない。例えば、パノラマ写真用に画像を連結する又は写真を撮るために、非常に小さな回転が検知される場合に限り、その形跡を知ることは望ましい。他の適用では、より少ない細部及び重要な絶対回転値を備えた写真用として、回転の正確な形跡を知ることが望ましい。   In certain embodiments, it is determined whether the rotation is less than a certain value. The exact sign of the rotation may not be determined or determined by itself as not achieving a large result unless a very small rotation is detected. For example, it is desirable to know the evidence only when a very small rotation is detected to join images or take a picture for panoramic photography. In other applications, it is desirable to know the exact signature of the rotation for a photograph with less detail and important absolute rotation values.

限定されない例において、正確な形跡は、利用可能な画像を使用して、次の方法で得ることができる。特定の実施の形態では、第2の二値画像は、推定された角度で反対(back)に回転し、また、その垂直及び水平の積分投影ベクトルが計算される。第1の二値画像の水平積分投影と回転した第2の二値画像の水平積分投影との間のコサイン類似度(cosine similarity)係数が計算される(例えば、参照によって組み込まれる、http://en.wikipedia.org/wiki/Cosine_similarity を参照)。AとBが言及されるベクトルである場合に、コサイン類似度(q)は、ドット積及び大きさを用いて次のように表わされる:

Figure 0006026752
In a non-limiting example, accurate evidence can be obtained in the following manner using the available images. In certain embodiments, the second binary image is rotated back at the estimated angle and its vertical and horizontal integral projection vectors are calculated. A cosine similarity factor between the horizontal integral projection of the first binary image and the horizontal integral projection of the rotated second binary image is calculated (eg, incorporated by reference, http: // /En.wikipedia.org/wiki/Cosine_similarity). If A and B are the mentioned vectors, the cosine similarity (q) is expressed as follows using the dot product and magnitude:
Figure 0006026752

この値が閾値(例えば0.999)よりも小さい場合、回転の形跡は変更され、そうでなければ同一に保たれる。   If this value is less than a threshold (eg 0.999), the trace of rotation is changed, otherwise it remains the same.

あるいは、回転の角度の形跡は、大域的な動きに関するウィンドウ内で計算された動きから得ることができる。これらの移動の変位は、参照によって組込まれる、US2008/0309769を含む同一譲受人による出願に記述された積分投影方法のような既知の方法の使用によって得ることができる。それらの形跡は、回転の形跡を決定する。シミュレートされた異符号回転変更は、例えば図6で示されたもののように、水平及び垂直の変位の変更の兆候となるように導く。   Alternatively, an indication of the angle of rotation can be obtained from the motion calculated in the window for global motion. These displacements of movement can be obtained by the use of known methods, such as the integral projection method described in the same assignee application including US 2008/03097769, which is incorporated by reference. Their signature determines the rotation signature. The simulated differential sign rotation change leads to be an indication of a change in horizontal and vertical displacement, for example as shown in FIG.

他の実施の形態では、可変長畳み込みの比較は、異なって露光された画像対、例えば、可視/近赤外画像対または異なる期間で露光された対の画像から得られた積分投影ベクトルについて適用することができる(例えば、米国特許出願第12/941,983号明細書を参照)。積分投影ベクトルに基づいて提案された方法は、例えば、図6でのように、局所のウィンドウに関して計算が遂行される場合に得られる回転推定を改善するために使用することができる。上記の仮定は、回転の中心が画像又はフレームの中心である、ということである。しかしながら、回転の中心は、異なる配置とされること(例えば、画像中心により接近する、或いは、他の隅の地点により接近すること)ができる。角度推定は、計算された水平及び垂直の変位を考慮に入れた点に関してなされることができる。特定の実施の形態では、これらの変位推定が正確であり、フレームが整列されると仮定される。   In other embodiments, variable length convolution comparison is applied for integral projection vectors obtained from differently exposed image pairs, eg, visible / near infrared image pairs or pairs of images exposed at different time periods. (See, eg, US patent application Ser. No. 12 / 941,983). The proposed method based on the integral projection vector can be used, for example, to improve the rotation estimate obtained when the computation is performed on a local window, as in FIG. The above assumption is that the center of rotation is the center of the image or frame. However, the center of rotation can be arranged differently (eg, closer to the image center or closer to other corner points). Angle estimation can be made for points that take into account the calculated horizontal and vertical displacements. In certain embodiments, it is assumed that these displacement estimates are accurate and the frames are aligned.

図7は、任意の地点に原点(0,0)が配置されることができる例を示す。回転rは、以下の数式で得られる:

Figure 0006026752

ここで、b及びaは、それぞれ、一のフレーム(xi,yi)及び他のフレーム(xr,yr)でのフレーム中心についての隅ウィンドウ中心画素によって形成された角度である(図7)。(xr,yr)の値は、(xi,yi)及び、局所の水平・垂直の変位を計算して得られる。かかる地点に対して対応する回転値は、ベクトルを形成することができ、回転の中心が画像中心に対して一致又は近接していれば、近い値を有しなければならない。そうでなければ、回転中心は、最小値に推定された角度ベクトル変化を備えた点として選択されることができる。 FIG. 7 shows an example in which the origin (0, 0) can be arranged at an arbitrary point. The rotation r is obtained by the following formula:
Figure 0006026752

Here, b and a are angles formed by the corner window center pixels with respect to the frame center in one frame (xi, yi) and the other frame (xr, yr), respectively (FIG. 7). The value of (xr, yr) is obtained by calculating (xi, yi) and the local horizontal / vertical displacement. The corresponding rotation value for such a point can form a vector and should have a close value if the center of rotation is coincident or close to the image center. Otherwise, the center of rotation can be selected as the point with the angle vector change estimated to the minimum value.

4つ全ての計算された回転値の平均は、初期近似として使用されることができる。特定の実施の形態に従った有利な積分投影方法は、かかる初期近似に対してより少なくより近い回転値を使用して、その値を改善する(例えば、図4を参照)。計算された中心及び回転値は、登録プロセスで回転補償のために使用される。二値画像は、オリジナルの画像について境界(edge)検出手順を適用した後に閾値を課することによって得ることができる。   The average of all four calculated rotation values can be used as an initial approximation. An advantageous integral projection method according to certain embodiments uses a rotation value that is less and closer to such initial approximation to improve that value (see, eg, FIG. 4). The calculated center and rotation values are used for rotation compensation in the registration process. A binary image can be obtained by imposing a threshold after applying an edge detection procedure to the original image.

パノラマ接合(PANOMARA STITCHING)のための局所動き推定に由来する画像回転

特定の実施の形態は、パノラマ生成及び/又は画像安定化のために使用される動き推定を基礎とする。これらは、現在のフレーム中の回転の量の表示を与えるために、四つ(4)の小ウィンドウで測定された動きを使用する。回転の量が指定された値に満たなければ、パノラマ画像は捕捉されることができる。すなわち、特定の実施の形態では、回転の量が大きすぎる場合に、パノラマ画像を捕捉できないと判定される。この条件を使用して、捕捉されたパノラマ画像の登録及び接合は、有利に眺められ、且つ、とても自然に感じられる。
Image rotation derived from local motion estimation for panorama joint (PANOMALA STITCHING)

Particular embodiments are based on motion estimation used for panorama generation and / or image stabilization. These use the motion measured in four (4) small windows to give an indication of the amount of rotation in the current frame. If the amount of rotation does not reach the specified value, the panoramic image can be captured. That is, in a specific embodiment, when the amount of rotation is too large, it is determined that a panoramic image cannot be captured. Using this condition, the registration and joining of captured panoramic images is advantageously viewed and feels very natural.

特定の実施の形態では、パノラマ生成技術の低い複雑さでの拡張は、参照によって組込まれる米国特許出願第12/636,629号明細書で記述した。動き推定の出力は、回転を測定するために使用され、その後、回転が最小値及び/又は定義された閾値以下である場合に、接合のための画像を捕捉するために使用される。これは、閾値を超えた及び/又は最小値でない回転に関与するより重い計算を回避し、最小量の回転を含まない又は最小量の回転でないパノラマ画像を提供する。   In certain embodiments, the low complexity extension of panorama generation techniques has been described in US patent application Ser. No. 12 / 636,629, incorporated by reference. The output of the motion estimation is used to measure rotation and then used to capture an image for splicing when the rotation is below a minimum value and / or a defined threshold. This avoids heavier computations involving rotations that exceed a threshold and / or are not at a minimum, and provide a panoramic image that does not include a minimum amount of rotation or a minimum amount of rotation.

パノラマ生成及びビデオ画像安定化で有利に使用され得る動き推定は、同一出願人に帰属し、参照によって本明細書に組込まれる、米国特許第7,773,118号、7,697,778号、7,676,108号、7,660,478号、7,639,889号、7,636,486号、及び/又は7,639,888号明細書、及び/又は、米国公開特許出願US2010−0329582号、US2010−0328472号、US2010−0201826号、US2010−0201827号、US2009−0179999号、US2009−0309769号、US2010−0303343号、US2009−0167893号、US2009−0080796号、US2007−0296833号、US2008−0219581号、及び/又はUS2008−0309770号明細書、及び/又は、米国特許出願第12/956,904号、12/941,983号、12/820,086号、及び/又は12/820,034号明細書のいずれかに見出される特定の記述に従って適用され得る。これらの既存の特許及び特許出願の多くの基礎は、連続する画像フレーム間の動きの測定である。ビデオ画像安定化では、動きは、典型的には、大域的な動き推定として知られる、全ての連続する画像フレーム間で測定され、さらに、局所の物体の移動をチェックするために使用されるより小さい四つ(4)のウィンドウ間で測定される。   Motion estimation that can be used advantageously in panorama generation and video image stabilization is described in US Pat. Nos. 7,773,118, 7,697,778, which is assigned to the same applicant and is incorporated herein by reference. 7,676,108, 7,660,478, 7,639,889, 7,636,486, and / or 7,639,888, and / or US published patent application US2010- No. 0329582, US2010-0328472, US2010-0201826, US2010-0201827, US2009-0179999, US2009-0309769, US2010-0303343, US2009-0167893, US2009-0080796, US2007-0296833 021 581 and / or US2008-0309770 and / or U.S. Patent Application Nos. 12 / 956,904, 12 / 941,983, 12 / 820,086, and / or 12 / 820,034. It can be applied according to the specific description found anywhere in the specification. The basis of many of these existing patents and patent applications is the measurement of motion between successive image frames. In video image stabilization, motion is typically measured between all successive image frames, known as global motion estimation, and moreover used to check local object movement. Measured between four small (4) windows.

特定の実施の形態では、局所の動き推定及び大域的な値の間の差は、画像フレーム間の回転を測定するために使用される。画像フレーム間で回転がない場合、局所の動き推定は、通常、大域的な値と同一であるべきである。回転が存在する場合、局所のウィンドウは、相対的な動きから発生する異なる動きを記録する。例えば、反時計回りの回転の下では、左側の2つのウィンドウは、右側の2つのウィンドウと比較して異なる相対運動をするであろう。左側の2つのウィンドウは、上方へ移動するにつれてより高い動きの値を報告する右側のウィンドウよりも低い相対運動値で下に移動することを報告するだろう。   In certain embodiments, the difference between the local motion estimate and the global value is used to measure the rotation between image frames. In the absence of rotation between image frames, the local motion estimation should usually be the same as the global value. In the presence of rotation, the local window records different movements that arise from relative movement. For example, under counterclockwise rotation, the two windows on the left will have a different relative movement compared to the two windows on the right. The two windows on the left will report moving down with a lower relative motion value than the right window reporting a higher movement value as they move up.

2つの上端のウィンドウ及び2つの下端のウィンドウが正反対の相対運動を経験するところで、同様の相対運動が水平に生じる。特定の実施形態では、回転角を決定するために、x及びyでの個々の局所のウィンドウ用に測定された動き間の差分が見い出される。続いて、回転角は、画像フレーム全体の中心からの個々の局所のウィンドウの中心の距離を使用して計算される。全てのイメージフレームから測定された動きは、画像の中心で集中させられるために得られる。したがって、全ての画像の中心に対する局所のウィンドウの中心への距離は、相対運動と共に、動きの角度を決定するために使用することができる。   Similar relative motion occurs horizontally where the two top windows and the two bottom windows experience diametrically opposite relative motion. In certain embodiments, the difference between the measured motions for the individual local windows at x and y is found to determine the rotation angle. Subsequently, the rotation angle is calculated using the distance of the center of each local window from the center of the entire image frame. The motion measured from all image frames is obtained because it is concentrated at the center of the image. Thus, the distance to the center of the local window relative to the center of all images, along with the relative motion, can be used to determine the angle of motion.

例として、ydisp[0]は垂直方向での大域的な動きを、ydisp[1]はウィンドウのうちの1つからの動きを表わすことができる。続いて、回転による動きは、
ydispRot[1]=ydisp[0]−ydisp[1]である。移動要素と回転角度を除去する減算は、以下のタンジェント関数が使用される。
Roty[1]=arctan(ydispRot[1]/distanceY)
ここで、distanceYは、局所のウィンドウの中心に対する画像中心からの水平距離である。上記の計算は、全てのフレーム及び全てのウィンドウのために行なうことができる。計算結果は、回転の量の表示を角度で提供するために平均化されることができる。
As an example, ydisp [0] can represent global movement in the vertical direction and ydisp [1] can represent movement from one of the windows. Then, the movement by rotation is
ydispRot [1] = ydisp [0] −ydisp [1]. The following tangent function is used for subtraction to remove the moving element and the rotation angle.
Roty [1] = arctan (ydispRot [1] / distanceY)
Here, distanceY is the horizontal distance from the image center with respect to the center of the local window. The above calculations can be performed for all frames and all windows. The calculation results can be averaged to provide an indication of the amount of rotation in angles.

その後、例えばパノラマ捕捉中に、アルゴリズムは、画像が所望の量(例えば20%乃至40%)により重ねられる(overlap)場合に、登録のために何時でも新しい画像を取得するように構成することができる。続いて、重なりが定義された領域内にあり、回転が定義された角度以下である場合、特定の実施の形態において、登録のために新しい画像が捕捉されるであろう。最小の重なりが達する前にアルゴリズムが基準を満たさない場合、画像は、回転のチェックを伴わない事例になっていたように、捕捉された特定の実施の形態において存在し得る。これは、接合の前に、不必要に複雑な回転測定及び再サンプリングを伴わなずにより良いパノラマを作成する一方で、システムに、接合のオペレーションをより効率的にする低い回転で画像を捕捉する機会を与える。特定の実施の形態に従った技術では、計算された動き推定は、接合とパノラマをより良くすることができる回転の軽量の分析を行なうために使用される。   Thereafter, for example, during panorama capture, the algorithm may be configured to acquire a new image at any time for registration if the image is overlapped by a desired amount (eg, 20% to 40%). it can. Subsequently, in certain embodiments, a new image will be captured for registration if the overlap is within the defined region and the rotation is below the defined angle. If the algorithm does not meet the criteria before the minimum overlap is reached, the image may be present in the particular embodiment captured, as was the case without checking for rotation. This captures the image at a low rotation prior to splicing, creating a better panorama without unnecessarily complicated rotational measurements and resampling, while making the splicing operation more efficient Give an opportunity. In the technique according to a particular embodiment, the calculated motion estimation is used to perform a lightweight analysis of the rotation that can improve the joint and panorama.

画像プロフィールからの物体検出

パノラマ生成又はビデオ画像安定化のために生成される画像プロフィールを使用することで、移動物体は、画像フレーム内の特定の実施形態に従って検出される。これは、初期動作推定が評価された後、画像プロフィールを整列させることにより行われる。プロフィール間の絶対差は、続いて、物体又は被写体あるいは関心領域からの移動に起因するであろう。
Object detection from image profiles

By using an image profile generated for panorama generation or video image stabilization, moving objects are detected according to a particular embodiment in the image frame. This is done by aligning the image profiles after the initial motion estimate has been evaluated. The absolute difference between profiles will subsequently be due to movement from the object or subject or region of interest.

2つのプロフィールが再整列される場合、プロフィールの大きな差分は、典型的には物体の移動に対応するであろう。図8及び図9中に示されるプロットは、フレーム間の変化(shift)が測定された後に再整列されたプロフィールを図示する。図9中の長方形で囲んだ部分は、プロフィールが最も高い差分を有している領域を強調する。これらのプロフィール間の差分がプロットされる場合、ピークの位置は、移動物体を識別するのを支援する。その後、この位置は、移動物体の領域を指し示すために使用することができ、あるいは物体移動をモニターするために他の物体検出プロセスと共に使用することができる。差分を取得する結果は、図8及び図9中に示すように打つことができる。物体移動がより小さい場合、プロフィール差分は多くのノイズがあり、そのため、最大のプロフィール差分の位置は、信頼できない結果を与える傾向があり得る。   If the two profiles are realigned, large differences in the profiles will typically correspond to the movement of the object. The plots shown in FIGS. 8 and 9 illustrate the realigned profile after the interframe shift is measured. The portion surrounded by the rectangle in FIG. 9 emphasizes the region where the profile has the highest difference. When the difference between these profiles is plotted, the location of the peak helps identify moving objects. This position can then be used to point to the area of the moving object, or it can be used with other object detection processes to monitor object movement. The result of obtaining the difference can be typed as shown in FIGS. If the object movement is smaller, the profile difference is more noisy, so the position of the largest profile difference may tend to give unreliable results.

各フレームに対して、差分プロフィールに関する閾値化動作の結果は、特定の実施形態に従って格納される。プロフィールが強いピークを持っていない場合、閾値化は、特定の実施の形態において、全てゼロの結果に戻すことができ、その場合には、その拒絶された位置に以前の信頼できる結果を割り当てられることができる。物体が積極的に移動する場合、プロフィール差分は高い傾向があり、また、移動物体の位置は検知することがより容易である。   For each frame, the result of the thresholding operation on the difference profile is stored according to a particular embodiment. If the profile does not have a strong peak, thresholding can be reverted to an all-zero result in certain embodiments, in which case the rejected position is assigned a previous reliable result. be able to. If the object moves actively, the profile difference tends to be high and the position of the moving object is easier to detect.

パノラマとビデオ画像の安定化プロフィールの機能性は、上述したような移動物体を検知するために使用されることができる。これは、物体/被写体を貫く(through)接合を回避するようにパノラマ接合を支援することができ、また、移動物体の位置を素早く検知する際のシーン分析アプリケーションのために単独で役立つこともできる。   The functionality of the panorama and video image stabilization profile can be used to detect moving objects as described above. This can assist panoramic joints to avoid joints through objects / subjects, and can also be useful alone for scene analysis applications in quickly detecting the position of moving objects. .

本発明の典型的な図面及び特定の実施形態が記述され例証されたが、本発明の範囲が議論された特定の実施の形態に制限されるものではないことを理解すべきである。したがって、実施形態は、限定的なものではなく例示的なものと見なされるべきであり、また、当業者によって、本発明の範囲を逸脱することなくそれらの実施形態から変形例が作られ得ることが理解されるべきである。   While typical drawings and specific embodiments of the present invention have been described and illustrated, it should be understood that the scope of the invention is not limited to the specific embodiments discussed. Accordingly, the embodiments are to be regarded as illustrative rather than restrictive, and modifications can be made from these embodiments by those skilled in the art without departing from the scope of the invention. Should be understood.

加えて、好ましい実施の形態によってここに行なわれ得る及び上述された方法では、動作は、選択された活版印刷の順序で記述された。しかしながら、かかる順序は選択され、活版印刷の便宜のために順序付けられたものであり、特別の順序が明白に説明される場合あるいは特別の順序が必要とすると当業者が考え得る場合を除いて、動作を遂行するための如何なる特別の順序も意味するようには意図されない。   In addition, in the method that can be performed here according to the preferred embodiment and described above, the operations have been described in a selected letterpress order. However, such an order is selected and ordered for typographic convenience, unless a special order is clearly described or a special order may be deemed necessary by one skilled in the art. It is not intended to imply any particular order for performing the operations.

さらに、背景欄、発明の要約欄、要約及び図面の簡単な説明欄と同様に、上述の及び以下に引用される全ての参照文献は全て、参照によって、代替の実施の形態を示すものとして、好ましい実施形態の詳細な説明に組み入れられる。   Further, all references cited above and below, as well as the background section, the summary section of the invention, the summary section and the brief description section of the drawings, all refer to alternative embodiments by reference, It is incorporated into the detailed description of the preferred embodiments.

以下の文献は、代替の実施の形態へ実施され得る特徴を示すものとして、参照によって組込まれる:
米国特許第7,639,888号、第7,636,486号、第7,639,889号、第7,660,478号、第7,773,118号、及び第7,864,990号、及び第7,620,218号明細書;及び、
米国公開特許出願US2008/0219581号、US2007/0296833号、US2008/0309769号、US2010/0238309号、US2009/0167893号、US2008/0309770号、US2009/0080796号、US2009/0303343号、US2009/0179999号、US2010/0329582号、US2010/0328472号、US2010/0201826号、US2008/0231713号、US2008/0309770号、US2009/0263022号、及びUS2009/0303342号明細書;及び、
米国特許出願第12/572,930号、12/636,608号、12/941,983号、12/944,701号、及び12/879,003号明細書;及び、
B.ZITOVA及びJ.FLUSSERによる「画像登録方法:調査」、イメージ・アンド・ヴィジョン・コンピューティング21(2003年)977−1000頁
KUGLIN C D.及びHINES D Cによる「位相相関性画像整列方法」,1975年,IEEE,サイバネティックス・アンド・ソサエティ国際会議,In Proc.;
M.MA,A.VAN GENDEREN,P.BEUKELMANによる「回転及びスケール不変のテンプレートマッチングのための符号ビットのみの位相正規化」,回路・システム及び信号処理に関する年次ワークショップ第16回の議事録、ProRisc 2005年(641−646頁);
CHEN TINGによる「ブロックに基づいたパラメーターの動作モデルを用いるビデオ安定化アルゴリズム」,2000年,スタンフォード大学(CA),EE392Jプロジェクト報告書;
G.S.PEAKE及びT.N.TANによる「ドキュメント・スキュー角推定用の一般的なアルゴリズム」,IEEE国際会議 画像プロセス.2(1997年)230−233頁;
GREG WARDによる「手動操作の撮影に由来する高いダイナミックレンジ写真を合成するための高速で強健な画像登録」,グラフィックツールのジャーナル,2003年,8(2):17−30頁;
Wikipedia参照:Cosine similarity,
URL:http://en.wikipedia.org/wiki/Cosine_similarity;
JONATAN BLOMSTERによる「視覚とジャイロスコープの測定を組み合わせる配向推定」、修士号プロジェクト、スウェーデン、ストックホルム、2006年04月06日,XR−EE−SB 2006:012;
YI WAN及びNING WEIによる「転換、回転、反映、及び拡大縮小された物体をそれらの投影のみから認識するための高速アルゴリズム」,IEEEシグナル・プロセッシング・レターズ,2010年1月,vol.17,No.1,71−74頁;及び、
WEI HUANG及びZHONGLIANG JINGによる「多重焦点画像融合における焦点測定の推定」、パターン・リコグニション・レターズ、2007年3月,v.28 n.4,p.493−500。
The following documents are incorporated by reference as indicating features that may be implemented in alternative embodiments:
U.S. Patent Nos. 7,639,888, 7,636,486, 7,639,889, 7,660,478, 7,773,118, and 7,864,990 , And 7,620,218; and
US Published Patent Applications US2008 / 0219581, US2007 / 0296833, US2008 / 0309769, US2010 / 0238309, US2009 / 0167893, US2008 / 0309770, US2009 / 0080796, US2009 / 0303433, US2009 / 0179999, US2010 / 0329582, US2010 / 0328472, US2010 / 0201826, US2008 / 0231713, US2008 / 0309770, US2009 / 0263022, and US2009 / 0303342; and
U.S. Patent Application Nos. 12 / 572,930, 12 / 636,608, 12 / 941,983, 12 / 944,701, and 12 / 879,003; and
B. ZITVA and J.I. “Image Registration Method: Survey” by FLUSSER, Image and Vision Computing 21 (2003), pages 977-1000 KUGLIN CD And HINES DC “Phase Correlation Image Alignment Method”, 1975, IEEE, Cybernetics and Society International Conference, In Proc. ;
M.M. MA, A.A. VAN GENDEREN, P.M. "Sign bit-only phase normalization for rotation and scale invariant template matching" by BEUKELMAN, 16th Annual Workshop on Circuits, Systems and Signal Processing, ProRisc 2005 (pages 641-646);
CHEN TING's “Video Stabilization Algorithm Using Block-Based Parameter Motion Models”, Stanford University (CA), EE392J Project Report
G. S. PEAKE and T.E. N. TAN “General Algorithm for Document Skew Angle Estimation”, IEEE International Conference Image Process. 2 (1997) 230-233;
GREG WARD "Fast and robust image registration for compositing high dynamic range photos derived from manual operation photography", Graphic Tool Journal, 2003, 8 (2): 17-30;
See Wikipedia: Cosine similarity,
URL: http://en.wikipedia.org/wiki/Cosine_similarity;
JONATA BLOMSTER, "Orientation Estimation Combining Visual and Gyroscopic Measurements", MSc Project, Stockholm, Sweden, 04/06/2006, XR-EE-SB 2006: 012;
YI WAN and NING WEI, "Fast Algorithm for Recognizing Transformed, Rotated, Reflected, and Scaled Objects Only From Their Projection", IEEE Signal Processing Letters, January 2010, vol. 17, no. 1, pages 71-74; and
“Estimation of focus measurement in multi-focus image fusion” by WEI HUANG and ZHONGLIANG JING, Pattern Recognition Letters, March 2007, v. 28 n. 4, p. 493-500.

Claims (16)

画像取得装置内でデジタル画像フレーム中に移動物体が検出されるか否かを決定するための方法であって、
画像フレームのシーケンスを取得すること;
前記画像フレームのシーケンスにおける第1フレーム及び第2フレーム(前記画像フレームのシーケンスにおいて前記第2フレームは前記第1フレームに続く)の大域的なXY整列を遂行して、整列された大域的なベクトルを生成すること、
Xの積分投影ベクトル及びYの積分投影ベクトルの各々の少なくとも1つの部分を決定すること、
X及びYの積分投影ベクトルの少なくとも1つの部分のX及びYの位置の少なくとも一部に基づいて、画像フレームのシーケンス内の少なくとも一の移動物体の、位置、相対速度、近似の領域、またはこれらの組合せを決定すること、
により、フレーム間の回転の度合いを決定すること;及び、
少なくとも一の移動物体の、前記決定された位置、相対速度、または近似の領域、またはこれらの組合せに基づいて、更なる動作を遂行し、
さらに、
前記第1フレーム及び前記第2フレームに対して水平及び垂直の積分投影ベクトル勾配を決定すること;
前記水平及び垂直の積分投影ベクトル勾配を正規化すること;
前記水平及び垂直の積分投影ベクトル勾配の主要な最大及び最小ピークの位置を決定すること;及び、
主要な最大及び最小ピークの間の正規化された距離に基づく大域的な回転を決定すること、を含むことにより、前記更なる動作が前記決定された大域的な回転に基づく、前記方法。
A method for determining whether a moving object is detected in a digital image frame within an image acquisition device, comprising:
Obtaining a sequence of image frames;
A global vector aligned by performing a global XY alignment of a first frame and a second frame in the sequence of image frames (the second frame follows the first frame in the sequence of image frames); Generating,
Determining at least one portion of each of the X integral projection vector and the Y integral projection vector;
The position, relative velocity, approximate region, or these of at least one moving object in the sequence of image frames based on at least part of the X and Y positions of at least one part of the X and Y integral projection vectors Determining a combination of
Determining the degree of rotation between the frames; and
Performing further actions based on the determined position, relative velocity, or approximate region of at least one moving object, or a combination thereof ;
further,
Determining horizontal and vertical integral projection vector gradients for the first frame and the second frame;
Normalizing the horizontal and vertical integral projection vector gradients;
Determining the positions of major maximum and minimum peaks of the horizontal and vertical integral projection vector gradients; and
Determining the global rotation based on a normalized distance between major maximum and minimum peaks, wherein the further action is based on the determined global rotation .
前記更なる動作は、パノラマ画像の隣接したフレームを連結すること、後のフレームでの追跡される物体の位置を予測すること、第1フレーム及び第2フレームの少なくとも1つよりも縮小されたぼやけで画像を提供すること、あるいは、1以上の望まれない動きアーチファクトの除去によってより安定したビデオシーケンスを提供すること、またはこれらの組み合わせを含むこと
を特徴とする請求項1記載の方法。
The further operations include concatenating adjacent frames of the panoramic image, predicting the position of the tracked object in a later frame, and blurring reduced more than at least one of the first frame and the second frame. The method of claim 1, comprising: providing an image, providing a more stable video sequence by removing one or more unwanted motion artifacts, or a combination thereof.
前記画像フレームのシーケンスの第1フレーム及び第2フレームの少なくとも2つの合致する隅領域間のデルタX及びデルタYの差分を決定すること;及び、
前記デルタX及びデルタYの差分に基づいた大域的な回転を決定すること、
をさらに含み、
前記更なる動作は、前記決定された大域的な回転に基づくことを特徴とする請求項1記載の方法。
Determining a delta X and delta Y difference between at least two matching corner regions of the first frame and the second frame of the sequence of image frames; and
Determining a global rotation based on the difference between the delta X and delta Y;
Further including
The method of claim 1, wherein the further action is based on the determined global rotation.
前記第1フレーム及び前記第2フレームに対して水平及び垂直の積分投影ベクトルを決定すること;
可変長ベクトルで第1の積分投影ベクトルを連続的に畳み込んで、第1のフィルタリングされたベクトルを生成すること;
固定長ベクトルで第2の積分投影ベクトルを畳み込んで、第2のフィルタリングされたベクトルを生成すること;
前記第1及び第2のフィルタリングされたベクトル間の差分の和を決定すること;及び、
前記差分の和の最小値を導く可変ベクトルNの長さに基づく大域的な回転を決定すること、
をさらに含み、
前記更なる動作も、前記決定された大域的な回転に基づくことを特徴とする請求項1記載の方法。
Determining horizontal and vertical integral projection vectors for the first frame and the second frame;
Continuously convolving the first integral projection vector with a variable length vector to generate a first filtered vector;
Convolving the second integral projection vector with a fixed length vector to produce a second filtered vector;
Determining a sum of differences between the first and second filtered vectors; and
Determining a global rotation based on the length of the variable vector N leading to the minimum of the difference sum;
Further including
The method of claim 1, wherein the further action is also based on the determined global rotation.
整列された画像対の少なくとも2つの合致した隅領域において局所的なXY整列を決定すること;及び、
前記局所的なXY整列間の差分に基づいて、前記第1フレームに対して前記第2フレームの大域的な回転を決定すること、をさらに含み、
前記更なる動作も、前記決定された大域的な回転に基づくことを特徴とする請求項1記載の方法。
Determining local XY alignment in at least two matched corner regions of the aligned image pair; and
Determining a global rotation of the second frame relative to the first frame based on a difference between the local XY alignments;
The method of claim 1, wherein the further action is also based on the determined global rotation.
画像取得装置内でデジタル画像フレーム中に移動物体が検出されるか否かを決定するための方法であって、
画像フレームのシーケンスを取得すること;
前記画像フレームのシーケンスにおける第1フレーム及び第2フレーム(前記画像フレームのシーケンスにおいて前記第2フレームは前記第1フレームに続く)の大域的な整列を遂行して、整列された大域的なベクトルを生成すること、
積分投影ベクトルの少なくとも1つの部分を決定すること、
前記積分投影ベクトルの前記少なくとも1つの部分の各々の位置の少なくとも一部に基づいて、画像フレームのシーケンス内の少なくとも一の移動物体の、近似のサイズまたは相対速度あるいはこれら両方を決定すること、
を含み、フレーム間の回転の度合いを決定すること;及び、
少なくとも一の移動物体の、決定された近似のサイズまたは相対速度あるいはこれら両方に基づいて、更なる動作を遂行し、
さらに、
前記第1フレーム及び前記第2フレームに対して水平及び垂直の積分投影ベクトル勾配を決定すること;
前記水平及び垂直の積分投影ベクトル勾配を正規化すること;
前記水平及び垂直の積分投影ベクトル勾配の主要な最大及び最小ピークの位置を決定すること;及び、
主要な最大及び最小ピークの間の正規化された距離に基づく大域的な回転を決定すること、をさらに含むことにより、前記更なる動作も、前記決定された大域的な回転に基づく前記方法。
A method for determining whether a moving object is detected in a digital image frame within an image acquisition device, comprising:
Obtaining a sequence of image frames;
A global alignment of the first frame and the second frame in the sequence of image frames (the second frame follows the first frame in the sequence of image frames) is performed to obtain an aligned global vector Generating,
Determining at least one portion of the integral projection vector;
Determining an approximate size and / or relative velocity of at least one moving object in the sequence of image frames based on at least a portion of the position of each of the at least one portion of the integral projection vector;
Determining the degree of rotation between the frames; and
Performing further actions based on the determined approximate size and / or relative velocity of at least one moving object ;
further,
Determining horizontal and vertical integral projection vector gradients for the first frame and the second frame;
Normalizing the horizontal and vertical integral projection vector gradients;
Determining the positions of major maximum and minimum peaks of the horizontal and vertical integral projection vector gradients; and
Determining the global rotation based on a normalized distance between major maximum and minimum peaks, whereby the further operation is also based on the determined global rotation .
前記更なる動作は、パノラマ画像の隣接したフレームを連結すること、後のフレームでの追跡される物体の位置を予測すること、第1フレーム及び第2フレームの少なくとも1つよりも縮小されたぼやけで画像を提供すること、あるいは、1以上の望まれない動きアーチファクトの除去によってより安定したビデオシーケンスを提供すること、またはこれらの組み合わせを含むこと
を特徴とする請求項記載の方法。
The further operations include concatenating adjacent frames of the panoramic image, predicting the position of the tracked object in a later frame, and blurring reduced more than at least one of the first frame and the second frame. 7. The method of claim 6 , comprising: providing an image at or providing a more stable video sequence by removing one or more unwanted motion artifacts, or a combination thereof.
前記画像フレームのシーケンスの第1フレーム及び第2フレームの少なくとも2つの合致する隅領域間のデルタX及びデルタYの差分を決定すること;及び、
前記デルタX及びデルタYの差分に基づいた大域的な回転を決定すること、
をさらに含み、
前記更なる動作も、前記決定された大域的な回転に基づくことを特徴とする請求項6記載の方法。
Determining a delta X and delta Y difference between at least two matching corner regions of the first frame and the second frame of the sequence of image frames; and
Determining a global rotation based on the difference between the delta X and delta Y;
Further including
The method of claim 6, wherein the further action is also based on the determined global rotation.
前記第1フレーム及び前記第2フレームに対して水平及び垂直の積分投影ベクトルを決定すること;
可変長ベクトルで第1の積分投影ベクトルを連続的に畳み込んで、第1のフィルタリングされたベクトルを生成すること;
固定長ベクトルで第2の積分投影ベクトルを畳み込んで、第2のフィルタリングされたベクトルを生成すること;
前記第1及び第2のフィルタリングされたベクトル間の差分の和を決定すること;及び、
前記差分の和の最小値を導く可変ベクトルNの長さに基づく大域的な回転を決定すること、
をさらに含み、
前記更なる動作も、前記決定された大域的な回転に基づくことを特徴とする請求項記載の方法。
Determining horizontal and vertical integral projection vectors for the first frame and the second frame;
Continuously convolving the first integral projection vector with a variable length vector to generate a first filtered vector;
Convolving the second integral projection vector with a fixed length vector to produce a second filtered vector;
Determining a sum of differences between the first and second filtered vectors; and
Determining a global rotation based on the length of the variable vector N leading to the minimum of the difference sum;
Further including
The method of claim 6 , wherein the further action is also based on the determined global rotation.
前記第1フレーム及び前記第2フレームの大域的なXY整列を遂行すること;
整列された画像対の少なくとも2つの合致した隅領域において局所的なXY整列を決定すること;及び、
前記局所的なXY整列間の差分に基づいて、前記第1フレームに対して第2フレームの大域的な回転を決定すること、
をさらに含み、
前記更なる動作も、前記決定された大域的な回転に基づくことを特徴とする請求項記載の方法。
Performing a global XY alignment of the first frame and the second frame;
Determining local XY alignment in at least two matched corner regions of the aligned image pair; and
Determining a global rotation of a second frame relative to the first frame based on a difference between the local XY alignments;
Further including
The method of claim 6 , wherein the further action is also based on the determined global rotation.
デジタル画像を得るためのレンズ、シャッター及び画像センサ;
プロセッサー;及び、
デジタル画像フレーム中に移動物体が検出されるか否かを決定するための方法を遂行するようにプロセッサーをプログラミングするための埋め込まれたコードを有するメモリ、を含み、
前記方法は、
画像フレームのシーケンスを取得すること;
前記画像フレームのシーケンスにおける第1フレーム及び第2フレーム(前記画像フレームのシーケンスにおいて前記第2フレームは前記第1フレームに続く)の大域的なXY整列を遂行して、整列された大域的なベクトルを生成すること、
積分投影ベクトルの少なくとも1つの部分を決定すること、及び、
前記積分投影ベクトルの前記少なくとも1つの部分の各々の位置の少なくとも一部に基づいて、画像フレームのシーケンス内の少なくとも一の移動物体の、サイズまたは相対速度あるいはこれら両方を決定すること、
により、フレーム間の回転の度合いを決定すること;及び、
少なくとも一の移動物体の、決定された近似のサイズまたは相対速度あるいはこれら両方に基づいて、更なる動作を遂行し、
さらに、
前記第1フレーム及び前記第2フレームに対して水平及び垂直の積分投影ベクトル勾配を決定すること;
前記水平及び垂直の積分投影ベクトル勾配を正規化すること;
前記水平及び垂直の積分投影ベクトル勾配の主要な最大及び最小ピークの位置を決定すること;及び、
主要な最大及び最小ピークの間の正規化された距離に基づく大域的な回転を決定すること、を含むことにより、前記更なる動作が前記決定された大域的な回転に基づく前記画像取得装置。
Lenses, shutters and image sensors to obtain digital images;
A processor; and
A memory having embedded code for programming the processor to perform a method for determining whether a moving object is detected in a digital image frame;
The method
Obtaining a sequence of image frames;
A global vector aligned by performing a global XY alignment of a first frame and a second frame in the sequence of image frames (the second frame follows the first frame in the sequence of image frames); Generating,
Determining at least one portion of the integral projection vector; and
Determining the size and / or relative velocity of at least one moving object in the sequence of image frames based on at least a portion of the position of each of the at least one portion of the integral projection vector;
Determining the degree of rotation between the frames; and
Performing further actions based on the determined approximate size and / or relative velocity of at least one moving object ;
further,
Determining horizontal and vertical integral projection vector gradients for the first frame and the second frame;
Normalizing the horizontal and vertical integral projection vector gradients;
Determining the positions of major maximum and minimum peaks of the horizontal and vertical integral projection vector gradients; and
Determining the global rotation based on a normalized distance between major maximum and minimum peaks, wherein the further action is based on the determined global rotation .
前記更なる動作は、パノラマ画像の隣接したフレームを連結すること、後のフレームでの追跡される物体の位置を予測すること、第1フレーム及び第2フレームの少なくとも1つよりも縮小されたぼやけで画像を提供すること、あるいは、1以上の望まれない動きアーチファクトの除去によってより安定したビデオシーケンスを提供すること、またはこれらの組み合わせを含むこと
を特徴とする請求項11記載の画像取得装置。
The further operations include concatenating adjacent frames of the panoramic image, predicting the position of the tracked object in a later frame, and blurring reduced more than at least one of the first frame and the second frame. 12. An image acquisition device according to claim 11 , comprising providing an image, providing a more stable video sequence by removing one or more unwanted motion artifacts, or a combination thereof.
前記画像フレームのシーケンスの第1フレーム及び第2フレームの少なくとも2つの合致する隅領域間のデルタX及びデルタYの差分を決定すること;及び、
前記デルタX及びデルタYの差分に基づいた大域的な回転を決定すること、
をさらに含み、
前記更なる動作も、前記決定された大域的な回転に基づくことを特徴とする請求項1記載の画像取得装置。
Determining a delta X and delta Y difference between at least two matching corner regions of the first frame and the second frame of the sequence of image frames; and
Determining a global rotation based on the difference between the delta X and delta Y;
Further including
The further work, the image acquisition apparatus of claim 1 1, wherein the based on the global rotation the determined.
前記第1フレーム及び前記第2フレームに対して水平及び垂直の積分投影ベクトルを決定すること;
可変長ベクトルで第1の積分投影ベクトルを連続的に畳み込んで、第1のフィルタリングされたベクトルを生成すること;
固定長ベクトルで第2の積分投影ベクトルを畳み込んで、第2のフィルタリングされたベクトルを生成すること;及び、
前記第1及び第2のフィルタリングされたベクトル間の差分の和を決定すること;及び、
前記差分の和の最小値を導く可変ベクトルNの長さに基づく大域的な回転を決定すること、
をさらに含み、
前記更なる動作も、前記決定された大域的な回転に基づくことを特徴とする請求項11記載の画像取得装置。
Determining horizontal and vertical integral projection vectors for the first frame and the second frame;
Continuously convolving the first integral projection vector with a variable length vector to generate a first filtered vector;
Convolving the second integral projection vector with a fixed length vector to generate a second filtered vector; and
Determining a sum of differences between the first and second filtered vectors; and
Determining a global rotation based on the length of the variable vector N leading to the minimum of the difference sum;
Further including
12. The image acquisition device according to claim 11 , wherein the further operation is also based on the determined global rotation.
前記第1フレーム及び前記第2フレームの大域的なXY整列を遂行すること;
整列された画像対の少なくとも2つの合致した隅領域において局所的なXY整列を決定すること;及び、
前記局所的なXY整列間の差分に基づいて、前記第1フレームに対して第2フレームの大域的な回転を決定すること、をさらに含み、
前記更なる動作も、前記決定された大域的な回転に基づくことを特徴とする請求項11記載の画像取得装置。
Performing a global XY alignment of the first frame and the second frame;
Determining local XY alignment in at least two matched corner regions of the aligned image pair; and
Determining a global rotation of a second frame relative to the first frame based on a difference between the local XY alignments;
12. The image acquisition device according to claim 11 , wherein the further operation is also based on the determined global rotation.
デジタル画像フレーム中に移動物体が検出されるか否かを決定するようにプロセッサーをプログラミングするための埋め込まれたコードを有する記憶媒体であって、
前記コードは、
画像フレームのシーケンスを取得すること;
前記画像フレームのシーケンスにおける第1フレーム及び第2フレーム(前記画像フレームのシーケンスにおいて前記第2フレームは前記第1フレームに続く)の大域的な整列を遂行して、整列された大域的なベクトルを生成すること、
積分投影ベクトルの少なくとも1つの部分を決定すること、
前記積分投影ベクトルの前記少なくとも1つの部分の各々の位置の少なくとも一部に基づいて、画像フレームのシーケンス内の少なくとも一の移動物体の、近似のサイズまたは相対速度あるいはこれら両方を決定すること、
を含み、フレーム間の回転の度合いを決定すること;
少なくとも一の移動物体の、決定された近似のサイズまたは相対速度あるいはこれら両方に基づいて、更なる動作を遂行することを含み;
さらに、
前記第1フレーム及び前記第2フレームに対して水平及び垂直の積分投影ベクトル勾配を決定すること;
前記水平及び垂直の積分投影ベクトル勾配を正規化すること;
前記水平及び垂直の積分投影ベクトル勾配の主要な最大及び最小ピークの位置を決定すること;及び、
主要な最大及び最小ピークの間の正規化された距離に基づく大域的な回転を決定することを含むことにより、前記更なる動作が前記決定された大域的な回転に基づくことを特徴とするプロセッサー読み取り可能な1又は2以上の非一時的な記憶媒体。
A storage medium having embedded code for programming a processor to determine whether a moving object is detected in a digital image frame,
The code is
Obtaining a sequence of image frames;
A global alignment of the first frame and the second frame in the sequence of image frames (the second frame follows the first frame in the sequence of image frames) is performed to obtain an aligned global vector Generating,
Determining at least one portion of the integral projection vector;
Determining an approximate size and / or relative velocity of at least one moving object in the sequence of image frames based on at least a portion of the position of each of the at least one portion of the integral projection vector;
Determining the degree of rotation between the frames;
Performing further actions based on the determined approximate size and / or relative velocity of at least one moving object ;
further,
Determining horizontal and vertical integral projection vector gradients for the first frame and the second frame;
Normalizing the horizontal and vertical integral projection vector gradients;
Determining the positions of major maximum and minimum peaks of the horizontal and vertical integral projection vector gradients; and
A processor characterized in that the further action is based on the determined global rotation by including determining a global rotation based on a normalized distance between major maximum and minimum peaks. One or more non-transitory storage media that can be read.
JP2012030988A 2011-02-15 2012-02-15 Object detection from image profiles Active JP6026752B2 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US13/028,206 2011-02-15
US13/028,205 2011-02-15
US13/028,205 US8705894B2 (en) 2011-02-15 2011-02-15 Image rotation from local motion estimates
US13/028,203 US8587665B2 (en) 2011-02-15 2011-02-15 Fast rotation estimation of objects in sequences of acquired digital images
US13/028,203 2011-02-15
US13/028,206 US8587666B2 (en) 2011-02-15 2011-02-15 Object detection from image profiles within sequences of acquired digital images

Publications (3)

Publication Number Publication Date
JP2012168952A JP2012168952A (en) 2012-09-06
JP2012168952A5 JP2012168952A5 (en) 2015-04-02
JP6026752B2 true JP6026752B2 (en) 2016-11-16

Family

ID=46972987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012030988A Active JP6026752B2 (en) 2011-02-15 2012-02-15 Object detection from image profiles

Country Status (1)

Country Link
JP (1) JP6026752B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042120A (en) * 2000-07-24 2002-02-08 Mitsubishi Electric Corp Image processing device
US7755667B2 (en) * 2005-05-17 2010-07-13 Eastman Kodak Company Image sequence stabilization method and camera having dual path image sequence stabilization

Also Published As

Publication number Publication date
JP2012168952A (en) 2012-09-06

Similar Documents

Publication Publication Date Title
US8587666B2 (en) Object detection from image profiles within sequences of acquired digital images
US8705894B2 (en) Image rotation from local motion estimates
US8587665B2 (en) Fast rotation estimation of objects in sequences of acquired digital images
JP6271609B2 (en) Autofocus for stereoscopic cameras
US9177389B2 (en) Motion vector generation apparatus and motion vector generation method
US10225473B2 (en) Threshold determination in a RANSAC algorithm
WO2016049889A1 (en) Autofocus method, device and electronic apparatus
US20150262346A1 (en) Image processing apparatus, image processing method, and image processing program
KR100938195B1 (en) Method for distance estimation and apparatus for the same using a stereo matching
CN107516322B (en) Image object size and rotation estimation calculation method based on log polar space
US20160050372A1 (en) Systems and methods for depth enhanced and content aware video stabilization
US20190080464A1 (en) Stereo matching method and apparatus
Okade et al. Video stabilization using maximally stable extremal region features
US10229508B2 (en) Dynamic particle filter parameterization
JP6617150B2 (en) Object detection method and object detection apparatus
US8520950B2 (en) Image processing device, image processing method, program, and integrated circuit
Mustaniemi et al. Fast motion deblurring for feature detection and matching using inertial measurements
US20220366574A1 (en) Image-capturing apparatus, image processing system, image processing method, and program
Dasari et al. A joint visual-inertial image registration for mobile HDR imaging
JP7230722B2 (en) Image processing device and image processing method
JP6026752B2 (en) Object detection from image profiles
KR101705333B1 (en) Estimation Method of Depth Vatiation around SIFT Features using a Stereo Camera
KR101741501B1 (en) Apparatus and Method for Estimation of Distance between Camera and Object
Kondermann et al. Postprocessing of optical flows via surface measures and motion inpainting
Ha et al. 6-DOF direct homography tracking with extended Kalman filter

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150213

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20151002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151106

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161013

R150 Certificate of patent or registration of utility model

Ref document number: 6026752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250