JPH10177655A - Moving image processor - Google Patents

Moving image processor

Info

Publication number
JPH10177655A
JPH10177655A JP33590496A JP33590496A JPH10177655A JP H10177655 A JPH10177655 A JP H10177655A JP 33590496 A JP33590496 A JP 33590496A JP 33590496 A JP33590496 A JP 33590496A JP H10177655 A JPH10177655 A JP H10177655A
Authority
JP
Japan
Prior art keywords
data
moving image
projection
unit
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33590496A
Other languages
Japanese (ja)
Inventor
Koshi Sakurada
孔司 桜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP33590496A priority Critical patent/JPH10177655A/en
Publication of JPH10177655A publication Critical patent/JPH10177655A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To grasp series of movement of object in an image as a whole while almost fixing arithmetic quantity in spite of size of movement by providing the information of movement in inputted moving image data based on the information of stripe-shaped patterns. SOLUTION: A space/time axis transforming part 10 inputs moving image data S101, stores these data, transforms the coordinate system of moving image data expressed on a three-dimensional space and outputs a pattern S102 on a two-dimensional space to a projection pattern preparing part 102. The projection pattern preparing part 102 inputs the twodimensional pattern 102, projects it for each of plural directions and outputs a projected pattern S103 to a stripe direction detecting part 103. The stripe direction detecting part 103 inputs the projected pattern S103, calculates its variance for each direction and outputs the direction of maximum covariant value as stripe direction data S104 to a moving amount output part 104. The moving amount output part 104 inputs plural pieces of stripe direction data S104, calculates the amount of movement corresponding to the moving image data S101, and outputs moving image movement data S105.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像中の対象物
の動き情報を得る動画像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image processing apparatus for obtaining movement information of an object in a moving image.

【0002】[0002]

【従来の技術】 文献1『テレビジョン学会編、「画像情報圧縮」、オー
ム社、p.92、1991年』動画像の動き検出は、動
画像処理装置を構成する際に必要な技術である。例え
ば、動画像符号化装置においては、画像の動きを予測
し、予測誤差のみを符号化することによって符号量を削
減できる。また、対象物の動きを解析したりモデル化し
て利用するシステムにおいても、動画像の動き検出が必
要不可欠である。
2. Description of the Related Art Literature 1 "Television Society," Image Information Compression ", Ohmsha, p. 92, 1991 ", motion detection of a moving image is a technique necessary for configuring a moving image processing apparatus. For example, in a moving image encoding device, the amount of code can be reduced by predicting the motion of an image and encoding only the prediction error. Also, in a system that analyzes and models the movement of an object and uses it, motion detection of a moving image is indispensable.

【0003】このような動画像の動きを検出する方法と
しては、従来、上記文献1に開示されるものがある。
As a method for detecting such a motion of a moving image, there is a method disclosed in the above-mentioned reference 1.

【0004】図2は、従来文献による動画像の動き検出
方法を説明する図である。図2において、符号201は
現フレーム内のブロック、符号202は前フレーム内の
ブロック、符号203はブロック201中の画素Xi 、
符号204はブロック202中の画素Xi-f-j を、それ
ぞれ表わしている。
FIG. 2 is a diagram for explaining a method of detecting a motion of a moving image according to the related art. In FIG. 2, reference numeral 201 denotes a block in the current frame, reference numeral 202 denotes a block in the previous frame, reference numeral 203 denotes a pixel Xi in the block 201,
Reference numeral 204 represents a pixel Xi-fj in the block 202, respectively.

【0005】上記文献の方法では、画像をブロック化
し、ブロック単位でパターンマッチングを行なう。パタ
ーンマッチングの方法は、例えば、現フレーム内のブロ
ック201中の画素Xi と、これをj画素ずらした前フ
レーム内のブロック202中の画素Xi-f-j との差分の
絶対値和Sを、(1) 式に従って求め、この評価量Sを最
小にするずれ位置jを探索して動き量を検出するもので
ある。(1) 式における総和Σは、ブロック201に属す
る全ての画素Xi についてである。
In the method described in the above document, an image is divided into blocks, and pattern matching is performed in block units. The pattern matching method is, for example, the sum of the absolute value S of the difference between the pixel Xi in the block 201 in the current frame and the pixel Xi-fj in the block 202 in the previous frame, which is shifted by j pixels, is expressed by (1 ) Is obtained according to the following formula, and a shift position j that minimizes the evaluation amount S is searched for to detect a motion amount. The sum Σ in the equation (1) is for all the pixels Xi belonging to the block 201.

【0006】 S=Σ|Xi −Xi-f-j | …(1) このブロックマッチング方法においては、現フレームを
ブロックに分割し、ブロック毎に前フレームとの類似位
置を探索することによって、フレーム間の動きを検出す
る。
S = Σ | Xi−Xi-fj | (1) In this block matching method, the current frame is divided into blocks, and a similar position to the previous frame is searched for each block, so that the inter-frame Detect movement.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記の
ブロックマッチング方法による動き検出では、以下のよ
うな課題(1) 〜(3) が生じていた。
However, the following problems (1) to (3) have occurred in the motion detection by the above-described block matching method.

【0008】(1) フレーム間の動きが大きい場合、パタ
ーンマッチングの探索範囲を広く設定する必要があり、
その結果、演算量が増大する。
(1) If the movement between frames is large, it is necessary to set a wide search range for pattern matching.
As a result, the amount of calculation increases.

【0009】(2) フレーム間のブロック毎の動き量しか
得られないので、画像中の対象物の一連の動きを大局的
に把握できない。そのため、対象物の動きを解析したり
モデル化して利用するシステムへの適用が難しい。
(2) Since only the amount of motion for each block between frames can be obtained, a series of motions of an object in an image cannot be grasped globally. For this reason, it is difficult to apply the present invention to a system that analyzes and models the movement of an object.

【0010】(3) 画像データに雑音が含まれる場合、正
しい動き量に対して評価値Sが最小になるとは限らない
ので、動き検出エラーが発生しやすい。
(3) When noise is included in image data, the evaluation value S is not always minimized with respect to a correct motion amount, so that a motion detection error is likely to occur.

【0011】[0011]

【課題を解決するための手段】かかる課題を解決するた
め、本発明の動画像処理装置は、水平軸、垂直軸及び時
間軸の3次元空間上で表された動画像データが入力さ
れ、その動画像データに対する座標軸変換処理を通じ
て、入力された動画像データにおける動きに応じた縞状
パターンを含み得る座標軸変換データを形成する座標軸
変換手段と、形成された座標軸変換データにおける縞状
パターンの情報に基づいて、入力された動画像データに
おける動きの情報を得る動き情報形成手段とを備えたこ
とを特徴とする。
In order to solve such a problem, a moving image processing apparatus according to the present invention receives moving image data represented in a three-dimensional space of a horizontal axis, a vertical axis and a time axis, and receives the input data. Through coordinate axis conversion processing for moving image data, coordinate axis conversion means for forming coordinate axis conversion data that can include a striped pattern corresponding to movement in input moving image data, and information on the striped pattern in the formed coordinate axis conversion data. Motion information forming means for obtaining information on motion in the input moving image data based on the motion information.

【0012】本発明の動画像処理装置においては、座標
軸変換手段が、水平軸、垂直軸及び時間軸の3次元空間
上で表された入力された動画像データに対する座標軸変
換処理を通じて、入力された動画像データにおける動き
に応じた縞状パターンを含み得る座標軸変換データを形
成し、動き情報形成手段が、形成された座標軸変換デー
タにおける縞状パターンの情報に基づいて、入力された
動画像データにおける動きの情報を得る。
In the moving picture processing apparatus of the present invention, the coordinate axis conversion means receives the input through the coordinate axis conversion processing for the input moving picture data represented in the three-dimensional space of the horizontal axis, the vertical axis and the time axis. Forming coordinate axis conversion data that may include a striped pattern corresponding to the movement in the moving image data, and the motion information forming unit performs processing on the input moving image data based on the striped pattern information in the formed coordinate axis conversion data. Get movement information.

【0013】[0013]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(A)第1の実施形態 以下、本発明による動画像処理装置の第1の実施形態を
図面を参照しながら詳述する。
(A) First Embodiment Hereinafter, a first embodiment of a moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0014】(A−1)第1の実施形態の構成 図1は、この第1の実施形態による動画像処理装置の構
成を示すブロック図である。図1において、第1の実施
形態の動画像処理装置は、時空間軸変換部101、投影
パターン作成部102、縞方向検出部103及び動き量
出力部104から構成されている。
(A-1) Configuration of First Embodiment FIG. 1 is a block diagram showing the configuration of a moving image processing apparatus according to the first embodiment. In FIG. 1, the moving image processing apparatus according to the first embodiment includes a spatiotemporal axis conversion unit 101, a projection pattern creation unit 102, a stripe direction detection unit 103, and a motion amount output unit 104.

【0015】時空間軸変換部101は、動画像データS
101を入力して記憶し、3次元空間上で表わされる動
画像データの座標系(x,y,t)(xは動画像を構成
する各フレームの水平軸、yは各フレームの垂直軸、t
は時間軸)を変換して、各yの値毎の(t,x)を座標
軸とする2次元空間上のパターン及び各xの値毎の
(t,y)を座標軸とする2次元空間上のパターンS1
02を、投影パターン作成部102に出力するものであ
る。
The spatio-temporal axis conversion unit 101 converts the moving image data S
101 is input and stored, and the coordinate system (x, y, t) of the moving image data represented in the three-dimensional space (x is the horizontal axis of each frame constituting the moving image, y is the vertical axis of each frame, t
Is a time axis), and a pattern on a two-dimensional space using (t, x) for each y value as a coordinate axis and a two-dimensional space using (t, y) for each x value as a coordinate axis Pattern S1
02 is output to the projection pattern creation unit 102.

【0016】投影パターン作成部102は、2次元パタ
ーンS102を入力して、複数の方向毎に投影を行な
い、投影パターンS103を縞方向検出部103に出力
するものである。
The projection pattern creation unit 102 receives the two-dimensional pattern S102, performs projection in a plurality of directions, and outputs the projection pattern S103 to the stripe direction detection unit 103.

【0017】縞方向検出部103は、投影パターンS1
03を入力して、その方向毎の分散を計算し、該分散値
が最大となる方向を求め、これを縞方向データS104
として動き量出力部104に出力するものである。
The fringe direction detector 103 detects the projection pattern S1
03, the variance in each direction is calculated, and the direction in which the variance value is maximized is obtained.
Is output to the motion amount output unit 104.

【0018】動き量出力部104は、複数の縞方向デー
タS104を入力して、動画像データS101に対応す
る動きの量を計算し、動画像動きデータS105を出力
するものである。
The motion amount output unit 104 receives a plurality of stripe direction data S104, calculates a motion amount corresponding to the moving image data S101, and outputs moving image motion data S105.

【0019】(A−2)第1の実施形態の動作 次に、以上のような各部101〜104からなる第1の
実施形態の動画像処理装置の動作を説明する。
(A-2) Operation of First Embodiment Next, the operation of the moving image processing apparatus of the first embodiment, which includes the above-described units 101 to 104, will be described.

【0020】動画像データS101が時空間軸変換部1
01に入力されると、時空間軸変換部101は、所定の
時間分の動画像データを記憶する。この時点で、時空間
軸変換部101には、(x,y,t)3次元空間上で定
義される画素データが記憶すされたことになる。次に、
時空間軸変換部101は、各yの値毎の(t,x)2次
元パターン及び各xの値毎の(t,y)2次元パターン
を順次作成して、これら2次元パターンS102を投影
パターン作成部102に対して出力する。
The moving image data S101 is converted to a spatiotemporal axis conversion unit 1.
When input to 01, the spatio-temporal axis conversion unit 101 stores moving image data for a predetermined time. At this point, the spatio-temporal axis conversion unit 101 has stored the pixel data defined on the (x, y, t) three-dimensional space. next,
The spatiotemporal axis conversion unit 101 sequentially creates a (t, x) two-dimensional pattern for each y value and a (t, y) two-dimensional pattern for each x value, and projects these two-dimensional patterns S102. Output to the pattern creation unit 102.

【0021】図3は、時空間軸変換部101における変
換パターンの特徴を示す説明図である。
FIG. 3 is an explanatory diagram showing characteristics of the conversion pattern in the spatiotemporal axis conversion unit 101.

【0022】図3(a)は、フレーム中のパターンが時
間経過と共に矢印のように水平移動する場合における初
期時刻t=0でのフレームパターンを示すものである。
この場合、あるyの値yc に対応する(t,x)2次元
パターンは、図3(b)に示すように、縞状のパターン
になる。動画像上のパターンが水平方向に等速に移動す
ると、この縞状パターンは、同一方向への直線的な模様
となり、その傾きdx/dtは水平移動速度に一致す
る。また、この場合、あるxの値xc に対応する(t,
y)2次元パターンは、図3(c)に示すように、必ず
しも縞状のパターンにはならない。
FIG. 3A shows a frame pattern at an initial time t = 0 when a pattern in a frame moves horizontally as time elapses as indicated by an arrow.
In this case, the (t, x) two-dimensional pattern corresponding to a certain y value yc is a striped pattern as shown in FIG. When the pattern on the moving image moves at a constant speed in the horizontal direction, the striped pattern becomes a linear pattern in the same direction, and its inclination dx / dt matches the horizontal moving speed. Further, in this case, (t,
y) The two-dimensional pattern is not always a striped pattern as shown in FIG.

【0023】また、図3(d)は、フレーム中のパター
ンが時間経過と共に失印のように垂直移動する場合にお
ける初期時刻t=0でのフレームパターンを示すもので
ある。この場合、あるyの値yc に対応する(t,x)
2次元パターンは、図3(e)に示すように、必ずしも
縞状のパターンにはならない。一方、この場合、あるx
の値xc に対応する(t,y)2次元パターンは、図3
(f)に示すように、縞状のパターンになる。動画像上
のパターンが垂直方向に等速に移動すると、この縞状パ
ターンは、同一方向への直線的な模様となり、その傾き
dy/dtは垂直移動速度に一致する。
FIG. 3D shows a frame pattern at an initial time t = 0 in a case where the pattern in the frame moves vertically with the passage of time like a mark. In this case, (t, x) corresponding to a certain y value yc
The two-dimensional pattern is not always a striped pattern as shown in FIG. On the other hand, in this case, a certain x
The (t, y) two-dimensional pattern corresponding to the value xc of FIG.
As shown in (f), a stripe pattern is formed. When the pattern on the moving image moves at a constant speed in the vertical direction, the striped pattern becomes a linear pattern in the same direction, and its slope dy / dt matches the vertical moving speed.

【0024】さらに、図3(g)は、フレーム中のパタ
ーンが時間経過と共に矢印のように斜め移動する場合に
おける初期時刻t=0でのフレームパターンを示すもの
である。この場合、あるyの値yc に対応する(t,
x)2次元パターンは、図3(h)に示すように、厳密
には縞状のパターンにはならないものの、縞状パターン
に近い模様を呈する。また、同様に、あるxの値xc に
対応する(t,y)2次元パターンも、図3(i)に示
すように、縞状パターンに近い模様を呈する。図3
(h)及び(i)に見られる縞状に近い模様の向きはそ
れぞれ、動画像の移動速度dx/dt、dy/dtに一
致する。
FIG. 3 (g) shows a frame pattern at an initial time t = 0 when the pattern in the frame moves obliquely with the passage of time as indicated by an arrow. In this case, (t,
x) As shown in FIG. 3H, the two-dimensional pattern does not form a strictly striped pattern, but exhibits a pattern close to the striped pattern. Similarly, the (t, y) two-dimensional pattern corresponding to a certain x value xc also exhibits a pattern close to a striped pattern as shown in FIG. FIG.
The directions of the stripe-like patterns seen in (h) and (i) correspond to the moving speeds dx / dt and dy / dt of the moving image, respectively.

【0025】以上のように、動画像が直線的な動きをす
る場合には、時空間軸変換部101から出力される2次
元パターン(2次元パターンの集合)S102は、縞状
のパターンになりやすいことが分かる。
As described above, when the moving image moves linearly, the two-dimensional pattern (a set of two-dimensional patterns) S102 output from the spatiotemporal axis conversion unit 101 becomes a striped pattern. It turns out that it is easy.

【0026】得られた2次元パターンS102が投影パ
ターン作成部102に入力されると、この投影パターン
作成部102によって、所走の方向θ毎(例えば、−9
0°から90°までを1°刻み)に2次元パターンS1
02の投影パターンS103が計算され、縞方向検出部
103に出力される。
When the obtained two-dimensional pattern S102 is input to the projection pattern creation unit 102, the projection pattern creation unit 102 uses the two-dimensional pattern S102 for each running direction θ (for example, −9).
Two-dimensional pattern S1 (from 0 ° to 90 ° in 1 ° increments)
The projection pattern S103 of No. 02 is calculated and output to the stripe direction detection unit 103.

【0027】図4は、投影パターン作成部102におけ
る投影パターンS103の計算方法を説明する図であ
る。
FIG. 4 is a diagram for explaining a method of calculating the projection pattern S103 in the projection pattern creation unit 102.

【0028】図4(a)には、縞状パターンを呈する1
個の2次元パターン401に対し、その垂直方向より時
計周りにθだけ傾いた方向(矢印にて図示)に投影を行
なった場合の投影データ(図中、PR(r))について
図示している。各投影位置rに対する投影データPR
(r)の計算方法としては、例えば、以下のような(2)
式を適用すれば良い。なお、(2) 式における総和Σは、
画素集合A(θ,r)の全ての要素についてである。
FIG. 4 (a) shows a 1 having a striped pattern.
The projection data (PR (r) in the figure) is shown when the two two-dimensional patterns 401 are projected in a direction (shown by an arrow) inclined clockwise by θ from the vertical direction. . Projection data PR for each projection position r
As a calculation method of (r), for example, the following (2)
Apply the formula. The sum 総 in equation (2) is
This is for all the elements of the pixel set A (θ, r).

【0029】 PR(r)=ΣL(x,y,θ,r)P(x,y)/S(θ,r)…(2) ここで、図4(a)及び(b)に、下記パラメータが意
味する幾何学的関係を図示しているように、A(θ,
r)は、投影角度θ、投影位置rの投影ライン(θ,
r)上に存在する画素の集合であり、L(x,y,θ,
r)は、投影ライン(θ,r)が画素集合A(θ,r)
に属するある画素(x,y)を通過する場合の通過の長
さ(1画素の縦横の長さを各々1とした長さ)であり、
P(x,y)は画素(x、y)の画素値(階調)であ
り、S(θ,r)は、投影ライン(θ,r)が2次元パ
ターン401を通過する長さである。
PR (r) = ΣL (x, y, θ, r) P (x, y) / S (θ, r) (2) Here, FIGS. As illustrated in the geometrical relationship implied by the parameters, A (θ,
r) is a projection line at the projection angle θ and the projection position r (θ,
r) is a set of pixels existing on L (x, y, θ,
r) indicates that the projection line (θ, r) is a pixel set A (θ, r)
Is the length of passage when passing through a certain pixel (x, y) belonging to
P (x, y) is the pixel value (gradation) of the pixel (x, y), and S (θ, r) is the length of the projection line (θ, r) passing through the two-dimensional pattern 401. .

【0030】なお、直前の段落における(x,y)は、
上述した図3における(x,y)とは異なる意味で用い
ている。例えば、図3における(t,x)2次元パター
ンについての投影処理であれば、直前の段落における
(x,y)は、図3における(t,x)が該当する。
Note that (x, y) in the immediately preceding paragraph is
It is used in a different sense from (x, y) in FIG. For example, in the case of the projection processing for the (t, x) two-dimensional pattern in FIG. 3, (t, x) in FIG. 3 corresponds to (x, y) in the immediately preceding paragraph.

【0031】上述したパラメータA(θ,r)、L
(x,y,θ,r)及びS(θ,f)は、投影パターン
S103を計算する際に、投影方向、投影位置、2次元
パターンの相互の幾何学的位置関係に基づいて、その都
度計算しても良いし、予め計算しておいてテープルとし
て記憶しておき、投影パターンS103を計算する際
に、テーブルから読み出すように構成しても良い。
The above parameters A (θ, r), L
(X, y, θ, r) and S (θ, f) are calculated each time the projection pattern S103 is calculated based on the projection direction, the projection position, and the mutual geometric positional relationship of the two-dimensional pattern. The calculation may be performed, or the calculation may be performed in advance and stored as a table, and the table may be read from the table when calculating the projection pattern S103.

【0032】投影パターン作成部102から投影パター
ンS103が出力されると、縞方向検出部103によっ
て、各投影方向θ毎に、投影パターンの分散値V(θ)
が計算される。続いて、縞方向検出部103によって、
分散値V(θ)が最大となる場合の投影方向θが計算さ
れ、該投影方向θが縞方向データS104として動き量
出力部104に出力される。
When the projection pattern S103 is output from the projection pattern creation unit 102, the variance value V (θ) of the projection pattern is output by the stripe direction detection unit 103 for each projection direction θ.
Is calculated. Subsequently, the stripe direction detection unit 103
The projection direction θ when the variance value V (θ) is the maximum is calculated, and the projection direction θ is output to the motion amount output unit 104 as the stripe direction data S104.

【0033】図5は、縞状パターンに対する投影パター
ンの特徴を説明する図である。一例として、縦縞模様を
呈する2次元パターン((t,x)2次元パターン又は
((t,y)2次元パターン)501に対し、垂直方向
に投影を行なった場合には、図5の上部に示すように、
分散の大きな投影パターン502が得られ、その他の方
向、例えば、水平方向に投影を行なった場合には、図5
の右側に示すように、分散の小さな投影パターン503
が得られることを示している。
FIG. 5 is a diagram for explaining the characteristics of the projection pattern with respect to the striped pattern. As an example, when a two-dimensional pattern ((t, x) two-dimensional pattern or ((t, y) two-dimensional pattern) 501 having a vertical stripe pattern is projected in the vertical direction, the upper part of FIG. As shown,
When a projection pattern 502 having a large variance is obtained and the projection is performed in another direction, for example, in the horizontal direction, FIG.
As shown on the right side of FIG.
Is obtained.

【0034】すなわち、縞状パターンに対して投影を行
なうと、縞の方向θに対応した投影パターンの分散値V
(θ)が大きくなるので、縞方向検出部103が該分散
値V(θ)が最大となる方向θを計算することによっ
て、縞方向データS104が正しく出力される。
That is, when the projection is performed on the stripe pattern, the variance value V of the projection pattern corresponding to the stripe direction θ is obtained.
Since (θ) increases, the fringe direction detection unit 103 calculates the direction θ in which the variance value V (θ) is maximum, so that the fringe direction data S104 is correctly output.

【0035】なお、縞方向検出部103は、前記の分散
最大値が所定の閾値より小さい場合には、動きがないも
のとみなして、これを示すデータを縞方向データS10
4として出力する。
When the maximum variance is smaller than a predetermined threshold value, the stripe direction detecting section 103 regards that there is no motion and outputs data indicating this as the stripe direction data S10.
Output as 4.

【0036】例えば、図3(c)に示される(t、y)
2次元パターンに対しては、明瞭な縞パターンが存在し
ないので、縞方向検出部103での処理において十分大
きな分散値が得られず、垂直方向の動きがないことを示
す識別データが縞方向データS104として出力される
ことになる。
For example, (t, y) shown in FIG.
Since no clear fringe pattern exists for the two-dimensional pattern, a sufficiently large variance value cannot be obtained in the processing in the fringe direction detecting unit 103, and the identification data indicating that there is no vertical movement is the fringe direction data. It will be output as S104.

【0037】縞方向検出部103から縞方向データS1
04が出力されると、次に、動き量出力部104が、該
縞方向データS104を入力して記憶する。さらに、動
き量出力部104は、この画像処埋装置に入力された動
画像データS101を構成する、全ての(t,x)2次
元パターン及び(t,y)2次元パターンに対応する縞
方向データS104を入力し終えると、(x,y,t)
3次元空間上の動画像の動きを、例えば、動きベクトル
として表現し、動画像動きデータS105として出力す
る。
The fringe direction detecting unit 103 outputs fringe direction data S1
When 04 is output, the motion amount output unit 104 inputs and stores the stripe direction data S104. Further, the motion amount output unit 104 generates a stripe direction corresponding to all the (t, x) two-dimensional patterns and the (t, y) two-dimensional patterns constituting the moving image data S101 input to the image processing apparatus. After inputting the data S104, (x, y, t)
The motion of the moving image in the three-dimensional space is expressed as, for example, a motion vector and output as moving image motion data S105.

【0038】上述したように、図3に示す(t,x)2
次元パターンの縞方向θは、その算出に用いた初期時刻
t=0からのx方向での移動速度dx/dtになってお
り、図3に示す(t,y)2次元パターンの縞方向θ
は、その算出に用いた初期時刻t=0からのy方向での
移動速度dy/dtになっている。従って、あるxの値
の移動速度dx/dtと、あるyの値での移動速度dy
/dtにより、初期時刻t=0における座標(x,y)
での移動ベクトルが求められ、これを各座標(x,y)
について求めることにより、初期時刻t=0における全
ての画素の移動ベクトルを求めることができる。この初
期時刻を順次ずらせて行くことにより、各画素位置での
移動ベクトルの時間変化である動画像動きデータS10
5を得ることができる。
As described above, (t, x) 2 shown in FIG.
The stripe direction θ of the two-dimensional pattern is the moving speed dx / dt in the x direction from the initial time t = 0 used for the calculation, and the stripe direction θ of the (t, y) two-dimensional pattern shown in FIG.
Is the moving speed dy / dt in the y direction from the initial time t = 0 used for the calculation. Therefore, the moving speed dx / dt at a certain value of x and the moving speed dy at a certain value of y
/ Dt, coordinates (x, y) at the initial time t = 0
At the coordinates (x, y).
, The motion vectors of all the pixels at the initial time t = 0 can be obtained. By sequentially shifting the initial time, moving image motion data S10, which is a time change of a motion vector at each pixel position, is obtained.
5 can be obtained.

【0039】図6は、上記動画像動きデータS105を
利用した呈示の一例であり、図示したように、各フレー
ム画像を時間経過に従って並べ、(x,y)平面上の任
意点の動きを追跡するよう表示を行なっている。この実
施形態では、上記動画像動きデータS105を利用する
ことにより、(x,y,t)3次元空間上の画像の動き
を大局的に捉えることができるので、図6の方法に限ら
ず、様々な動きの呈示が可能である。
FIG. 6 shows an example of presentation using the moving image motion data S105. As shown in the figure, the frame images are arranged with time and the movement of an arbitrary point on the (x, y) plane is tracked. Is displayed. In this embodiment, by using the moving image motion data S105, the motion of the image in the (x, y, t) three-dimensional space can be grasped globally. Various movements can be presented.

【0040】(A−3)第1の実施形態の効果 以上のように、第1の実施形態は、(x,y,t)3次
元空間上で表わされる動画像データを(t,x)平面及
び(t,y)平面上でスライスした後、複数の方向毎に
投影を行ない、投影パターンの分散値が最大となる方向
を基に、動画像の動き量を検出するものである。上記ス
ライスされた(t,x)平面及び(t,y)平面上の2
次元パターンは、動画像の動きが変形や回転を含まない
平行移動で近似できる場合には、一般に縞状パターンに
なりやすいので、上記分散値が最大となる投影パターン
の方向は縞状パターンの模様の方向、すなわち、動画像
の動きに対応した方向となるので、動画像の動きを正し
く検出することができる。しかも、動きの検出は、上記
の〈t,x)平面及び(t,y)平面上で一括して検出
できるので、動画像の動きを大局的に把握できる。従っ
て、従来、ブロック単位にパターンマッチングを行なっ
て動きを検出した方法の課題を解決し、高精度かつ大局
的に動画像の動きを検出することができる。
(A-3) Effect of First Embodiment As described above, in the first embodiment, the moving image data represented on the (x, y, t) three-dimensional space is represented by (t, x). After slicing on the plane and the (t, y) plane, projection is performed for each of a plurality of directions, and the motion amount of the moving image is detected based on the direction in which the variance of the projection pattern is maximized. 2 on the sliced (t, x) plane and (t, y) plane
When the motion of a moving image can be approximated by a parallel movement that does not include deformation or rotation, the dimensional pattern generally tends to be a striped pattern. , That is, the direction corresponding to the motion of the moving image, so that the motion of the moving image can be correctly detected. In addition, since the motion can be detected collectively on the <t, x) plane and the (t, y) plane, the motion of the moving image can be grasped globally. Therefore, it is possible to solve the problem of the method of detecting a motion by performing pattern matching on a block basis and detect motion of a moving image with high accuracy and globally.

【0041】(B)第2の実施形態 次に、本発明による動画像処理装置の第2の実施形態を
図面を参照しながら詳述する。
(B) Second Embodiment Next, a second embodiment of the moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0042】(B−1)第2の実施形態の構成 図7は、この第2の実施形態による動画像処理装置の構
成を示すブロック図である。図7において、第2の実施
形態の動画像処理装置は、時空間軸変換部701、有限
ラドン変換部702、縞方向検出部703、候補角度記
憶部705及び動き量出力部704から構成されてい
る。
(B-1) Configuration of the Second Embodiment FIG. 7 is a block diagram showing the configuration of a moving image processing apparatus according to the second embodiment. 7, the moving image processing apparatus according to the second embodiment includes a spatiotemporal axis conversion unit 701, a finite Radon conversion unit 702, a stripe direction detection unit 703, a candidate angle storage unit 705, and a motion amount output unit 704. I have.

【0043】時空間軸変換部701は、入力された動画
像データS701に対して、第1の実施形態の時空間軸
変換部101と同様な変換処理を実行し、得られた各y
の値毎の(t,x)2次元空間上のパターン及び各xの
値毎の(t,y)2次元空間上のパターンS702を有
限ラドン変換部702に出力するものである。
The spatio-temporal axis conversion unit 701 executes the same conversion processing as the spatio-temporal axis conversion unit 101 of the first embodiment on the input moving image data S701, and obtains each y
And a pattern S702 in the (t, y) two-dimensional space for each value of x and a pattern S702 in the (t, y) two-dimensional space for each value of x.

【0044】有限ラドン変換部702は、2次元パター
ンS702を入力して、有限ラドン変換を行ない、投影
パターンS703を縞方向検出部703に出力するもの
である。
The finite Radon transform unit 702 receives the two-dimensional pattern S702, performs finite Radon transform, and outputs the projection pattern S703 to the stripe direction detecting unit 703.

【0045】縞方向検出部703は、投影パターンS7
03を入力して、各投影パターン毎の分散を計算し、該
分散値が所定値以上となる投影パターン番号S706を
候補角度記憶部705に出力すると共に、候補角度デー
タS707を候補角度記憶部705から入力して縞方向
データS704を計算して動き量出力部704に出力す
るものである。
The fringe direction detector 703 detects the projection pattern S7
03, the variance of each projection pattern is calculated, the projection pattern number S706 having the variance value equal to or larger than a predetermined value is output to the candidate angle storage unit 705, and the candidate angle data S707 is stored in the candidate angle storage unit 705. And calculates the stripe direction data S704 and outputs the calculated data to the motion amount output unit 704.

【0046】候補角度記憶部705は、投影パターン番
号S706を入力して、これに対応する候補角度データ
S707を縞方向検出部703に出力するものである。
The candidate angle storage unit 705 receives the projection pattern number S706 and outputs the corresponding candidate angle data S707 to the stripe direction detection unit 703.

【0047】動き量出力部704は、第1の実施形態の
動き量出力部104と同様に、縞方向データS704を
入力して、動画像データS701に対応する動き量を計
算して動画像動きデータS705を出力するものであ
る。
As in the case of the motion amount output unit 104 of the first embodiment, the motion amount output unit 704 receives the stripe direction data S704, calculates the motion amount corresponding to the moving image data S701, and It outputs data S705.

【0048】(B−2)第2の実施形態の動作 次に、以上のような各部701〜705からなる第2の
実施形態の動画像処理装置の動作を説明する。
(B-2) Operation of the Second Embodiment Next, the operation of the moving image processing apparatus according to the second embodiment, which includes the above-described units 701 to 705, will be described.

【0049】動画像データS701が時空間軸変換部7
01に入力され、この動画像データS701に対して時
空間軸変換部701が実行する処理は、第1の実施形態
と同様であるので、その説明は省略する。
The moving image data S701 is converted to a spatiotemporal axis
01, which is performed by the spatiotemporal axis conversion unit 701 on the moving image data S701 is the same as in the first embodiment, and a description thereof will be omitted.

【0050】時空間軸変換部701から出力された2次
元パターンS702が有限ラドン変換部702に入力さ
れると、この有限ラドン変換部702によって、その2
次元パターンS702に対し、有限ラドン変換が施さ
れ、これにより得られた投影パターンS703が縞方向
検出部703に出力される。
When the two-dimensional pattern S702 output from the spatio-temporal axis conversion unit 701 is input to the finite Radon conversion unit 702, the two-dimensional pattern
Finite Radon transform is performed on the dimensional pattern S702, and the resulting projection pattern S703 is output to the stripe direction detection unit 703.

【0051】ここで、有限ラドン変換は、例えば、文献
2に記載されているような2次元パターンから投影パタ
ーンヘの変換の方法の一つである。
Here, the finite Radon transform is one of the methods of converting a two-dimensional pattern into a projection pattern as described in, for example, Reference 2.

【0052】文献2『F.Matus,J.Flusser 著、「Image
Representation via a Finite Radon Transform 」、IE
EE Transactions on Pattern Analysis and Machine In
telligence、vol.15,no.10,pp.996-1006、1993年』第1
の実施形態で説明したパターン投影の方法では、投影方
向、投影位置、2次元パターンの相互の幾何学的位置関
係に基づいて、パラメータL(x,y,θ,r)、A
(θ,r)、S(θ,r)を乗除算を含む実数計算によ
り、求める必要があったが、有限ラドン変換では、それ
とは異なり、ほとんどが単純な整数の加算演算のみで投
影パターンが作成され、また、その逆変換によって元の
2次元パターンが完全に再構成できるという特徴をもっ
ている。
Reference 2 “F. Matus, J. Flusser,“ Image
Representation via a Finite Radon Transform '', IE
EE Transactions on Pattern Analysis and Machine In
telligence, vol.15, no.10, pp.996-1006, 1993]
In the pattern projection method described in the embodiment, the parameters L (x, y, θ, r) and A are determined based on the projection direction, the projection position, and the mutual geometrical positional relationship of the two-dimensional pattern.
Although it was necessary to obtain (θ, r) and S (θ, r) by real number calculation including multiplication and division, unlike the finite Radon transform, most of the projection patterns were formed only by simple integer addition operations. It has the characteristic that the original two-dimensional pattern can be completely reconstructed by the inverse transformation.

【0053】図8は、有限ラドン変換の投影の規則を説
明する図である。有限ラドン変換では、p×p画素(p
は素数)のパターン領域を対象として、p+1種類の投
影パターンが存在する。この種類を識別する番号を、以
下では、投影パターン番号と呼ぶ。図8では、一例とし
て、図8(a)、(b)、(c)、(d)、(e)及び
(f)がそれぞれ、投影パターン番号i=0、1、2、
p−2、p−1、pの場合の投影方法を示している。
FIG. 8 is a diagram for explaining the rules of projection of the finite Radon transform. In the finite Radon transform, p × p pixels (p
(Prime number) pattern areas, there are p + 1 types of projection patterns. The number for identifying this type is hereinafter referred to as a projection pattern number. In FIG. 8, as an example, FIGS. 8 (a), (b), (c), (d), (e), and (f) show projection pattern numbers i = 0, 1, 2,.
The projection method in the case of p-2, p-1, and p is shown.

【0054】投影パターン番号i=0(図8(a)参
照)に対しては、2次元パターンの下端ライン上の水平
位置rに対し、垂直方向に並んだ画素値の平均を計算し
て、これを投影データPR(r)とする。
For the projection pattern number i = 0 (see FIG. 8A), the average of the pixel values arranged in the vertical direction with respect to the horizontal position r on the lower end line of the two-dimensional pattern is calculated. This is defined as projection data PR (r).

【0055】投影パターン番号i=1(図8(b)参
照)に対しては、2次元パターンの下端ライン上の水乎
位置rに対し、右方向に+1、上方向に+1ずつシフト
した画素群の画素値の乎均を計算して、これを投影デー
タPR(r)とする。但し、画素が2次元パターンの右
端を超えた場合には、超えた分をパターン左端から右方
向にシフトした画素値を用いて計算する。
For a projection pattern number i = 1 (see FIG. 8B), a pixel shifted right by +1 and upward by +1 with respect to the horizontal position r on the lower end line of the two-dimensional pattern. The average of the pixel values of the group is calculated, and this is set as projection data PR (r). However, when the pixel exceeds the right end of the two-dimensional pattern, the excess is calculated using the pixel value shifted rightward from the left end of the pattern.

【0056】投影パターン番号i=2(図8(c)参
照)に対しては、2次元パターンの下端ライン上の水平
位置rに対し、右方向に+2、上方向に+1ずつシフト
した画素群の画素値の平均を計算して、これを投影デー
タPR(r)とする。但し、投影パターン番号i=1の
場合と同様に、画素が2次元パターンの右端を超えた場
合には、超えた分をパターン左端から右方向にシフトし
た画素値を用いて計算する。
For a projection pattern number i = 2 (see FIG. 8C), a pixel group shifted by +2 to the right and +1 to the upper direction with respect to the horizontal position r on the lower end line of the two-dimensional pattern Is calculated, and this is used as projection data PR (r). However, as in the case of the projection pattern number i = 1, when the pixel exceeds the right end of the two-dimensional pattern, the excess is calculated using the pixel value shifted rightward from the left end of the pattern.

【0057】以下同様に、投影パターン番号i=3、
4、…、p−1に対して、2次元パターンの下端ライン
上の水平位置rに対し、右方向に+i、上方向に+1ず
つシフトした画素群の画素値の平均を計算して、これを
投影データPR(r)とする(なお、投影パターン番号
i=p−2及びp−1については、図8(d)及び図8
(e)参照)。
Similarly, the projection pattern number i = 3,
With respect to 4,..., P−1, the average of the pixel values of the pixel group shifted by + i in the right direction and +1 in the upward direction with respect to the horizontal position r on the lower end line of the two-dimensional pattern is calculated. Is the projection data PR (r) (note that, for the projection pattern numbers i = p−2 and p−1, FIGS.
(E)).

【0058】投影パターン番号i=p(図8(f)参
照)に対しては、2次元パターンの左端ライン上の垂直
位置rに対し、水平方向に並んだ画素値の平均を計算し
て、これを投影データPR(r)とする。
For the projection pattern number i = p (see FIG. 8F), the average of the pixel values arranged in the horizontal direction is calculated with respect to the vertical position r on the left end line of the two-dimensional pattern. This is defined as projection data PR (r).

【0059】図8(g)は、各投影パターン番号i=
0、1、…、pに対する投影データPR(r)を下から
順番に上方向に並べたデータで、これが有限ラドン変換
による変換データ(投影パターンS703)となる。
FIG. 8 (g) shows that each projection pattern number i =
The projection data PR (r) for 0, 1,..., P are arranged in order from the bottom in the upward direction, and this is conversion data by the finite Radon transform (projection pattern S703).

【0060】有限ラドン変換部702が投影パターンS
703を出力すると、次に、縞方向検出部703は、こ
の投影パターンS703を入力して、各投影パターン番
号i毎に分散値V(i)を計算する。続いて、縞方向検
出部703は、分散値V(i)が所定の閾値以上となる
場合の投影パターン番号S706を計算し、候補角度記
憶部705に出力する。
The finite Radon transform unit 702 calculates the projection pattern S
After outputting 703, the stripe direction detection unit 703 inputs the projection pattern S703 and calculates a variance value V (i) for each projection pattern number i. Subsequently, the stripe direction detection unit 703 calculates a projection pattern number S706 when the variance value V (i) is equal to or larger than a predetermined threshold, and outputs the calculated projection pattern number S706 to the candidate angle storage unit 705.

【0061】侯補角度記憶部705は、各投影パターン
番号に対応して、予め、縞方向角度侯補と信頼度とから
なる侯補角度データを記憶しており、投影パターン番号
S706が入力されると、対応する侯補角度データS7
07を縞方向検出部703に対して出力する。
The candidate angle storage unit 705 stores candidate angle data including the stripe direction angle candidate and reliability in advance corresponding to each projection pattern number, and receives the projection pattern number S706. Then, the corresponding candidate angle data S7
07 is output to the stripe direction detection unit 703.

【0062】図9は、候補角度記憶部705に予め記億
される上記候補角度データの説明図である。
FIG. 9 is an explanatory diagram of the candidate angle data stored in the candidate angle storage unit 705 in advance.

【0063】図9において、符号901は有限ラドン変
換を行なう2次元パターンの領域を表わし、ハッチング
を付した複数の四角は、ある投影パターン番号iに対す
る投影データPR(r)に寄与する画素群である。縞方
向角度候補は、該画素群に沿った縞模様パターンを想定
した場合の縞の方向角度であり、その角度を求めるため
に、該画素群をお互いに結ぶ複数の直線の中から、隣接
する画素間の距離が小さいものを選択し、その直線の向
きを計算する。この第2の実施形態では、画素間の距離
が小さいものから順に3本の直線を選択して、その角度
を計算する。すなわち、縞方向角度候補として、図9に
図示した画素P、Q、Rをお互いに結ぶ直線に関し、直
線PQに対する角度θ1 、直線PRに対する角度θ2 、
直線QRに対する角度θ3 を適用する。また、上記信頼
度として、隣接画素間の距離の逆数、すなわち、角度候
補θ1 に対して線分PQの長さ情報(以下では、距離の
2乗を適用してえいる)の逆数(L1)、角度候補θ2
に対して線分PRの長さ情報の逆数(L2)、角度候補
θ3 に対して線分QRの長さ情報の逆数(L3)を適用
する。
In FIG. 9, reference numeral 901 denotes an area of a two-dimensional pattern for performing a finite Radon transform, and a plurality of hatched squares represent a group of pixels contributing to projection data PR (r) for a certain projection pattern number i. is there. The stripe direction angle candidate is a direction angle of a stripe when a stripe pattern along the pixel group is assumed, and in order to determine the angle, a plurality of straight lines connecting the pixel group are adjacent to each other. A pixel having a small distance between pixels is selected, and the direction of the straight line is calculated. In the second embodiment, three straight lines are selected in ascending order of the distance between pixels, and the angles are calculated. That is, regarding the straight line connecting the pixels P, Q, and R shown in FIG. 9 as the stripe direction angle candidates, the angle θ1 with respect to the straight line PQ, the angle θ2 with respect to the straight line PR,
The angle θ3 with respect to the straight line QR is applied. The reliability is the reciprocal of the distance between adjacent pixels, that is, the reciprocal (L1) of the length information of the line segment PQ (hereinafter, the square of the distance is applied to the angle candidate θ1). , Angle candidate θ2
And the inverse (L3) of the length information of the line segment QR is applied to the angle candidate θ3.

【0064】ここで、画素Pの座標は(0,0)で表さ
れ、画素Qの座標は(i,1)で表される。また、図9
における画素Qj の座標が(ji,j)で表されるの
で、画素Rの座標は(ji+i−p,j+1)で表され
る。なお、jは、p−1をiで割った整数部分である。
Here, the coordinates of the pixel P are represented by (0, 0), and the coordinates of the pixel Q are represented by (i, 1). FIG.
Are represented by (ji, j), the coordinates of the pixel R are represented by (ji + ip, j + 1). Note that j is an integer part obtained by dividing p-1 by i.

【0065】従って、上述した候補角度データ(角度候
補及び信頼度)は、投影パターン番号iに対応して、
(3) 式のように計算され、この値が予め候補角度記憶部
705に格納されている。
Therefore, the above-mentioned candidate angle data (angle candidate and reliability) is calculated according to the projection pattern number i.
This value is calculated as in equation (3), and this value is stored in the candidate angle storage unit 705 in advance.

【0066】 θ1 =atan(1/i) (i=1、2、…、p−1) =90° (i=0) =0° (i=p) θ2 =atan{(j+1)/(ji+i−p)} θ3 =atan{j/(ji−p)} L1=1/(i2 +1) L2=1/{(ji+i−p)2 +(j+1)2 } L3=1/{(ji−p)2 +j2 } …(3) 縞方向検出部703は、候補角度データS707を入力
すると、投影パターン番号S706(i=i1、i2、
…、in)の各々に対応する、分散値V(i)と縞方向
角度候補θ1 (i)、θ2 (i)、θ3 (i)、信頼度
L1(i)、L2(i)、L3(i)を基に、縞方向デ
ータS704(θ)を決定して出力する。上記縞方向デ
ータの決定の際は、分散値が大きく、信頼度が大きい縞
方向角度侯補を選択するならば任意好適な方法を用いて
良い。この第2の実施形態では、まず、入力された全て
の縞方向角度侯補を角度の近いもの同士を同一グループ
のものとみなしてグループ化し、さらに、同一グループ
に含まれる縞方向角度侯補について分散値と信頼度の積
和値を計算して、最も積和値の大きいグループの縞方向
角度候補の代表値を縞方向データS704として出力す
る。
Θ 1 = atan (1 / i) (i = 1, 2,..., P−1) = 90 ° (i = 0) = 0 ° (i = p) θ 2 = atan {(j + 1) / (ji + i) −p)} θ3 = atan {j / (ji-p)} L1 = 1 / (i 2 +1) L2 = 1 / {(ji + ip) 2 + (j + 1) 2 } L3 = 1 / {(ji- p) 2 + j 2 … (3) Upon inputting the candidate angle data S707, the stripe direction detection unit 703 receives the projection pattern number S706 (i = i1, i2,
, In), the variance value V (i) and the stripe direction angle candidates θ1 (i), θ2 (i), θ3 (i), and the reliability L1 (i), L2 (i), L3 ( Based on i), stripe direction data S704 (θ) is determined and output. When the stripe direction data is determined, any suitable method may be used as long as a stripe direction angle candidate having a large variance value and a high reliability is selected. In the second embodiment, first, all input stripe direction angle candidates are grouped by regarding those having similar angles as those belonging to the same group, and further, the stripe direction angle candidates included in the same group are grouped. The sum of the variance value and the reliability is calculated, and the representative value of the stripe direction angle candidate of the group having the largest sum of product values is output as the stripe direction data S704.

【0067】第1の実施形態では、縞模様の2次元パタ
ーンに対して投影を行なう場合、投影パターンの分散値
が大きくなる投影方向は縞の方向と1:1に対応してい
たが、この第2の実施形態の場合、図9に示したよう
に、一つの投影パターン番号に対し分散値が大きくなっ
ても縞の方向は一意には決定されない。そこで第2の実
施形態では、上述のように、投影パターン番号に応じて
縞方向角度侯補とその信頼度とを予め用意し、分散値の
大きい投影パターン番号群について総合的に判断するこ
とで、縞方向データの検出精度を高めている。
In the first embodiment, when projection is performed on a two-dimensional pattern of a stripe pattern, the projection direction in which the variance of the projection pattern is large corresponds to the stripe direction 1: 1. In the case of the second embodiment, as shown in FIG. 9, even if the variance value increases for one projection pattern number, the direction of the stripe is not uniquely determined. Therefore, in the second embodiment, as described above, the stripe direction angle candidates and their reliability are prepared in advance in accordance with the projection pattern numbers, and the projection pattern number group having a large variance is comprehensively determined. The detection accuracy of the fringe direction data is improved.

【0068】なお、縞方向検出部703は、上記積和値
のいずれも所定の閾値より小さい場合には、動きがない
ものとみなして、これを示すデータを縞方向データS7
04として出力する。例えば、図3(c)に示される
(t、y)パターンに対しては、明瞭な縞パターンが存
在しないので、縞方向検出部703での処理において十
分大きな積和値が得られないので、垂直方向の動きがな
いことを示す識別データが縞方向データS704として
出力されることになる。
If any of the above sums of products is smaller than a predetermined threshold value, the stripe direction detection unit 703 regards that there is no motion, and outputs data indicating this as the stripe direction data S7.
04 is output. For example, since a clear stripe pattern does not exist for the (t, y) pattern shown in FIG. 3C, a sufficiently large product-sum value cannot be obtained in the processing in the stripe direction detection unit 703. The identification data indicating that there is no movement in the vertical direction is output as the stripe direction data S704.

【0069】縞方向検出部703から縞方向データS7
04が出力されると、次に、動き量出力部704がこの
縞方向データS704を入力して記億する。さらに、動
き量出力部704は、この画像処理装置に入力された動
画像データS701を構成する、全ての(t,x)2次
元パターン及び(t,y)2次元パターンに対応する縞
方向データS704を入力し終えると、(x,y,t)
3次元空間上の動画像の動きを、例えば、動きベクトル
として表現し、動画像動きデータS705として出力す
る。
The fringe direction detecting unit 703 outputs fringe direction data S7
When 04 is output, the motion amount output unit 704 inputs and stores the stripe direction data S704. Further, the motion amount output unit 704 generates the stripe direction data corresponding to all the (t, x) two-dimensional patterns and the (t, y) two-dimensional patterns constituting the moving image data S701 input to the image processing apparatus. After inputting S704, (x, y, t)
The motion of the moving image in the three-dimensional space is expressed as, for example, a motion vector and output as moving image motion data S705.

【0070】(B−3)第2の実施形態の効果 以上説明したように、第2の実施形態では、(x,y,
t)3次元空間上で表わされる動画像データを(t,
x)平面及び(t,y)平面上でスライスしたのち、有
限ラドン変換を行ない、その出力である投影パターンの
分散値が所定値以上の投影パターン番号を基に、動画像
の動き量を検出する。上記スライスされた(t,x)平
面及び(t,y)平面上の2次元パターンは、動画像の
動きが変形や回転を含まない平行移動で近似できる場合
には一般に縞状パターンになり易いので、上記分散値が
大きくなる投影パターン番号に対応する投影方向は縞状
パターンの模様の方向、すなわち動画像の動きに対応し
た方向となるので、動画像の動きを正しく検出すること
ができる。しかも、動きの検出は、(t,x)平面及び
(t,y)平面上で一括して検出できるので、動画像の
動きを大局的に把握できる。従って、ブロック単位にパ
ターンマッチングを行って動きを検出した従来の方法の
課題を解決し、高精度かつ大局的に動画像の動きを検出
することができる。
(B-3) Effect of Second Embodiment As described above, in the second embodiment, (x, y,
t) Moving image data represented on a three-dimensional space is represented by (t,
After slicing on the x) plane and the (t, y) plane, finite Radon transform is performed, and the motion amount of the moving image is detected based on the projection pattern number whose output variance is equal to or greater than a predetermined value. I do. The sliced two-dimensional pattern on the (t, x) plane and the (t, y) plane generally tends to be a striped pattern when the motion of a moving image can be approximated by a parallel movement that does not include deformation or rotation. Therefore, the projection direction corresponding to the projection pattern number at which the variance value increases becomes the direction of the pattern of the striped pattern, that is, the direction corresponding to the motion of the moving image, so that the motion of the moving image can be correctly detected. In addition, since the motion can be detected collectively on the (t, x) plane and the (t, y) plane, the motion of the moving image can be grasped globally. Therefore, it is possible to solve the problem of the conventional method in which motion is detected by performing pattern matching in block units, and to detect motion of a moving image with high accuracy and globally.

【0071】しかも、この第2の実施形態では、第1の
実施形態と同様の効果に加え、投影パターン作成のほと
んどが加算演算のみで実現できるので、演算量を抑えら
れるという効果もある。また、予め有限ラドン変換のデ
ータ形式で表現された動画像データに対しては、有限ラ
ドン逆変換により動画像を再構成しないままの状態で動
画像の動きを検出できるという効果もある。
Further, in the second embodiment, in addition to the same effects as those of the first embodiment, most of the projection patterns can be formed only by the addition operation, so that the operation amount can be reduced. In addition, for moving image data previously expressed in the data format of the finite Radon transform, there is also an effect that the motion of the moving image can be detected without reconstructing the moving image by the finite Radon inverse transform.

【0072】(C)第3の実施形態 次に、本発明による動画像処理装置の第3の実施形態を
図面を参照しながら詳述する。
(C) Third Embodiment Next, a third embodiment of the moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0073】(C−1)第3の実施形態の構成 図10は、この第3の実施形態による動画像処理装置の
構成を示すブロック図である。
(C-1) Configuration of the Third Embodiment FIG. 10 is a block diagram showing the configuration of a moving image processing apparatus according to the third embodiment.

【0074】図10において、第3の実施形態の動画像
処理装置は、時空間軸変換部1001、有限ラドン変換
部1002、低域遮断フィルタ部1006、縞方向検出
部1003、候補角度記憶部1005及び動き量出力部
1004から構成されている。ここで、時空間軸変換部
1001、有限ラドン変換部1002、縞方向検出部1
003、候補角度記憶部1005及び動き量出力部10
04は、上述した第2の実施形態のものと同様であり、
その機能説明は省略する。
In FIG. 10, a moving image processing apparatus according to the third embodiment includes a spatio-temporal axis conversion unit 1001, a finite Radon conversion unit 1002, a low-frequency cutoff filter unit 1006, a stripe direction detection unit 1003, and a candidate angle storage unit 1005. And a motion amount output unit 1004. Here, the spatio-temporal axis conversion unit 1001, the finite Radon conversion unit 1002, the stripe direction detection unit 1
003, candidate angle storage unit 1005 and motion amount output unit 10
04 is the same as that of the second embodiment described above,
The description of the function is omitted.

【0075】低域遮断フィルタ部1006は、有限ラド
ン変換部1002からの投影パターンS1003を入力
して、この投影パターンS1003の低周波成分を遮断
して得た投影フィルタパターンS1013を縞方向検出
部1003に出力するものである。
The low-frequency cutoff filter unit 1006 receives the projection pattern S1003 from the finite Radon transform unit 1002, and cuts off the low-frequency component of the projection pattern S1003 to obtain a projection filter pattern S1013 obtained by the stripe direction detection unit 1003. Is output to

【0076】なお、縞方向検出部1003は、基本的な
機能は第2の実施形態と同様であるが、入力されるデー
タが上述のように第2の実施形態と異なっている。その
ため、縞方向検出部1003は、投影フィルタパターン
S1013を入力して、各投影フィルタパターン毎の分
散を計算し、該分散値が所定値以上となる投影パターン
番号S1006を候補角度記憶部1005に出力すると
共に、候補角度記憶部1005からの候補角度データS
1007を入力して縞方向データS1004を計算して
出力するものとなっている。
The fringe direction detecting unit 1003 has the same basic functions as those of the second embodiment, but the input data is different from that of the second embodiment as described above. Therefore, the stripe direction detection unit 1003 receives the projection filter pattern S1013, calculates the variance of each projection filter pattern, and outputs a projection pattern number S1006 having a variance value equal to or greater than a predetermined value to the candidate angle storage unit 1005. And the candidate angle data S from the candidate angle storage unit 1005
1007 is input and the fringe direction data S1004 is calculated and output.

【0077】(C−2)第3の実施形態の動作 次に、以上のような各部1001〜1006からなる第
3の実施形態の動画像処理装置の動作を説明する。
(C-2) Operation of Third Embodiment Next, the operation of the moving image processing apparatus according to the third embodiment, which includes the units 1001 to 1006 as described above, will be described.

【0078】まず、入力された動画像データS1001
に対して、時空間軸変換部1001及び有限ラドン変換
部1002が順次行なう処理は、第2の実施形態と同様
であるのでその説明は省略する。
First, the input moving image data S1001
On the other hand, the processing sequentially performed by the spatio-temporal axis conversion unit 1001 and the finite Radon conversion unit 1002 is the same as that of the second embodiment, and a description thereof will be omitted.

【0079】有限ラドン変換部1002から投影パター
ンS1003が出力されると、低域遮断フィルタ部10
03は、この投影パターンS1003の低周波成分を除
いたパターンを作成し、投影フィルタパターンS101
3として縞方向検出部1003に出力する。
When the projection pattern S1003 is output from the finite Radon conversion unit 1002,
03 creates a pattern obtained by removing the low-frequency component of the projection pattern S1003, and generates a projection filter pattern S101.
3 is output to the stripe direction detection unit 1003.

【0080】図11は、低域遮断フィルタ部1003の
動作の説明図である。図11において、符号1101は
投影パターンS1003の一つ(PR(r))を表わ
し、符号1102は、その投影パターン1101に対し
て低域通過のフィルタリングをかけた後のパターン(L
PR(r))を表わし、符号1103は、投影パターン
1101から低域通過パターン1102を減算して得た
低域遮断パターン(HPR(r))を表わしている。
FIG. 11 is an explanatory diagram of the operation of the low-frequency cutoff filter section 1003. In FIG. 11, reference numeral 1101 denotes one of the projection patterns S1003 (PR (r)), and reference numeral 1102 denotes a pattern (L (L)) obtained by subjecting the projection pattern 1101 to low-pass filtering.
PR (r)), and reference numeral 1103 denotes a low-frequency cutoff pattern (HPR (r)) obtained by subtracting the low-pass pattern 1102 from the projection pattern 1101.

【0081】低域遮断フィルタ部1003は、投影パタ
ーン1101が入力されると、まず、従来公知の1次元
コンボリューションフィルタにより低域成分のみを取り
出したパターン1102を計算する。上記コンボリュー
ションフィルタとしては、例えば、(4) 式において、a
=1/3、b=1/3、c=1/3として計算した値を
用いれば良い。さらに、低域遮断フィルタ部1003
は、(5) 式を計算することによって、投影パターン11
01から、低域成分を遮断した投影フィルタパターン1
103を得て縞方向検出部1003に出力する。
When the projection pattern 1101 is input, the low-frequency cutoff filter unit 1003 first calculates a pattern 1102 from which only a low-frequency component is extracted by a conventionally known one-dimensional convolution filter. As the convolution filter, for example, in Expression (4), a
= 1/3, b = 1/3, and c = 1/3 may be used. Further, a low-pass cutoff filter unit 1003
By calculating the expression (5), the projection pattern 11
01, a projection filter pattern 1 in which low-frequency components are cut off
103 is obtained and output to the stripe direction detection unit 1003.

【0082】 LPR(r) =a・PR(r−1)+b・PR(r)+c・PR(r+1) …(4) HPR(r)=PR(r)−LPR(r) …(5) また、低域遮断フィルタ部1003における他の計算方
法として、LPR(r)を用いずに、直接、(6) 式によ
り投影フィルタパターン1103を求めるようにしても
良い。ここで、(6) 式におけるフィルタの係数d、e、
fは、低域成分を遮断する性質のものであれば、従来公
知のものを用いることができ、例えば、d=−1/2、
e=1、f=−1/2を適用することができる。
LPR (r) = a · PR (r−1) + b · PR (r) + c · PR (r + 1) (4) HPR (r) = PR (r) −LPR (r) (5) Further, as another calculation method in the low-frequency cutoff filter unit 1003, the projection filter pattern 1103 may be directly obtained by Expression (6) without using LPR (r). Here, the filter coefficients d, e,
As f, any conventionally known one can be used as long as it has a property of blocking low-frequency components. For example, d = − /,
e = 1 and f = − / can be applied.

【0083】 HPR(r) =d・PR(r−1)+e・PR(r)+f・PR(r+1) …(6) 上記のいずれの方法を用いても、低域遮断フィルタ部1
006により、投影パターンS1003から低域成分を
遮断したパターンが投影フィルタパターンS1013と
して得られる。
HPR (r) = d · PR (r−1) + e · PR (r) + f · PR (r + 1) (6) Even when any of the above methods is used, the low-frequency cutoff filter unit 1
By 006, a pattern in which low-frequency components are blocked from the projection pattern S1003 is obtained as a projection filter pattern S1013.

【0084】低域遮断フィルタ部1006が投影フィル
タパターンS1013を出力すると、次に、縞方向検出
部1003は該投影フィルタパターンS1013を入力
して、各投影パターン番号i毎に分散値V(i)を計算
する。続いて、縞方向検出部1003は、分散値V
(i)が所定の閾値以上となる場合の投影パターン番号
S1006を計算し、侯補角度記憶部1005に出力す
る。候補角度記憶部1005は、第2の実施形態の候補
角度記憶部1005と同様の動作を行なうブロックで、
投影パターン番号に対応して、予め、縞方向角度候補と
信頼度とからなる候補角度データを記憶しており、投影
パターン番号S1006が入力されると、対応する侯補
角度データS1007を縞方向検出部1003に対して
出力する。縞方向検出部1003は、侯補角度データS
1007を入力すると、第2の実施形態と同様にして、
縞方向データS1004を決定して動き量出力部100
4に出力する。
When the low-frequency cutoff filter unit 1006 outputs the projection filter pattern S1013, the fringe direction detection unit 1003 inputs the projection filter pattern S1013 and outputs the variance value V (i) for each projection pattern number i. Is calculated. Subsequently, the fringe direction detection unit 1003 calculates the variance value V
The projection pattern number S1006 when (i) is equal to or greater than a predetermined threshold is calculated and output to the candidate angle storage unit 1005. The candidate angle storage unit 1005 is a block that performs the same operation as the candidate angle storage unit 1005 of the second embodiment.
Corresponding to the projection pattern number, candidate angle data including a stripe direction angle candidate and reliability are stored in advance, and when the projection pattern number S1006 is input, the corresponding candidate angle data S1007 is detected in the stripe direction. Output to the unit 1003. The stripe direction detection unit 1003 calculates candidate angle data S
When 1007 is input, similarly to the second embodiment,
The stripe direction data S1004 is determined and the motion amount output unit 100
4 is output.

【0085】以上のように、第2の実施形態では、縞方
向検出部603が有限ラドン変換による投影パターンの
分散値に基づいて縞方向を決定していたのに対して、こ
の第3の実施形態の縞方向検出部1003では、有限ラ
ドン変換による投影パターンそのものではなく、その低
域成分を遮断したパターンの分散値に基づいて縞方向を
決定している。
As described above, in the second embodiment, the fringe direction detecting unit 603 determines the fringe direction based on the variance of the projection pattern by the finite Radon transform. The fringe direction detection unit 1003 determines the fringe direction based not on the projection pattern itself by the finite Radon transform but on the variance of the pattern in which the low-frequency component is cut off.

【0086】上述した文献2によれば、2次元パターン
上での周波数フィルタを、2次元パターンの有限ラドン
変換後の投影パターンに対する周波数フィルタで代用で
きることが数学的に証明されている。従って、この第3
の実施形態のように、低域成分を遮断した投影パターン
の分散値に基づいて縞方向を決定するということは、低
域成分を遮断した2次元縞パターン、すなわち、縞の輪
郭のみを抽出したパターンの投影パターンの分散値に基
づいて縞方向を決定することと等価である。
According to Reference 2 described above, it has been mathematically proved that a frequency filter on a two-dimensional pattern can be replaced with a frequency filter for a projection pattern after the finite Radon transform of the two-dimensional pattern. Therefore, this third
Determining the fringe direction based on the variance value of the projection pattern in which the low-frequency component is cut off as in the embodiment of Example 2 means that only the two-dimensional stripe pattern in which the low-frequency component is cut off, that is, only the outline of the stripe is extracted This is equivalent to determining the stripe direction based on the variance of the projection pattern of the pattern.

【0087】上記縞の輪郭パターンは、もとの縞パター
ンに比べ縞の方向を顕著に表わすものであるから、第2
の実施形態に比べて、縞の検出精度を高めることが可能
になっている。しかも、この第3の実施形態と同様の効
果を上げるために、元の縞パターンに対して低域遮断フ
ィルタを通過さけた後に有限ラドン変換を行なってその
投影パターンの分散値に基づいて縞方向を決定する方法
に比べても、効果が大きい。なぜならば、元の縞パター
ンに対して低域遮断フィルタを通過さける場合には、2
次元のフィルタリングを施す必要があるが、この第3の
実施形態では投影パターンに対する1次元フィルタのみ
で同じ効果が得られるので、処理量を少なく抑えること
ができるからである。
Since the outline pattern of the stripes represents the direction of the stripes more remarkably than the original stripe pattern, the second
Compared with the embodiment, it is possible to enhance the detection accuracy of the fringe. Moreover, in order to obtain the same effect as in the third embodiment, the original fringe pattern is subjected to a finite Radon transform after passing through a low-pass cutoff filter, and the fringe direction is determined based on the variance of the projected pattern. Is more effective than the method for determining This is because when the original fringe pattern is passed through the low-pass filter, 2
Although it is necessary to perform dimensional filtering, in the third embodiment, the same effect can be obtained only with a one-dimensional filter for the projection pattern, so that the processing amount can be reduced.

【0088】縞方向検出部1003から縞方向データS
1004が出力されると、次に動き量出力部1004が
該縞方向データS1004を入力して記憶し、そして、
動き量出力部1004は、この動画像処理装置に入力さ
れた動画像データS1001を構成する、全ての(t,
x)2次元パターン及び(t,y)2次元パターンに対
応する縞方向データS1004を入力し終えると、
(x,y,t)3次元空間上の動画像の動きを、例えば
動きベクトルとして表現し、動画像動きデータS100
5として出力する。
The fringe direction data S
When 1004 is output, the motion amount output unit 1004 inputs and stores the stripe direction data S1004, and
The motion amount output unit 1004 outputs all (t, s) constituting the moving image data S1001 input to the moving image processing apparatus.
x) When the input of the stripe direction data S1004 corresponding to the two-dimensional pattern and the (t, y) two-dimensional pattern is completed,
The motion of the moving image in the (x, y, t) three-dimensional space is expressed, for example, as a motion vector, and the moving image motion data S100
Output as 5.

【0089】(C−3)第3の実施形態の効果 上記第3の実施形態によれば、詳述は省略するが、上述
した第2の実施形態と同様な効果を奏することができ
る。
(C-3) Effects of the Third Embodiment According to the third embodiment, although not described in detail, the same effects as in the above-described second embodiment can be obtained.

【0090】これに加えて、この第3の実施形態によれ
ば、投影パターンに対して単純な一次元フィルタを用い
て低域遮断パターンを求め、これに基づいて縞状パター
ンの方向を検出しているので、縞状パターンの輪郭部分
のみから縞の方向を検出するのと同等の効果が得られ
る。すなわち、動画像の動きをより高精度に検出するこ
とができる。
In addition to this, according to the third embodiment, a low-frequency cutoff pattern is obtained from a projection pattern using a simple one-dimensional filter, and the direction of the striped pattern is detected based on the low-frequency cutoff pattern. Therefore, an effect equivalent to detecting the direction of the stripe only from the contour portion of the stripe pattern can be obtained. That is, the motion of the moving image can be detected with higher accuracy.

【0091】(D)第4の実施形態 次に、本発明による動画像処理装置の第4の実施形態を
図面を参照しながら詳述する。
(D) Fourth Embodiment Next, a fourth embodiment of the moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0092】(D−1)第4の実施形態の構成 図12は、この第4の実施形態による動画像処理装置の
構成を示すブロック図ある。図12において、第4の実
施形態の動画像処理装置は、時空間軸変換部1201、
投影パターン作成部1202、縞方向検出部1203、
動き量出力部1204及び低域遮断フィルタ部1205
から構成されている。ここで、時空間軸変換部120
1、投影パターン作成部1202、縞方向検出部120
3及び動き量出力部1204はそれぞれ、第1の実施形
態における対応する要素と同様なものであり、以下で
は、その詳細説明は省略する。
(D-1) Configuration of Fourth Embodiment FIG. 12 is a block diagram showing the configuration of a moving image processing apparatus according to the fourth embodiment. 12, a moving image processing apparatus according to the fourth embodiment includes a spatio-temporal axis conversion unit 1201,
A projection pattern creation unit 1202, a stripe direction detection unit 1203,
Motion amount output unit 1204 and low-frequency cutoff filter unit 1205
It is composed of Here, the spatiotemporal axis conversion unit 120
1. Projection pattern creation unit 1202, stripe direction detection unit 120
3 and the motion amount output unit 1204 are the same as the corresponding elements in the first embodiment, and a detailed description thereof will be omitted below.

【0093】第1の実施形態の構成に加えて新たに設け
られた低域遮断フィルタ部1205は、時空間軸変換部
1201からの2次元パターンS1202を入力して、
この2次元パターンS1202の低周波成分を遮断して
得た2次元フィルタパターンS1212を投影パターン
作成部1202に出力するものである。従って、この第
4の実施形態の投影パターン作成部1202は、第1の
実施形態のものに比べて、その機能は同様であるが入力
は異なっている。
The newly provided low-frequency cutoff filter unit 1205 in addition to the configuration of the first embodiment receives the two-dimensional pattern S1202 from the spatiotemporal axis conversion unit 1201 and
The two-dimensional filter pattern S1212 obtained by blocking the low-frequency component of the two-dimensional pattern S1202 is output to the projection pattern creation unit 1202. Therefore, the projection pattern creation unit 1202 of the fourth embodiment has the same function as that of the first embodiment, but has a different input.

【0094】ここで、低域遮断フィルタ部1205を追
加しているのは、第2の実施形態の構成に対して、第3
の実施形態で低域遮断フィルタ部1006を設けている
のと同様に、輪郭抽出した後に縞方向を検出させること
により縞方向の検出精度を向上させようとしたものであ
る。
Here, the low-pass cutoff filter section 1205 is added to the configuration of the second embodiment in comparison with the third embodiment.
As in the case of providing the low-frequency cutoff filter unit 1006 in the embodiment, the stripe direction is detected after the contour is extracted, thereby improving the detection accuracy of the stripe direction.

【0095】(D−2)第4の実施形態の動作 次に、以上のような各部1201〜1205からなる第
4の実施形態の動画像処理装置の動作を説明する。
(D-2) Operation of the Fourth Embodiment Next, the operation of the moving image processing apparatus according to the fourth embodiment, which includes the above-described units 1201 to 1205, will be described.

【0096】動画像データS1201が入力されると、
時空間軸変換部1201が、所定の時間分の動画像デー
タを記憶した後、(x,y,t)3次元空間上で定義さ
れる画素データを、各yの値毎の(t,x)2次元パタ
ーン及び各xの値毎の(t,y)2次元パターンを順次
作成して、この2次元パターンS1202を低域遮断フ
ィルタ部1205に対して出力する。
When the moving image data S1201 is input,
After the spatio-temporal axis conversion unit 1201 stores moving image data for a predetermined time, the pixel data defined on the (x, y, t) three-dimensional space is converted into (t, x) for each y value. 2) A two-dimensional pattern and a (t, y) two-dimensional pattern for each value of x are sequentially created, and this two-dimensional pattern S1202 is output to the low-frequency cutoff filter unit 1205.

【0097】このような2次元パターンS1202が低
域遮断フィルタ部1205に入力されると、低域遮断フ
ィルタ部1205は2次元パターンS1202に対して
その低周波成分を除いたパターンを作成し、2次元フィ
ルタパターンS1212として投影パターン作成部12
02に出力する。
When such a two-dimensional pattern S1202 is input to the low-frequency cutoff filter unit 1205, the low-frequency cutoff filter unit 1205 creates a pattern from the two-dimensional pattern S1202 by removing its low-frequency components. The projection pattern creation unit 12 as the two-dimensional filter pattern S1212
02 is output.

【0098】低域遮断フィルタ部1205としては、従
来公知の方法のものを適用して良く、例えば、(7) 式に
示すフィルタリングを行なう2次元コンポリューション
フィルタを適用できる。
As the low-frequency cutoff filter section 1205, a conventionally known method may be applied, and for example, a two-dimensional composition filter for performing the filtering shown in Expression (7) can be applied.

【0099】 HP(x,y)= a・P(x−1,y−1)+b・P(x,y−1) +c・P(x+1,y−1)+d・P(x−1,y) +e・P(x,y)+f・P(x+1,y) +g・P(x−1,y+1)+h・P(x,y+1) +i・P(x+1,y+1) …(7) ここで、P(x,y)は低域遮断フィルタ部1205に
入力された2次元パターンS1202上の画素(x,
y)の画素値、HP(x,y)は2次元フィルタパター
ンS1212上の画素(x,y)の画素値、a、b、
c、d、e、f、g、h、iはフィルタの特性を決める
フィルタ係数(例えば、それぞれ−1、−1、−1、−
1、8、−1、−1、−1、−1)である。これによ
り、2次元パターンS1202が縞状のパターンである
場合には、この縞の輸郭のみが抽出されたパターンが2
次元フィルタパターンS1212として得られる。
HP (x, y) = a · P (x−1, y−1) + b · P (x, y−1) + c · P (x + 1, y−1) + d · P (x−1, y) + eP (x, y) + fP (x + 1, y) + gP (x-1, y + 1) + hP (x, y + 1) + iP (x + 1, y + 1) (7) , P (x, y) are pixels (x, y) on the two-dimensional pattern S1202 input to the low-pass cutoff filter unit 1205.
y), the pixel value HP (x, y) is the pixel value of the pixel (x, y) on the two-dimensional filter pattern S1212, a, b,
c, d, e, f, g, h, and i are filter coefficients (for example, -1, -1, -1, and-, respectively) that determine the characteristics of the filter.
1, 8, -1, -1, -1, -1). Accordingly, when the two-dimensional pattern S1202 is a striped pattern, the pattern obtained by extracting only the contour of this strip is 2
It is obtained as a dimensional filter pattern S1212.

【0100】この第4の実施形態の場合には、以下の処
理において、2次元フィルタパターンS1212に対す
る投影パターンの分散値を求めているので、2次元パタ
ーンS1202が縞状パターンの場合にはその輪郭パタ
ーンに対する分散値を求めることになり、縞方向の分散
値とその他の方向の分散値との差がより大きくなる。従
って、縞方向データS1204の検出精度が向上する。
In the case of the fourth embodiment, in the following processing, the variance of the projection pattern with respect to the two-dimensional filter pattern S1212 is obtained. Since the variance value for the pattern is obtained, the difference between the variance value in the fringe direction and the variance value in the other directions becomes larger. Therefore, the detection accuracy of the fringe direction data S1204 is improved.

【0101】投影パターン作成部1202以降の動作
は、上述した第1の実施形態と同様であるので、その説
明は省略する。
The operation after the projection pattern creation unit 1202 is the same as that of the first embodiment, and the description is omitted.

【0102】(D−3)第4の実施形態の効果 上記第4の実施形態によれば、詳述は省略するが、上述
した第1の実施形態と同様な効果を奏することができ
る。
(D-3) Effects of the Fourth Embodiment According to the fourth embodiment, the same effects as those of the above-described first embodiment can be obtained, although not described in detail.

【0103】これに加えて、この第4の実施形態によれ
ば、縞状パターンの投影を行なう前に、2次元パターン
から低周波成分を除去しているため、縞方向に対する分
散値とその他の方向に対する分散値との差が大きくな
り、従って動きの検出精度が向上するという効果が得ら
れる。
In addition to this, according to the fourth embodiment, since low-frequency components are removed from the two-dimensional pattern before the stripe pattern is projected, the variance in the stripe direction and the other The difference between the variance value in the direction and the variance value in the direction is increased, so that the effect of improving the accuracy of motion detection is obtained.

【0104】(E)第5の実施形態 次に、本発明による動画像処理装置の第5の実施形態を
図面を参照しながら詳述する。
(E) Fifth Embodiment Next, a fifth embodiment of the moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0105】なお、上述した第1及び第4の実施形態は
有効なものであるが、図3(g)に示すように、入力動
画像データが斜め移動を行なっており、しかも、その移
動速度が小さい場合には、時空間軸の変換を行なっても
その変換後のデータにおける縞状パターンはさほど明確
ではなく、このように移動方向によっては他の移動方向
に比べて検出精度が低下する。
Although the above-described first and fourth embodiments are effective, as shown in FIG. 3 (g), the input moving image data moves diagonally, and the moving speed Is small, even if the spatio-temporal axis is converted, the striped pattern in the data after the conversion is not so clear, and thus the detection accuracy is reduced depending on the moving direction as compared with other moving directions.

【0106】この第5の実施形態から後述する第12の
実施形態までは、このような点に鑑み、入力動画像デー
タの移動方向がどんな場合であっても、明確な縞状パタ
ーンを呈する場合を作り出し、その明確な縞状パターン
に基づいて、動き量を検出するものである。
From the fifth embodiment to the twelfth embodiment which will be described later, in consideration of such a point, a case where a clear stripe pattern is exhibited regardless of the moving direction of the input moving image data. And detects the amount of motion based on the clear striped pattern.

【0107】(E−1)第5の実施形態の構成 図13は、この第5の実施形態による動画像処理装置の
構成を示すブロック図である。図13において、第5の
実施形態の動画像処理装置は、幾何変換部1301、投
影分散計算部1302及び動き検出部1303から構成
されている。
(E-1) Configuration of Fifth Embodiment FIG. 13 is a block diagram showing the configuration of a moving image processing apparatus according to the fifth embodiment. In FIG. 13, the moving image processing apparatus according to the fifth embodiment includes a geometric conversion unit 1301, a projection variance calculation unit 1302, and a motion detection unit 1303.

【0108】幾何変換部1301は、装置外部より動画
像データS1301(A(X,Y,T)で図示)を入力
し、動き検出部1303より制御パラメータS104
(θで図示)を入力し、幾何変換データS1302(C
(P,T,Q)で図示)を形成して投影分散計算部13
02に出力するものである。幾何変換データS1302
は、制御パラメータS104の値によっては縞状パター
ンを含む。
The geometric conversion unit 1301 receives moving image data S1301 (shown as A (X, Y, T)) from outside the apparatus, and receives a control parameter S104 from the motion detection unit 1303.
(Illustrated by θ) and input the geometric transformation data S1302 (C
(Illustrated by (P, T, Q)) to form the projection variance calculation unit 13
02 is output. Geometric transformation data S1302
Includes a striped pattern depending on the value of the control parameter S104.

【0109】投影分散計算部1302は、幾何変換部1
301より幾何変換データS1302を入力し、動き検
出部1303より制御パラメータS1305(φで図
示)を入力し、幾何変換データS1302を制御パラメ
ータS1305が規定する方向に投影した投影パターン
の投影分散データS1303(PVで図示)を形成して
動き検出部1303に出力するものである。
The projection variance calculation unit 1302 includes the geometric transformation unit 1
The geometric transformation data S1302 is input from 301, the control parameter S1305 (illustrated by φ) is input from the motion detection unit 1303, and the projection distribution data S1303 of the projection pattern obtained by projecting the geometric transformation data S1302 in the direction defined by the control parameter S1305 ( (Illustrated by PV) and output to the motion detection unit 1303.

【0110】動き検出部1303は、幾何変換部130
1及び投影分散計算部1302にそれぞれ制御パラメー
タS1304及び制御パラメータS1305を出力し、
投影分散計算部1302より投影分散データS1303
を入力し、最大の投影分散データS1303が生じた制
御パラメータS1304及び制御パラメータS1305
の値に基づいて、動き量S1306((V,α)で図
示)を形成して装置外部に出力するものである。
The motion detecting section 1303
1 and a control parameter S1305 to the projection variance calculation unit 1302, respectively.
Projection variance data S1303 from the projection variance calculation unit 1302
And the control parameters S1304 and S1305 at which the maximum projection dispersion data S1303 is generated.
The motion amount S1306 (illustrated by (V, α)) is formed based on the value of, and is output to the outside of the apparatus.

【0111】ここで、動画像データA(X,Y,T)と
は、2次元空間を示す2つの座標軸X、Yと、時刻を示
す座標軸Tとから構成される3次元空間上で表現される
デジタル画像データであり、その大きさはp×p×pと
する。この動画像データA(X,Y,T)は、例えば、
ビデオカメラなどの撮像デバイスで撮影されたビデオデ
ータをアナログ/デジタル変換した後、p×p×pの大
きさの領域(以下、キューブと呼ぶ)に分割することに
よって作成される。
Here, the moving image data A (X, Y, T) is expressed on a three-dimensional space composed of two coordinate axes X and Y indicating a two-dimensional space and a coordinate axis T indicating time. Digital image data having a size of p × p × p. This moving image data A (X, Y, T) is, for example,
It is created by performing analog / digital conversion of video data captured by an imaging device such as a video camera, and then dividing the video data into an area having a size of p × p × p (hereinafter, referred to as a cube).

【0112】また、動き量(V,α)は、上記キューブ
に対応する動きを表すデータであり、動きの大きさV
(単位は画素/フレーム[pixel/frame] )と動きの方向
α(単位はラジアン[rad] )とからなる。
The motion amount (V, α) is data representing the motion corresponding to the cube, and the motion magnitude V
(The unit is pixels / frame) and the direction of movement α (the unit is radians [rad]).

【0113】幾何変換データC(P,T,Q)は、3つ
の座標軸P、T、Qで構成される3次元空間上のp×p
×pの大きさを持つデータであり、このうち座標軸Tは
動画像データA(X,Y,T)が定義される座標軸Tと
同一のものである。
The geometric transformation data C (P, T, Q) is represented by p × p on a three-dimensional space composed of three coordinate axes P, T, and Q.
Xp, of which the coordinate axis T is the same as the coordinate axis T on which the moving image data A (X, Y, T) is defined.

【0114】制御パラメータS1304(θ)及び制御
パラメータS1305(φ)は、動き量(V,α)が決
定される過程における動き量の候補値に対応付けられる
パラメータである。別の観点から言えば、制御パラメー
タS1304(θ)は、入力動画像データA(X,Y,
T)の(X,Y)平面に対する回転量を規定するもので
あり、制御パラメータS1305(φ)は投影分散計算
部102での投影方向を規定するものである。
The control parameter S1304 (θ) and the control parameter S1305 (φ) are parameters associated with candidate values of the motion amount in the process of determining the motion amount (V, α). From another point of view, the control parameter S1304 (θ) is the input moving image data A (X, Y,
T) defines the amount of rotation with respect to the (X, Y) plane, and the control parameter S1305 (φ) defines the projection direction in the projection dispersion calculation unit 102.

【0115】(E−2)第5の実施形態の動作 次に、以上のような各部1301〜1303からなる第
5の実施形態の動画像処理装置の動作を説明する。
(E-2) Operation of the Fifth Embodiment Next, the operation of the moving picture processing apparatus of the fifth embodiment composed of the units 1301 to 1303 as described above will be described.

【0116】外部からの動作開始命令によりこの装置は
動作を開始する。このときまず、動き検出部1303
は、2つの制御パラメータθ及びφ([rad] )に初期値
に設定して、このうち制御パラメータθを幾何変換部1
301に、制御パラメータφを投影分散計算部1302
に、それぞれ出力する。例えば、初期値としては、θ=
φ=−π/2[rad] である。
This device starts operation in response to an operation start command from outside. At this time, first, the motion detection unit 1303
Sets two control parameters θ and φ ([rad]) to initial values, and sets the control parameter θ to the geometric transformation unit 1
In 301, the control parameter φ is assigned to the projection dispersion calculation unit 1302.
Respectively. For example, as an initial value, θ =
φ = −π / 2 [rad].

【0117】次に、幾何変換部1301は、動き検出部
1303より制御パラメータθを入力して、これに基づ
き、外部から入力された動画像データA(X,Y,T)
を変換して幾何変換データC(P,T,Q)を作成し、
投影分散計算部1302に出力する。
Next, the geometric transformation unit 1301 receives the control parameter θ from the motion detection unit 1303 and, based on this, the moving image data A (X, Y, T) inputted from outside.
To generate geometric transformation data C (P, T, Q),
Output to the projection variance calculation unit 1302.

【0118】図14は、幾何変換部1301によるデー
タA(X,Y,T)をデータC(P,T,Q)に変換す
る動作を説明する図である。
FIG. 14 is a diagram for explaining the operation of converting data A (X, Y, T) into data C (P, T, Q) by the geometric conversion unit 1301.

【0119】幾何変換部1301は、動画像データA
(X,Y,T)を入力すると、まず、各時刻T毎のフレ
ームデータを角度−θだけ回転させたフレームデータB
(P,Q,T)を作成する。ここで、P、Qは回転後の
フレームデータを構成する座標軸を表す。次に、動画像
データB(P,Q,T)の各Q毎に、座標軸Pと座標軸
Tとから構成される2次元平面上のパターンを切り出
し、これを幾何変換データC(P,T,Q)として出力
する。
The geometric conversion unit 1301 stores the moving image data A
When (X, Y, T) is input, first, the frame data B obtained by rotating the frame data at each time T by an angle-?
(P, Q, T) is created. Here, P and Q represent coordinate axes constituting the frame data after rotation. Next, a pattern on a two-dimensional plane composed of a coordinate axis P and a coordinate axis T is cut out for each Q of the moving image data B (P, Q, T), and this is geometrically transformed data C (P, T, T). Q).

【0120】図15は幾何変換部1301における、動
画像データA(X,Y,T)から動画像データB(P,
Q,T)への回転の方法を説明する図である。
FIG. 15 shows a case where the moving image data A (X, Y, T) and the moving image data B (P,
It is a figure explaining the method of rotation to (Q, T).

【0121】与えられた制御パラメータθが、|θ|≦
π/4である場合(図15(a))には、(8) 式に従っ
て回転処理を行なう。但し、rndは整数化の操作を意
味し、また、{x}mod p はpを基数として数xを変換
する操作で、{x}mod p =x−np(nは、0≦x−
np<pを満足する任意の整数)である。
When the given control parameter θ is | θ | ≦
If it is π / 4 (FIG. 15A), a rotation process is performed according to the equation (8). Here, rnd means an operation for converting to an integer, and {x} mod p is an operation for converting a number x using p as a radix. {X} mod p = x-np (n is 0 ≦ x-
np <p).

【0122】 B(P,Q,T) =A(P,{rnd(Ptan θ)+Q}mod p ,T) …(8) この場合、図15(a)に示すように、(X,Y)平面
上の角度θ方向の線分(図中A、Bなど)は、(P,
Q)平面上では角度0(水平)方向の線分に変換され
る。また、図中C1とC2のように、(X,Y)平面上
では異なる位置にある2つの線分が(P,Q)平面上で
は同一の水平方向の線分として変換される場合もある。
いずれにしても、この回転操作によって角度θ方向の直
線は水平方向の直線に変換され、回転前の平面の全ての
画素が回転後の平面の画素に1対1に対応する。このこ
とにより、回転前後における画素の保存性が保証され、
回転による情報の欠落を防止していることになる。
B (P, Q, T) = A (P, {rnd (Ptan θ) + Q} mod p, T) (8) In this case, as shown in FIG. ) Line segments in the angle θ direction on the plane (A, B, etc. in the figure) are (P,
Q) On a plane, it is converted into a line segment in the angle 0 (horizontal) direction. Also, two line segments at different positions on the (X, Y) plane may be converted as the same horizontal line segment on the (P, Q) plane, as indicated by C1 and C2 in the figure. .
In any case, the rotation operation converts the straight line in the angle θ direction into a horizontal straight line, and all the pixels on the plane before rotation correspond one-to-one with the pixels on the plane after rotation. This ensures pixel preservation before and after rotation,
This means that the loss of information due to rotation is prevented.

【0123】一方、与えられた制御パラメータθが、|
θ|>π/4である場合(図15(b))には、(9) 式
に従って回転を行なう。
On the other hand, given control parameter θ is |
If θ |> π / 4 (FIG. 15B), rotation is performed according to equation (9).

【0124】 B(P,Q,T) =A({rnd(Ptan (π/2−θ))+Q}mod p ,P,T)…(9) (2) この場合、図15(b)に示すように、(X,Y)平面
上の角度θ方向の線分(図中D、Eなど)は、(P,
Q)平面上では角度0(水平)方向の線分に変換され
る。また、図中F1やF2のように、(X,Y)平面上
では異なる位置にある2つの線分が(P,Q)平面上で
は同一の水平方向の線分として変換される場合もある。
いずれにしても、この回転操作によって角度θ方向の直
線は水平方向の直線に変換され、回転前の平面の全ての
画素が回転後の平面の画素に1対1に対応する。このこ
とにより、回転前後における画素の保存性が保証され、
回転による情報の欠落を防止していることになる。
B (P, Q, T) = A ({rnd (Ptan (π / 2−θ)) + Q} mod p, P, T) (9) (2) In this case, FIG. As shown in the figure, the line segment (D, E, etc. in the figure) in the angle θ direction on the (X, Y) plane is (P,
Q) On a plane, it is converted into a line segment in the angle 0 (horizontal) direction. Also, two line segments at different positions on the (X, Y) plane may be converted as the same horizontal line segment on the (P, Q) plane, such as F1 and F2 in the figure. .
In any case, the rotation operation converts the straight line in the angle θ direction into a horizontal straight line, and all the pixels on the plane before rotation correspond one-to-one with the pixels on the plane after rotation. This ensures pixel preservation before and after rotation,
This means that the loss of information due to rotation is prevented.

【0125】従って、動画像データA(X,Y,T)
が、時間経過と共に、(X,Y)平面上の所定の方向θ
[rad] (|θ|<π/2)に大きさV[pixel/frame] の
速度で動くならば、図14に示すように、動画像B
(P,Q,T)においては、動きは水平方向(P軸の正
の方向)に大きさVp[pixel/frame] を持つことにな
る。但し、Vpの値は(10)式に従うものとなっている。
Therefore, the moving image data A (X, Y, T)
Is a predetermined direction θ on the (X, Y) plane with time.
[rad] (| θ | <π / 2), if moving at the speed of the magnitude V [pixel / frame], as shown in FIG.
In (P, Q, T), the motion has a magnitude Vp [pixel / frame] in the horizontal direction (positive direction of the P axis). However, the value of Vp follows equation (10).

【0126】 Vp=Vcos θ (|θ|≦π/4の場合) =Vsin θ (|θ|>π/4の場合) …(10) さらに、このとき、各Q毎の2次元パターンC(P,
T,Q)は、動画像データB(P,Q,T)上の動きの
大きさVpに応じて縞状のパターンを形成する。この縞
状パターンの方向をφとすると、(11)式の関係が成り立
つ。
Vp = Vcos θ (when | θ | ≦ π / 4) = Vsin θ (when | θ |> π / 4) (10) Further, at this time, the two-dimensional pattern C ( P,
T, Q) forms a striped pattern according to the magnitude of motion Vp on the moving image data B (P, Q, T). Assuming that the direction of the striped pattern is φ, the relationship of equation (11) holds.

【0127】 tan φ=1/Vp …(11) 一方、動画像データA(X,Y,T)が、時間経過と共
に、(X,Y)平面上の所定の方向θ+π[rad] (|θ
|<π/2)に大きさV[pixel/frame] の速度で動く場
合には、動画像B(P,Q,T)上での動きは水平方向
(P軸の負の方向)に大きさVp[pixel/frame] を持
つ。但し、Vpは(10)式に等しい。その結果、各Q毎の
2次元パターンC(P,T,Q)上の現れる縞状パター
ンの方向φは(12)式に示すようになる。
Tan φ = 1 / Vp (11) On the other hand, as time elapses, the moving image data A (X, Y, T) has a predetermined direction θ + π [rad] (| θ
| <Π / 2) at a speed of V [pixel / frame], the motion on the moving image B (P, Q, T) is large in the horizontal direction (negative direction of the P axis). Vp [pixel / frame]. However, Vp is equal to equation (10). As a result, the direction φ of the striped pattern appearing on the two-dimensional pattern C (P, T, Q) for each Q is as shown in Expression (12).

【0128】 tan φ=−1/Vp …(12) (11)式及び(12)式より、動画像データA(X,Y,T)
の動く方向が−π/2〜+π/2の範囲であれば、2次
元パターンC(P,T,Q)上の縞状パターンの方向φ
は正となり、それ以外の場合にはφは負となることがわ
かる。また、動画像データA(X,Y,T)の動きの大
きさが等しく向きが逆であるもの同士では、φの符号が
異なるだけでその大きさは等しくなることがわかる。
Tan φ = −1 / Vp (12) From the equations (11) and (12), the moving image data A (X, Y, T)
Is in the range of -π / 2 to + π / 2, the direction φ of the striped pattern on the two-dimensional pattern C (P, T, Q)
Is positive, otherwise φ is negative. In addition, it can be seen that between the moving image data A (X, Y, T) having the same magnitude of motion and the opposite direction, the magnitudes are equal only by changing the sign of φ.

【0129】また、動画像データA(X,Y,T)が、
(X,Y)平面上で、時間経過と共に、θ又はθ+π以
外の方向へ動く場合には、各T毎の2次元パターンB
(P,Q,T)上での動きは水平方向(P軸に平行な方
向)とならないため、各Q毎の2次元パターンC(P,
T,Q)において、縞状パターンは必ずしも形成されな
い。
Also, moving image data A (X, Y, T)
When moving in a direction other than θ or θ + π over time on the (X, Y) plane, a two-dimensional pattern B for each T
Since the movement on (P, Q, T) is not in the horizontal direction (direction parallel to the P axis), the two-dimensional pattern C (P,
In (T, Q), a striped pattern is not necessarily formed.

【0130】次に、投影分散計算部1302に幾何変換
データC(P,T,Q)が入力されると、投影分散計算
部1302はこのデータを記憶する。さらに、投影分散
計算部1302は、動き検出部1303より制御パラメ
ータφを入力して、各Q毎の幾何変換データC(P,
T,Q)上で投影分散データPVを計算し、動き検出部
1303に出力する。
Next, when geometric transformation data C (P, T, Q) is input to the projection variance calculation unit 1302, the projection variance calculation unit 1302 stores this data. Further, the projection variance calculation unit 1302 receives the control parameter φ from the motion detection unit 1303 and inputs the geometric transformation data C (P,
T, Q), and outputs the projection dispersion data PV to the motion detection unit 1303.

【0131】図16は、この第5の実施形態による投影
分散計算部1302の動作を説明する図である。
FIG. 16 is a diagram for explaining the operation of the projection variance calculator 1302 according to the fifth embodiment.

【0132】投影分散計算部1302は、記憶された幾
何変換データC(P,T,Q)に対し、各Q毎の2次元
パターン上で角度φ方向の投影を行ない、投影データP
R1を計算する。すなわち、各Q毎の2次元パターンC
(P,T,Q)上、角度φ方向と直交する方向に座標軸
sを定め、座標軸s上の各点毎に、これを通過する角度
φ方向の直線上の画素値の総和を求め、これをsに対す
る投影データPR1とする。また、投影分散計算部13
02は、投影データPR1を求める際、計算に寄与した
画素の総数を各s毎に計算する。さらに、投影分散計算
部1302は、投影データPR1を、投影に寄与した画
素数で正規化した投影データPR2を求める。すなわ
ち、各sに対応する投影データPR1をPR1(s)、
投影データPR2をPR2(s)、投影に寄与した画素
数をL(s)とすると、投影分散計算部1302は、(1
3)式に基づき投影データPR2を計算する。
The projection variance calculating unit 1302 projects the stored geometric transformation data C (P, T, Q) in the direction of the angle φ on the two-dimensional pattern of each Q, and
Calculate R1. That is, the two-dimensional pattern C for each Q
On (P, T, Q), a coordinate axis s is defined in a direction orthogonal to the angle φ direction, and for each point on the coordinate axis s, the sum of pixel values on a straight line in the angle φ direction passing therethrough is calculated. Is projection data PR1 for s. Further, the projection dispersion calculation unit 13
No. 02 calculates the total number of pixels that have contributed to the calculation for each s when obtaining the projection data PR1. Further, the projection variance calculation unit 1302 obtains projection data PR2 obtained by normalizing the projection data PR1 with the number of pixels that have contributed to the projection. That is, the projection data PR1 corresponding to each s is represented by PR1 (s),
Assuming that the projection data PR2 is PR2 (s) and the number of pixels contributing to projection is L (s), the projection variance calculation unit 1302 calculates (1
3) Calculate the projection data PR2 based on the equation.

【0133】 PR2(s)=PR1(s)/L(s) …(13) 次に、投影分散計算部1302は、各Q毎に求めた投影
データPR2に基づき、投影分散データPVを(14)式に
より計算し、動き検出部1303に出力する。但し、E
(x)は、全てのQに渡るデータxの平均値を表す。
PR2 (s) = PR1 (s) / L (s) (13) Next, the projection variance calculation unit 1302 converts the projection variance data PV into (14) based on the projection data PR2 obtained for each Q. ) And outputs it to the motion detection unit 1303. Where E
(X) represents the average value of the data x over all Qs.

【0134】 PV=E(PR22 )−E(PR2) …(14) 図16に示すように、各Q毎の2次元パターンC(P,
T,Q)が縞状パターンを形成している場合には、この
縞の方向と等しい角度φに対して、投影データPR2の
変化が最大となり、投影分散データPVも最大となる。
一方、この縞の方向と一致しない角度φに対しては、投
影データPR2の変化は明瞭でなく、その結果、投影分
散データPVは大きな値とはならない。
PV = E (PR2 2 ) −E (PR2) (14) As shown in FIG. 16, a two-dimensional pattern C (P,
When (T, Q) forms a striped pattern, the change in the projection data PR2 is maximum and the projection dispersion data PV is also maximum for an angle φ equal to the direction of the stripe.
On the other hand, for an angle φ that does not match the direction of the stripes, the change in projection data PR2 is not clear, and as a result, projection dispersion data PV does not have a large value.

【0135】次に、動き検出部1303は、投影分散計
算部1302より投影分散データPVを入力すると、こ
のデータを内部で記憶した最大投影分散データPVm
(初期状態では値0を記憶)と比較し、投影分散データ
PVの方が大きければ、この値を最大投影分散データP
Vmとして記憶すると共に、このときの2つの制御パラ
メータθ及びφをそれぞれθm及びφmとして記憶す
る。
Next, upon input of the projection variance data PV from the projection variance calculation unit 1302, the motion detection unit 1303 stores this data in the maximum projection variance data PVm in which it is stored.
(In the initial state, the value 0 is stored.) If the projection dispersion data PV is larger, this value is stored in the maximum projection dispersion data P.
Vm, and the two control parameters θ and φ at this time are stored as θm and φm, respectively.

【0136】そして、動き検出部1303は、制御パラ
メータθ及びφを−π/2〜π/2の範囲内で変更して
再設定し、幾何変換部1301及び投影分散計算部13
02に出力する。この第5の実施形態では、上記変更は
π/100単位で行なわれる。上記制御パラメータの再
設定が行なわれる毎に、上述と同様に、幾何変換部13
01、投影分散計算部1302及び動き検出部1303
の動作が行なわれる。
Then, the motion detecting section 1303 changes and resets the control parameters θ and φ within the range of -π / 2 to π / 2, and sets the geometric transformation section 1301 and the projection variance calculation section 13.
02 is output. In the fifth embodiment, the change is performed in units of π / 100. Each time the control parameters are reset, the geometric conversion unit 13
01, projection variance calculation unit 1302 and motion detection unit 1303
Is performed.

【0137】その結果、動き検出部1303において
は、全ての制御パラメータθ及びφの組み合わせのう
ち、幾何変換データC(P,T,Q)上の縞状パターン
が最も明瞭になる場合のパラメータθ及びそのときの縞
方向φに対して投影分散データPVが最大値PVmとな
り、そのときのθ及びφがθm及びφmとして記憶され
ることになる。
As a result, in the motion detecting section 1303, of the combinations of all the control parameters θ and φ, the parameter θ when the striped pattern on the geometric transformation data C (P, T, Q) becomes the clearest The projection dispersion data PV becomes the maximum value PVm with respect to the stripe direction φ at that time, and θ and φ at that time are stored as θm and φm.

【0138】上述したように、動画像データA(X,
Y,T)がθ又はθ+πの方向に動く場合、角度θを制
御パラメータとして幾何変換部1301より得られる幾
何変換データC(P,T,Q)には明瞭な縞状パターン
が形成され、さらに、その縞方向は投影分散計算部13
02より得られる投影分散データPVが最大値となる場
合の制御パラメータφであることから、動き検出部13
03が記憶するパラメータθm及びφmは、動画像デー
タA(X,Y,T)の動きに対応した値となる。
As described above, the moving image data A (X,
When (Y, T) moves in the direction of θ or θ + π, a clear stripe pattern is formed in the geometric transformation data C (P, T, Q) obtained from the geometric transformation unit 1301 using the angle θ as a control parameter. , And the stripe direction is the projection variance calculation unit 13
02 is the control parameter φ when the projection dispersion data PV obtained from the motion detection unit 13 has the maximum value.
The parameters θm and φm stored in 03 are values corresponding to the motion of the moving image data A (X, Y, T).

【0139】そこで、動き検出部1303は、(15)式及
び(16)式に基づき、動画像データA(X,Y,T)の動
き量S1306((V,α))を計算して、外部へ出力
する。なお、(15)式及び(16)式は、(10)式〜(12)式より
得られるものである。
Therefore, the motion detection unit 1303 calculates the motion amount S1306 ((V, α)) of the moving image data A (X, Y, T) based on the equations (15) and (16). Output to outside. The expressions (15) and (16) are obtained from the expressions (10) to (12).

【0140】 V=1/|tan φm・cos θm| (|θm|≦π/4の場合) =1/|tan φm・sin θm| (|θm|>π/4の場合) …(15) α=θm (|φm|≦π/2の場合) =θm+π (|φm|>π/2の場合) …(16) 以上の動作の結果、この動画像処理装置は、動画像デー
タA(X,Y,T)に対する動き量(V,α)を知るこ
とができる。
V = 1 / | tan φm · cos θm | (when | θm | ≦ π / 4) = 1 / | tan φm · sin θm | (when | θm |> π / 4) (15) α = θm (in the case of | φm | ≦ π / 2) = θm + π (in the case of | φm |> π / 2) (16) As a result of the above operation, the moving image processing apparatus uses the moving image data A (X , Y, T).

【0141】以上のように、第5の実施形態では、幾何
変換部1301が制御パラメータθに基づいて動画像デ
ータA(X,Y,T)を幾何変換データC(P,T,
Q)に変換し、投影分散計算部1302が制御パラメー
タφに基づいて幾何変換データC(P,T,Q)の投影
分散データPVを計算し、動き検出部1303が投影分
散データPVが最大となる場合の制御パラメータθ及び
φを決定する。幾何変換部1301での処理は、動画像
データA(X,Y,T)を(X,Y)平面上で角度−θ
だけ回転して3次元パターンB(P,Q,T)を作成し
た後、座標軸の交換により幾何変換データC(P,T,
Q)を得るため、動画像データA(X,Y,T)が
(X,Y)平面上で角度θ又はθ+π方向に動く場合に
は、各Q毎の(P,T)平面上の幾何変換データC
(P,T,Q)には明瞭な縞状パターンが形成され、さ
らに、その縞の方向φは該動きの大きさに対応すること
になる。従って、投影分散計算部1302が幾何変換デ
ータC(P,T,Q)の方向φへの投影分散値を計算し
て、動き検出部1303が該投影分散値が最大となる場
合の制御パラメータθ及びφを検出することによって、
θ及びφの値から動画像A(X,Y,T)の動き量を決
定することができる。
As described above, in the fifth embodiment, the geometric conversion unit 1301 converts the moving image data A (X, Y, T) into the geometric conversion data C (P, T,
Q), the projection variance calculation unit 1302 calculates the projection variance data PV of the geometric transformation data C (P, T, Q) based on the control parameter φ, and the motion detection unit 1303 determines that the projection variance data PV is the maximum. Control parameters θ and φ are determined. The processing in the geometric transformation unit 1301 is performed by converting the moving image data A (X, Y, T) on the (X, Y) plane into an angle −θ.
To create a three-dimensional pattern B (P, Q, T), and then exchange the coordinate axes to convert the geometric transformation data C (P, T, T).
When moving image data A (X, Y, T) moves in the direction of angle θ or θ + π on the (X, Y) plane in order to obtain Q), the geometry on the (P, T) plane for each Q Conversion data C
A clear stripe pattern is formed on (P, T, Q), and the direction φ of the stripe corresponds to the magnitude of the movement. Accordingly, the projection variance calculation unit 1302 calculates the projection variance value of the geometric transformation data C (P, T, Q) in the direction φ, and the motion detection unit 1303 calculates the control parameter θ when the projection variance value becomes the maximum. And φ by detecting
The motion amount of the moving image A (X, Y, T) can be determined from the values of θ and φ.

【0142】(E−3)第5の実施形態の効果 以上のように、第5の実施形態では、時間軸Tを含む各
Q毎の(P,T)平面上の幾何変換データC(P,T,
Q)上のパターンの特徴を用いて動き量を検出するの
で、従来、ブロックマッチングによりフレーム間の動き
を検出した方法に比べ、フレーム間の動きが大きくても
精度よく動きを検出でき、また、一連の動きを大局的に
把握でき、さらに、画像中の雑音による動き検出エラー
を少なくすることができる。
(E-3) Effect of Fifth Embodiment As described above, in the fifth embodiment, the geometric transformation data C (P, P) on the (P, T) plane for each Q including the time axis T , T,
Q) Since the amount of motion is detected using the features of the above pattern, it is possible to accurately detect the motion even if the inter-frame motion is large, as compared with the conventional method of detecting the motion between frames by block matching. A series of motions can be grasped globally, and motion detection errors due to noise in an image can be reduced.

【0143】また、第5の実施形態によれば、入力動画
像データの移動方向がどんな場合であっても制御パラメ
ータθを変更することにより明確な縞状パターンを呈す
る場合を作り出し、その明確な縞状パターンに基づい
て、動き量を検出しているので、入力動画像データの移
動方向に拘らず良好に動き量を検出することができる。
Further, according to the fifth embodiment, no matter what the moving direction of the input moving image data, the case where a clear stripe pattern is formed by changing the control parameter θ is created. Since the motion amount is detected based on the striped pattern, the motion amount can be detected well regardless of the moving direction of the input moving image data.

【0144】(F)第6の実施形態 次に、本発明による動画像処理装置の第6の実施形態を
図面を参照しながら詳述する。
(F) Sixth Embodiment Next, a sixth embodiment of the moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0145】(F−1)第6の実施形態の構成 図17は、この第6の実施形態による動画像処理装置の
構成を示すブロック図である。図17において、第6の
実施形態の動画像処理装置は、幾何変換部1701、水
平投影分散計算部1702及び動き検出部1703から
構成されている。
(F-1) Configuration of the Sixth Embodiment FIG. 17 is a block diagram showing the configuration of a moving image processing apparatus according to the sixth embodiment. In FIG. 17, the moving image processing apparatus according to the sixth embodiment includes a geometric conversion unit 1701, a horizontal projection dispersion calculation unit 1702, and a motion detection unit 1703.

【0146】幾何変換部1701は、装置外部より動画
像データS1701(A(X,Y,T)で図示)を入力
し、動き検出部1703より制御パラメータS1704
(θ、φで図示)を入力し、幾何変換データS1702
(D(R,S,Q)で図示)を形成して水平投影分散計
算部1702に出力するものである。ここで、制御パラ
メータS1704(θ、φ)の値によっては、幾何変換
データS1702(D(R,S,Q))は水平方向(R
方向)の縞状パターンを呈する。
The geometric conversion unit 1701 receives moving image data S1701 (shown by A (X, Y, T)) from outside the apparatus, and receives control parameters S1704 from the motion detection unit 1703.
(Indicated by θ and φ) and input geometric transformation data S1702
(Shown by D (R, S, Q)) and output to the horizontal projection dispersion calculation unit 1702. Here, depending on the value of the control parameter S1704 (θ, φ), the geometric transformation data S1702 (D (R, S, Q)) is shifted in the horizontal direction (R
Direction).

【0147】水平投影分散計算部1702は、幾何変換
部1701より幾何変換データS1702を入力し、そ
の水平方向の投影パターンの投影分散データS1703
(PVで図示)を得て動き検出部1703に出力するも
のである。
The horizontal projection variance calculation unit 1702 receives the geometric transformation data S1702 from the geometric transformation unit 1701, and outputs the projection dispersion data S1703 of the horizontal projection pattern.
(Shown by PV) and output to the motion detection unit 1703.

【0148】動き検出部1703は、幾何変換部170
1に制御パラメータS1704を出力し、水平投影分散
計算部1702より投影分散データS1703を入力
し、最大の投影分散データS1703が生じた際の制御
パラメータS1704に基づいて、動き量S1706
((V,α)で図示)を形成して装置外部に出力するも
のである。
The motion detecting section 1703 includes a
1 and the projection variance data S1703 from the horizontal projection variance calculation unit 1702, and the motion amount S1706 based on the control parameter S1704 when the maximum projection variance data S1703 is generated.
(Shown by (V, α)) and output to the outside of the apparatus.

【0149】ここで、幾何変換データD(R,S,Q)
は、3つの座標軸R、S、Qで構成される3次元空間上
のp×p×pの大きさを持つデータである。なお、動画
像データA(X,Y,T)、動き量(V,α)、制御パ
ラメータθ、φの意味するところは、第5の実施形態と
同じである。
Here, the geometric transformation data D (R, S, Q)
Is data having a size of p × p × p on a three-dimensional space composed of three coordinate axes R, S, and Q. The meaning of the moving image data A (X, Y, T), the amount of motion (V, α), and the control parameters θ and φ are the same as in the fifth embodiment.

【0150】(F−2)第6の実施形態の動作 次に、以上のような各部1701〜1703からなる第
6の実施形態の動画像処理装置の動作を説明する。
(F-2) Operation of the Sixth Embodiment Next, the operation of the moving image processing apparatus according to the sixth embodiment, which includes the above-described units 1701 to 1703, will be described.

【0151】外部からの動作開始命令により、この動画
像処理装置は動作を開始する。このときまず、動き検出
部1703は、2つの制御パラメータθ及びφ(但し、
|θ|,|φ|≦π/2)を初期値(例えば、θ=φ=
−π/2[rad] )に設定して幾何変換部1701に出力
する。
This moving image processing apparatus starts operation in response to an operation start command from the outside. At this time, first, the motion detection unit 1703 determines two control parameters θ and φ (however,
| Θ |, | φ | ≦ π / 2) to initial values (eg, θ = φ =
−π / 2 [rad]) and outputs the result to the geometric transformation unit 1701.

【0152】次に、幾何変換部1701は、動き検出部
1703より制御パラメータθ及びφを入力して、これ
に基づき、外部から入力された動画像データA(X,
Y,T)を変換して幾何変換データD(R,S,Q)を
作成し、水平投影分散計算部1702に出力する。
Next, the geometric conversion unit 1701 receives the control parameters θ and φ from the motion detection unit 1703, and based on the control parameters θ and φ, outputs the moving image data A (X,
Y, T) are converted to generate geometric conversion data D (R, S, Q), and output to the horizontal projection dispersion calculation unit 1702.

【0153】図18は、幾何変換部1701によるデー
タA(X,Y,T)からデータD(R,S,Q)を得る
変換動作を説明する図である。
FIG. 18 is a diagram for explaining a conversion operation for obtaining data D (R, S, Q) from data A (X, Y, T) by the geometric conversion unit 1701.

【0154】幾何変換部1701は、動画像データA
(X,Y,T)を入力すると、まず、各時刻T毎のフレ
ームデータを角度−θだけ回転させたフレームデータB
(P,Q,T)を作成する。次に、動画像データB
(P,Q,T)の各Q毎に、座標軸Pと座標軸Tとから
構成される2次元平面上のパターンを切り出し、これを
座標交換データC(P,T,Q)として作成する。さら
に、幾何変換部1701は、各Q毎の平面データC
(P,T,Q)を角度−φだけ回転させた平面データD
(R,S,Q)を作成し、これを幾何変換データとして
水平投影分散計算部1702に出力する。
The geometric conversion unit 1701 converts the moving image data A
When (X, Y, T) is input, first, the frame data B obtained by rotating the frame data at each time T by an angle-?
(P, Q, T) is created. Next, moving image data B
For each Q of (P, Q, T), a pattern on a two-dimensional plane composed of a coordinate axis P and a coordinate axis T is cut out and created as coordinate exchange data C (P, T, Q). Further, the geometric transformation unit 1701 calculates the plane data C for each Q
Plane data D obtained by rotating (P, T, Q) by an angle -φ
(R, S, Q) is created and output to the horizontal projection dispersion calculation unit 1702 as geometric transformation data.

【0155】データA(X,Y,T)からデータB
(P,Q,T)への変換は、第1の実施形態と同様の方
法により実施されるので、ここでは変換方法の詳細な説
明を省略する。なお、第1の実施形態で説明したよう
に、この変換によって、以下の特徴を持つデータB
(P,Q,T)が作成される。
From data A (X, Y, T) to data B
Since the conversion into (P, Q, T) is performed by the same method as in the first embodiment, a detailed description of the conversion method is omitted here. Note that, as described in the first embodiment, by this conversion, data B having the following characteristics is obtained.
(P, Q, T) is created.

【0156】・(X,Y)上の角度θ方向の直線は、水
平方向の直線に変換される。 ・(X,Y)上の角度θ方向への速度Vの動きは、水平
方向への速度Vp((10)式に定義)の動きに変換され
る。
The straight line in the direction of angle θ on (X, Y) is converted to a straight line in the horizontal direction. The movement of the speed V in the direction of the angle θ on (X, Y) is converted into the movement of the speed Vp (defined in the equation (10)) in the horizontal direction.

【0157】また、データB(P,Q,T)からデータ
C(P,T,Q)への変換も、第1の実施形態と同様の
方法により実施されるので、これにより、以下のような
特徴を持つデータC(P,T,Q)が作成される。
The conversion from data B (P, Q, T) to data C (P, T, Q) is performed by the same method as in the first embodiment. C (P, T, Q) having various characteristics are created.

【0158】・A(X,Y,T)において角度θ方向へ
の速度Vの動き(=B(P,Q,T)において水平方向
への速度Vpの動き)に対しては、Vpの値に応じた縞
状パターンを形成し、その縞の方向φは(11)式及び(12)
式に従う。 ・A(X,Y,T)の動きが、(X,Y)平面上で、θ
又はθ+π方向へ動く場合には、各Q毎のデータC
(P,T,Q)中に明瞭な縞状パターンが形成される
が、それ以外の場合には縞状パターンは形成されない。 ・A(X,Y,T)の動きの大きさが等しく向きが逆で
あるもの同士は、縞の方向φの符号は異なるが大きさは
等しい。なお、A(X,Y,T)の動く方向が−π/2
〜+π/2の範囲であればφは正となり、それ以外の場
合にはφは負となる。
The value of Vp for the movement of velocity V in the direction of angle θ at A (X, Y, T) (= the movement of velocity Vp in the horizontal direction for B (P, Q, T)) Is formed, and the direction φ of the stripe is determined by the expression (11) and the expression (12).
Follow the formula. The movement of A (X, Y, T) is represented by θ on the (X, Y) plane.
Or, when moving in the θ + π direction, the data C for each Q
A clear stripe pattern is formed in (P, T, Q), but otherwise, no stripe pattern is formed. A (X, Y, T) having the same magnitude of motion and opposite directions have the same sign but different magnitudes in the stripe direction φ. Note that the moving direction of A (X, Y, T) is -π / 2.
Φ is positive in the range of + π / 2, and φ is negative in other cases.

【0159】また、データC(P,T,Q)からデータ
D(R,S,Q)への変換は、データA(X,Y,T)
からデータB(P,Q,T)への変換と同様の手法によ
り実施される。すなわち、幾何変換部1701は、動き
検出部1703より制御パラメータφを入力して、各Q
毎の平面パターンデータC(P,T,Q)を−φだけ回
転し、幾何変換データD(R,S,Q)を得る。この回
転は、データA(X,Y,T)からデータB(P,Q,
T)への変換と同様の手法によるものであり、詳細な説
明は省略する。
The conversion from data C (P, T, Q) to data D (R, S, Q) is performed on data A (X, Y, T).
To data B (P, Q, T). That is, the geometric transformation unit 1701 receives the control parameter φ from the motion detection unit 1703 and
Each plane pattern data C (P, T, Q) is rotated by -φ to obtain geometric transformation data D (R, S, Q). This rotation is performed by converting data A (X, Y, T) to data B (P, Q,
This is based on the same method as the conversion to T), and a detailed description is omitted.

【0160】この処理により、制御パラメータφと同一
の縞方向を持つデータC(P,T,Q)に対しては、水
平方向(R軸に平行な方向)に沿った縞状パターンが、
各Q毎の幾何変換データD(R,S,Q)上に形成され
ることになる。一方、制御パラメータφと異なる縞方向
を持つデータC(P,T,Q)に対しては、幾何変換デ
ータD(R,S,Q)上に水平方向の縞状パターンは形
成されない。
By this processing, for data C (P, T, Q) having the same stripe direction as the control parameter φ, a stripe pattern along the horizontal direction (direction parallel to the R axis) is obtained.
It is formed on the geometric transformation data D (R, S, Q) for each Q. On the other hand, for data C (P, T, Q) having a stripe direction different from control parameter φ, no horizontal stripe pattern is formed on geometrically transformed data D (R, S, Q).

【0161】次に、水平投影分散計算部1702に幾何
変換データD(R,S,Q)が入力されると、水平投影
分散計算部1702は、このデータを記憶する。さら
に、水平投影分散計算部1702は、各Q毎の幾何変換
データD(R,S,Q)上で投影分散データPVを計算
し、動き検出部1703に出力する。
Next, when the geometric transformation data D (R, S, Q) is input to the horizontal projection variance calculation unit 1702, the horizontal projection variance calculation unit 1702 stores this data. Further, the horizontal projection variance calculation unit 1702 calculates the projection variance data PV on the geometric transformation data D (R, S, Q) for each Q, and outputs the calculated data to the motion detection unit 1703.

【0162】図19は、この第6の実施形態による水平
投影分散計算部1702の動作を説明する図である。
FIG. 19 is a diagram for explaining the operation of the horizontal projection variance calculation unit 1702 according to the sixth embodiment.

【0163】水平投影分散計算部1702は、記憶され
た幾何変換データD(R,S,Q)に対し、各Q毎に水
平方向(R軸に平行な方向)への投影を行ない、投影デ
ータPR1を計算する。すなわち、各Q毎の(R,S)
平面内において、水平方向に画素値D(R,S,Q)の
総和を求め、これを投影データPR1とする。次に、水
平投影分散計算部1702は、各Q毎に求めた投影デー
タPR1に基づき、投影分散データPVを(17)式により
計算し、動き検出部1703に出力する。但し、E
(x)は、全てのQに渡るデータxの平均値を表す。
The horizontal projection variance calculation unit 1702 projects the stored geometric transformation data D (R, S, Q) in the horizontal direction (direction parallel to the R axis) for each Q, and Calculate PR1. That is, (R, S) for each Q
In the plane, the sum of the pixel values D (R, S, Q) is obtained in the horizontal direction, and this is defined as projection data PR1. Next, based on the projection data PR1 obtained for each Q, the horizontal projection variance calculation unit 1702 calculates the projection variance data PV by Expression (17), and outputs the calculated variance to the motion detection unit 1703. Where E
(X) represents the average value of the data x over all Qs.

【0164】 PV=E(PR12 )−E(PR1) …(17) 図19に示すように、各Q毎の2次元パターンD(R,
S,Q)が水平方向に沿った縞状パターンを形成してい
る場合には、投影データPR1の変化が最大となり、投
影分散データPVも最大となる。一方、各Q毎の2次元
パターンD(R,S,Q)が水平方向に沿った縞状パタ
ーンを形成していない場合には、投影データPR1の変
化は明瞭でなく、その結果、投影分散データPVは大き
な値とはならない。
PV = E (PR1 2 ) −E (PR1) (17) As shown in FIG. 19, the two-dimensional pattern D (R,
When (S, Q) forms a striped pattern extending in the horizontal direction, the change in the projection data PR1 is maximum, and the projection dispersion data PV is also maximum. On the other hand, when the two-dimensional pattern D (R, S, Q) for each Q does not form a stripe pattern along the horizontal direction, the change in the projection data PR1 is not clear, and as a result, the projection dispersion The data PV does not become a large value.

【0165】なお、この第6の実施形態では、データC
(P,T,Q)からデータD(R,S,Q)への変換方
法として、データA(X,Y,T)からデータB(P,
Q,T)への変換と同様の方法を用いているため、デー
タC(P,T,Q)上の異なる線分同士が結合され、一
つの線分としてデータD(R,S,Q)上に現れること
がある。図19の(R,S)平面上の不連続線は、この
ことを示すものであるが、この不連続線は(R,S)平
面中にだた1本しか発生しないので、投影データPR1
への影響は少ない。
In the sixth embodiment, the data C
As a conversion method from (P, T, Q) to data D (R, S, Q), data A (X, Y, T) to data B (P,
Q, T), the different line segments on the data C (P, T, Q) are combined, and the data D (R, S, Q) are combined as one line segment. May appear above. The discontinuous line on the (R, S) plane in FIG. 19 indicates this. However, since only one discontinuous line occurs in the (R, S) plane, the projection data PR1
There is little effect on

【0166】次に、動き検出部1703は、水平投影分
散計算部1702より投影分散データPVを入力する
と、このデータを内部で記憶した最大投影分散データP
Vm(初期状態では値0を記憶)と比較し、投影分散デ
ータPVの方が大きければ、この値を最大投影分散デー
タPVmとして記憶すると共に、このときの2つの制御
パラメータθ及びφをそれぞれθm及びφmとして記憶
する。
Next, when the motion estimation unit 1703 receives the projection variance data PV from the horizontal projection variance calculation unit 1702, the motion estimation unit 1703 stores this data in the maximum projection variance data P
Vm (in the initial state, the value 0 is stored). If the projection dispersion data PV is larger, this value is stored as the maximum projection dispersion data PVm, and the two control parameters θ and φ at this time are set to θm, respectively. And φm.

【0167】次に、動き検出部1703は、制御パラメ
ータθ及びφを−π/2〜π/2の範囲内で変更して再
設定し、幾何変換部1701に出力する。この第6の実
施形態では、上記変更は例えばπ/100単位で行なわ
れる。上記制御パラメータの再設定が行なわれる毎に、
上述と同様に、幾何変換部1701、水平投影分散計算
部1702及び動き検出部1703の動作が行なわれ
る。
Next, the motion detecting unit 1703 changes and resets the control parameters θ and φ within the range of -π / 2 to π / 2, and outputs the result to the geometric transformation unit 1701. In the sixth embodiment, the change is performed, for example, in units of π / 100. Each time the above control parameters are reset,
As described above, the operations of the geometric transformation unit 1701, the horizontal projection dispersion calculation unit 1702, and the motion detection unit 1703 are performed.

【0168】その結果、動き検出部1703において
は、全ての制御パラメータθ及びφの組み合わせのう
ち、幾何変換データD(R,S,Q)上の縞状パターン
が最も明瞭になる場合のパラメータθ及びφに対して投
影分散データPVが最大値PVmとなり、そのときのθ
及びφがθm及びφmとして記憶されることになる。
As a result, in the motion detecting section 1703, the parameter θ when the striped pattern on the geometric transformation data D (R, S, Q) becomes the clearest among all the combinations of the control parameters θ and φ. And φ, the projection dispersion data PV becomes the maximum value PVm, and θ
And φ will be stored as θm and φm.

【0169】上述したように、動画像データA(X,
Y,T)がθ又はθ+πの方向に動く場合、角度θと動
きに応じた適切な角度φとを制御パラメータとして幾何
変換部1701に与えると、幾何変換データD(R,
S,Q)には明瞭な縞状パターンが形成されることか
ら、動き検出部1703が記憶するパラメータθm及び
φmは、動画像データA(X,Y,T)の動きに対応し
た値となる。
As described above, the moving image data A (X,
When (Y, T) moves in the direction of θ or θ + π, when the angle θ and an appropriate angle φ according to the movement are given to the geometric transformation unit 1701 as control parameters, the geometric transformation data D (R,
Since a clear striped pattern is formed in S, Q), the parameters θm and φm stored by the motion detection unit 1703 are values corresponding to the motion of the moving image data A (X, Y, T). .

【0170】そこで、動き検出部1703は、第1の実
施形態と同様に、(15)式及び(16)式に基づき、動画像デ
ータA(X,Y,T)の動き量S1706((V,
α))を計算し、外部へ出力する。
Therefore, the motion detecting section 1703 calculates the motion amount S1706 ((V) of the moving image data A (X, Y, T) based on the equations (15) and (16) as in the first embodiment. ,
α)) is calculated and output to the outside.

【0171】以上の動作の結果、この動画像処理装置
は、動画像データA(X,Y,T)に対する動き量
(V,α)を知ることができる。
As a result of the above operation, the moving picture processing device can know the moving amount (V, α) for the moving picture data A (X, Y, T).

【0172】以上説明したように、第6の実施形態で
は、幾何変換部1701が制御パラメータθ及びφに基
づいて動画像データA(X,Y,T)を幾何変換データ
D(R,S,Q)に変換し、水平投影分散計算部170
2が制御パラメータφに基づいて幾何変換データD
(R,S,Q)の投影分散データPVを計算し、動き検
出部1703が投影分散データPVが最大となる場合の
制御パラメータθ及びφを決定する。幾何変換部170
1での処理は、動画像データA(X,Y,T)を(X,
Y)平面上で角度−θだけ回転して3次元パターンB
(P,Q,T)を作成したのち、座標軸の交換により3
次元パターンC(P,T,Q)を作成し、さらにこれを
(R,S)平面上で−φだけ回転して幾何変換データD
(R,S,Q)を得るため、動画像データA(X,Y,
T)が(X,Y)平面上で角度θ又はθ+π方向に動く
場合、その動きの大きさに応じた角度φを制御パラメー
タとして用いることにより、各Q毎の(R,S)平面上
の幾何変換データD(R,S,Q)には水平方向に沿っ
た明瞭な縞状パターンが形成される。従って、水平投影
分散計算部1702が幾何変換データD(R,S,Q)
の水平方向への投影分散値を計算して、動き検出部17
03が該投影分散値が最大となる場合の制御パラメータ
θ及びφを検出することによって、θ及びφの値から動
画像A(X,Y,T)の動き量を決定することができ
る。
As described above, in the sixth embodiment, the geometric conversion unit 1701 converts the moving image data A (X, Y, T) into the geometric conversion data D (R, S, S) based on the control parameters θ and φ. Q), and the horizontal projection dispersion calculation unit 170
2 is the geometric transformation data D based on the control parameter φ.
The projection variance data PV of (R, S, Q) is calculated, and the motion detection unit 1703 determines the control parameters θ and φ when the projection variance data PV is maximized. Geometric transformation unit 170
The processing in (1) converts the moving image data A (X, Y, T) into (X,
Y) Three-dimensional pattern B rotated by an angle -θ on a plane
After creating (P, Q, T), 3
A dimensional pattern C (P, T, Q) is created, and this is rotated by -φ on the (R, S) plane to convert the geometric transformation data D
In order to obtain (R, S, Q), moving image data A (X, Y,
T) moves in the direction of the angle θ or θ + π on the (X, Y) plane, the angle φ corresponding to the magnitude of the movement is used as a control parameter, so that each Q can be moved on the (R, S) plane. A clear striped pattern along the horizontal direction is formed in the geometric transformation data D (R, S, Q). Therefore, the horizontal projection variance calculation unit 1702 calculates the geometric transformation data D (R, S, Q)
Of the horizontal direction is calculated, and the motion
03 detects the control parameters θ and φ when the projection dispersion value is the maximum, so that the amount of motion of the moving image A (X, Y, T) can be determined from the values of θ and φ.

【0173】(F−3)第6の実施形態の効果 第6の実施形態によれば、時間軸Tを含む各Q毎の
(P,T)平面を幾何学的に(R,S)平面に変換し、
これにより動画像の時間変化が表現された(R,S)平
面上の幾何変換データD(R,S,Q)上のパターンの
特徴を用いて動き量を検出するので、従来、ブロックマ
ッチングによりフレーム間の動きを検出した方法に比
べ、フレーム間の動きが大きくても精度よく動きを検出
でき、また、一連の動きを大局的に把握でき、さらに、
画像中の雑音による動き検出エラーを少なくすることが
できる。
(F-3) Effects of the Sixth Embodiment According to the sixth embodiment, the (P, T) plane for each Q including the time axis T is geometrically converted to the (R, S) plane. To
As a result, the amount of motion is detected using the feature of the pattern on the geometric transformation data D (R, S, Q) on the (R, S) plane in which the time change of the moving image is expressed. Compared to the method of detecting the movement between frames, even if the movement between frames is large, the movement can be accurately detected, and a series of movements can be grasped globally.
Motion detection errors due to noise in the image can be reduced.

【0174】また、第6の実施形態によれば、入力動画
像データの移動方向がどんな場合であっても制御パラメ
ータθを変更することにより明確な縞状パターンを呈す
る場合を作り出し、その明確な縞状パターンに基づい
て、動き量を検出しているので、入力動画像データの移
動方向に拘らず良好に動き量を検出することができる。
Further, according to the sixth embodiment, no matter what the moving direction of the input moving image data, the case where a clear stripe pattern is formed by changing the control parameter θ is created. Since the motion amount is detected based on the striped pattern, the motion amount can be detected well regardless of the moving direction of the input moving image data.

【0175】さらに、この第6の実施形態によれば、幾
何変換部1701により、動画像データが水平方向の幾
何変換データに変換され、水平投影分散計算部1702
が水平方向だけへの投影データPR1の分散を計算すれ
ば良いので、投影に寄与する画素数は常に一定となり、
従って、第5の実施形態のように、投影に寄与する画素
数の計算及び該画素数による投影データの正規化の処理
を行なう必要がないので、計算量を減少させることがで
きる。
Further, according to the sixth embodiment, the moving image data is converted into the horizontal geometric conversion data by the geometric conversion unit 1701, and the horizontal projection variance calculation unit 1702
Need only calculate the variance of the projection data PR1 in the horizontal direction only, so that the number of pixels contributing to projection is always constant,
Therefore, unlike the fifth embodiment, it is not necessary to calculate the number of pixels contributing to projection and normalize the projection data based on the number of pixels, so that the amount of calculation can be reduced.

【0176】なお、計算量をより一段と減少とさせよう
とした場合には、幾何変換部1701から水平投影分散
計算部1702に与えるデータD(R,S,Q)とし
て、例えば、図20に示すように、Q1=0、Q2=p
/2、Q3=p−1の3個のデータD(R,S,Q
1)、D(R,S,Q2)及びD(R,S,Q3)を与
えるようにすれば良い。
If the amount of calculation is to be further reduced, the data D (R, S, Q) given from the geometric transformation unit 1701 to the horizontal projection variance calculation unit 1702, for example, as shown in FIG. Thus, Q1 = 0, Q2 = p
/ 2, Q3 = p-1 three data D (R, S, Q
1), D (R, S, Q2) and D (R, S, Q3) may be given.

【0177】(G)第7の実施形態 次に、本発明による動画像処理装置の第7の実施形態を
図面を参照しながら詳述する。
(G) Seventh Embodiment Next, a moving image processing apparatus according to a seventh embodiment of the present invention will be described in detail with reference to the drawings.

【0178】(G−1)第7の実施形態の構成 図21は、この第7の実施形態による動画像処理装置の
構成を示すブロック図である。図21において、第7の
実施形態の動画像処理装置は、幾何変換部2101、水
平投影分散計算部2102、動き検出部2103及び探
索範囲設定部2104から構成されている。
(G-1) Configuration of Seventh Embodiment FIG. 21 is a block diagram showing the configuration of a moving image processing apparatus according to the seventh embodiment. In FIG. 21, the moving image processing apparatus according to the seventh embodiment includes a geometric transformation unit 2101, a horizontal projection dispersion calculation unit 2102, a motion detection unit 2103, and a search range setting unit 2104.

【0179】幾何変換部2101及び水平投影分散計算
部2102は、上述した第6の実施形態の対応要素と同
様に機能するものである。
The geometric conversion unit 2101 and the horizontal projection variance calculation unit 2102 function in the same manner as the corresponding elements of the sixth embodiment.

【0180】動き検出部2103は、探索範囲設定部2
104より探索範囲データS2105(Gで図示)を入
力し、水平投影分散計算部2102より投影分散データ
S2103を入力し、幾何変換部2101に制御パラメ
ータS2104を出力し、装置外部に動き量S2106
((V,α)で図示)を出力するものである。動き検出
部2103は、探索範囲設定部2104からの探索範囲
データS2105(Gで図示)に基づいて、幾何変換部
2101に与える制御パラメータS2104の範囲を決
定する。
The motion detecting section 2103 includes a search range setting section 2
104, search range data S2105 (shown by G) is input, horizontal variance calculation unit 2102 receives projection variance data S2103, outputs control parameter S2104 to geometric transformation unit 2101, and outputs motion amount S2106 outside the apparatus.
(Shown by (V, α)). The motion detection unit 2103 determines the range of the control parameter S2104 to be given to the geometric transformation unit 2101 based on the search range data S2105 (shown by G) from the search range setting unit 2104.

【0181】この第7の実施形態で新たに設けられた探
索範囲設定部2104は、外部より動画像データS21
01を入力し、探索範囲データS2105を動き検出部
2103に出力するものである。
The search range setting unit 2104 newly provided in the seventh embodiment is provided with a moving image data S21 from the outside.
01 is input and the search range data S2105 is output to the motion detection unit 2103.

【0182】ここで、探索範囲データGは、V1、V
2、α1及びα2の4つのデータからなり、それぞれ、
動き量の大きさVの最小値、Vの最大値、動き量の方向
αの最小値、αの最大値を表している。
Here, the search range data G is V1, V
2, consisting of four data, α1 and α2,
The minimum value of the magnitude V of the motion amount, the maximum value of V, the minimum value of the direction α of the motion amount, and the maximum value of α.

【0183】(G−2)第7の実施形態の動作 次に、以上のような各部2101〜2104からなる第
7の実施形態の動画像処理装置の動作を説明する。
(G-2) Operation of the Seventh Embodiment Next, the operation of the moving image processing apparatus of the seventh embodiment composed of the above-described units 2101 to 2104 will be described.

【0184】外部からの動作開始命令により、この動画
像処理装置は動作を開始する。このときまず、探索範囲
設定部2104は、外部より動画像データA(X,Y,
T)を入力し、その中の複数の代表領域に対してフレー
ム間の動きベクトルを計算する。この第7の実施形態で
は、上述した代表領域として、動画像データA(X,
Y,T)を構成するキューブの各面とキューブ中心部の
合わせて7カ所にブロック領域を設定する。
The moving image processing apparatus starts operation in response to an operation start command from outside. At this time, first, the search range setting unit 2104 externally receives the moving image data A (X, Y,
T) is input, and a motion vector between frames is calculated for a plurality of representative regions therein. In the seventh embodiment, moving image data A (X,
Block areas are set at seven places in total, including each surface of the cube constituting (Y, T) and the center of the cube.

【0185】図22は、この代表領域の一例を示す図で
ある。図22に示すように、キューブの中心部に位置す
るブロックB0と、6つの正方面付近に位置するブロッ
クB1〜B6との合わせて7つのブロックを代表領域と
している。
FIG. 22 is a diagram showing an example of this representative area. As shown in FIG. 22, seven blocks are set as the representative region, including a block B0 located at the center of the cube and blocks B1 to B6 located near six squares.

【0186】探索範囲設定部2104は、これら7つの
ブロック領域毎に動きベクトルの計算を行なうが、動き
ベクトルの計算方法としては、従来技術として記載した
ブロック単位のパターンマッチングを適用する。すなわ
ち、探索範囲設定部2104は、各ブロック毎に、パタ
ーンマッチングにより隣接フレームとのずれの量を検出
して、これを動きベクトルとして記憶する。なお、この
ずれの量を検出するに当たっては、キューブの範囲外の
画像データも必要となるので、探索範囲設定部2104
は、予め、処理対象のキューブよりもX方向及びY方向
に対して広い領域の画像データを入力するよう動作す
る。
The search range setting unit 2104 calculates a motion vector for each of these seven block areas. As a method for calculating the motion vector, pattern matching in block units described in the related art is applied. That is, the search range setting unit 2104 detects the amount of deviation from an adjacent frame by pattern matching for each block, and stores this as a motion vector. In order to detect the amount of the shift, image data outside the range of the cube is also required.
Operates in advance to input image data in a wider area in the X and Y directions than the cube to be processed.

【0187】探索範囲設定部2104での動きベクトル
の計算により、各ブロックBi(iは0〜6)の前フレ
ームからのずれ量である動きベクトルMVi=(vxi,
vyi)が求まると、次に、探索範囲設定部2104は、
各ブロックBi毎に動きベクトルの大きさVi[pixel/f
rame] 及び方向αi[rad] (−π〜+π)を計算し、そ
の最小値及び最大値から探索範囲データG=(V1,V
2,α1,α2)を決定し、動き検出部2103に出力
する。すなわち、(18)式に示す演算を実行する。なお、
(18)式における最小値及び最大値を探索するためのパラ
メータはiについてである。
The calculation of the motion vector in the search range setting unit 2104 indicates that the motion vector MVi = (vxi,
When v yi) is obtained, next, the search range setting unit 2104
The magnitude Vi [pixel / f of the motion vector for each block Bi
rame] and direction αi [rad] (−π to + π), and search range data G = (V1, V
2, α1, α2) and outputs the result to the motion detection unit 2103. That is, the calculation shown in Expression (18) is performed. In addition,
The parameter for searching for the minimum and maximum values in equation (18) is for i.

【0188】 V1=min{√(vxi2 +vyi2 )} V2=max{√(vxi2 +vyi2 )} α1=min{tan -1(vyi/vxi)} α2=min{tan -1(vyi/vxi)} …(18) 次に、動き検出部2103は探索範囲データGを入力す
ると、まず、動き量候補として、(V,α)=(V1,
α1)を設定する。さらに、動き検出部2103は、(1
9)式に基づいて上記動き量候補に対応する制御パラメー
タθ(|θ|≦π/2)及びφを計算し、幾何変換部2
101に出力する。なお、動き量(V,α)と制御パラ
メータθ、φとの関係は第5の実施形態の場合と同じで
あり、(19)式は、第5の実施形態での説明文及び(10)式
〜(12)式の関係から導かれる。
V1 = min {√ (vxi 2 + vyi 2 )} V2 = max {√ (vxi 2 + vyi 2 )} α1 = min {tan -1 (vyi / vxi)} α2 = min {tan -1 (vyi / vxi)} (18) Next, when the motion detection unit 2103 inputs the search range data G, first, (V, α) = (V1,
α1) is set. Further, the motion detection unit 2103 determines (1
The control parameters θ (| θ | ≦ π / 2) and φ corresponding to the motion amount candidates are calculated based on the expression 9), and the geometric conversion unit 2
Output to 101. Note that the relationship between the amount of motion (V, α) and the control parameters θ and φ is the same as that in the fifth embodiment, and the expression (19) is described in the description of the fifth embodiment and (10) It is derived from the relationship of Expressions (12) to (12).

【0189】 θ=α (|α|≦π/2の場合) =α±π (|α|>π/2の場合) φ=tan -1(1/Vcos α) (|θ|≦π/4の場合) =tan -1(1/Vsin α) (|θ|>π/4の場合) …(19) 次に、幾何変換部2101は、動き検出部2103より
制御パラメータθを入力して、これに基づき、外部から
入力された動画像データA(X,Y,T)を変換して幾
何変換データD(R,S,Q)を作成し、水平投影分散
計算部2102に出力する。なお、幾何変換部2101
の動作の詳細は、第6の実施形態と同じであるので、説
明を省略する。
Θ = α (when | α | ≦ π / 2) = α ± π (when | α |> π / 2) φ = tan −1 (1 / Vcos α) (| θ | ≦ π / 4) = tan −1 (1 / Vsin α) (when | θ |> π / 4) (19) Next, the geometric transformation unit 2101 inputs the control parameter θ from the motion detection unit 2103. Based on this, the moving image data A (X, Y, T) input from the outside is converted to create geometric conversion data D (R, S, Q), which is output to the horizontal projection dispersion calculation unit 2102. Note that the geometric transformation unit 2101
The details of the operation are the same as those of the sixth embodiment, and the description is omitted.

【0190】この結果、幾何変換データD(R,S,
Q)は、(19)式の関係によって、動画像データA(X,
Y,T)の動き量(V,α)に対応した制御パラメータ
θ及びφに対しては、水平方向(R軸に平行な方向)に
沿った縞状パターンを形成する。一方、動画像データA
(X,Y,T)の動き量に対応していない制御パラメー
タθ及びφに対しては、幾何変換データD(R,S,
Q)上において水平方向に沿った縞状パターンは形成さ
れない。
As a result, the geometric transformation data D (R, S,
Q) is the moving image data A (X,
For the control parameters θ and φ corresponding to the motion amounts (V, α) of (Y, T), a striped pattern is formed along the horizontal direction (the direction parallel to the R axis). On the other hand, moving image data A
For control parameters θ and φ that do not correspond to the amount of motion of (X, Y, T), geometric transformation data D (R, S,
Q) No stripe pattern along the horizontal direction is formed on the top.

【0191】次に、水平投影分散計算部2102に幾何
変換データD(R,S,Q)が入力されると、水平投影
分散計算部2102はこのデータを記憶する。さらに、
水平投影分散計算部2102は各Q毎の幾何変換データ
D(R,S,Q)上で投影分散データPVを計算し、動
き検出部2103に出力する。水平投影分散計算部21
02における投影分散データPVの計算は、第6の実施
形態と同様の方法によって行なわれ、その結果、各Q毎
の2次元パターンD(R,S,Q)が水平方向に沿った
縞状パターンを形成している場合には、投影分散データ
PVは最大となり、一方、それ以外の場合には投影分散
データPVは大きな値とはならない。
Next, when the geometric transformation data D (R, S, Q) is input to the horizontal projection variance calculation unit 2102, the horizontal projection variance calculation unit 2102 stores this data. further,
The horizontal projection variance calculation unit 2102 calculates the projection variance data PV on the geometric transformation data D (R, S, Q) for each Q, and outputs it to the motion detection unit 2103. Horizontal projection dispersion calculator 21
02 is calculated by the same method as in the sixth embodiment, and as a result, the two-dimensional pattern D (R, S, Q) for each Q is a stripe pattern along the horizontal direction. Is formed, the projection variance data PV becomes the maximum, whereas in other cases, the projection variance data PV does not become a large value.

【0192】次に、動き検出部2103は、水平投影分
散計算部2102より投影分散データPVを入力する
と、このデータを内部で記憶した最大投影分散データP
Vm(初期状態では値0を記憶)と比較し、投影分散デ
ータPVの方が大きければ、この値を最大投影分散デー
タPVmとして記憶すると共に、このときの動き量候補
(V,α)を記憶する。
Next, when the motion detection unit 2103 receives the projection variance data PV from the horizontal projection variance calculation unit 2102, the motion detection unit 2103 stores this data in the maximum projection variance data P
Compared with Vm (the value 0 is stored in the initial state), if the projection variance data PV is larger, this value is stored as the maximum projection variance data PVm and the motion amount candidate (V, α) at this time is stored. I do.

【0193】次に、動き検出部2103は、動き量候補
(V,α)をV1≦V≦V2、α1≦α≦α2の範囲内
で変更して再設定し、(19)式に基づいて制御パラメータ
θ及びφを求めた後、これを幾何変換部2101に出力
する。この第7の実施形態では、上記変更は、Vについ
ては0.5[pixel/frame]単位、αについてはπ/100単
位で行なわれる。上記制御パラメータの再設定が行なわ
れる毎に、上述と同様に、幾何変換部2101、水平投
影分散計算部2102及び動き検出部2103の動作が
行なわれる。
Next, the motion detecting section 2103 changes and resets the motion amount candidate (V, α) within the range of V1 ≦ V ≦ V2 and α1 ≦ α ≦ α2, based on the equation (19). After obtaining the control parameters θ and φ, they are output to the geometric transformation unit 2101. In the seventh embodiment, the above change is performed in units of 0.5 [pixel / frame] for V and in units of π / 100 for α. Every time the control parameters are reset, the operations of the geometric transformation unit 2101, the horizontal projection dispersion calculation unit 2102, and the motion detection unit 2103 are performed in the same manner as described above.

【0194】その結果、動き検出部2103において
は、探索範囲設定部2104が定めた探索範囲のうち、
幾何変換データD(R,S,Q)上の縞状パターンが最
も明瞭になる場合の動き量候補(V,α)が記憶される
ことになる。
As a result, in the motion detection section 2103, the search range set by the search range
The motion amount candidate (V, α) when the stripe pattern on the geometric transformation data D (R, S, Q) is the clearest is stored.

【0195】上述したように、幾何変換データD(R,
S,Q)上の縞状パターンが最も明瞭になるのは、動画
像A(X,Y,T)の動き(V,α)に応じ、(19)式の
関係より求められる制御パラメータθ及びφを用いて幾
何変換部2101を動作させた場合であるから、上記縞
パターンが最も明瞭になる場合の動き量候補は動画像A
(X,Y,T)の実際の動き量に等しい。
As described above, the geometric transformation data D (R,
The striped pattern on (S, Q) becomes the clearest depending on the control parameter θ and the control parameter θ obtained from the relationship of equation (19) according to the movement (V, α) of the moving image A (X, Y, T). Since the geometric transformation unit 2101 is operated using φ, the motion amount candidate when the above-mentioned stripe pattern becomes the clearest is the moving image A
It is equal to the actual motion amount of (X, Y, T).

【0196】そこで、動き検出部2103は、内部に記
憶された動き量(V,α)を外部へ出力する。
Therefore, the motion detection section 2103 outputs the motion amount (V, α) stored therein to the outside.

【0197】以上の動作の結果、この動画像処理装置
は、動画像データA(X,Y,T)に対する動き量
(V,α)を知ることができる。
As a result of the above operation, the moving picture processing apparatus can know the moving amount (V, α) for the moving picture data A (X, Y, T).

【0198】以上説明したように、第7の実施形態で
は、探索範囲設定部2104が動画像データA(X,
Y,T)の代表領域から動きベクトルを求め、これに基
づき動き量の探索範囲を決定し、動き検出部2103が
探索範囲に基づいて動き量候補及びこれに対応する制御
パラメータθ及びφを設定し、幾何変換部2101が制
御パラメータθ及びφに基づいて動画像データA(X,
Y,T)を幾何変換データD(R,S,Q)に変換し、
水平投影分散計算部2102が制御パラメータφに基づ
いて幾何変換データD(R,S,Q)の投影分散データ
PVを計算し、動き検出部2103が投影分散データP
Vが最大となる場合の動き量を決定する。幾何変換部2
101での処理は、動画像データA(X,Y,T)を
(X,Y)平面上で角度−θだけ回転して3次元パター
ンB(P,Q,T)を作成した後、座標軸の交換により
3次元パターンC(P,T,Q)を作成し、さらにこれ
を(R,S)平面上で−φだけ回転して幾何変換データ
D(R,S,Q)を得るため、動画像データA(X,
Y,T)が(X,Y)平面上で角度θ又はθ+π方向に
動く場合、その動きの大きさに応じた角度φを制御パラ
メータとして用いることにより、各Q毎の(R,S)平
面上の幾何変換データD(R,S,Q)には水平方向に
沿った明瞭な縞状パターンが形成される。従って、水平
投影分散計算部2102が幾何変換データD(R,S,
Q)の水平方向への投影分散値を計算して、動き検出部
2103が該投影分散値が最大となる場合の制御パラメ
ータθ及びφに対応した動き量を検出することによっ
て、動画像A(X,Y,T)の動き量を決定することが
できる。
As described above, in the seventh embodiment, the search range setting unit 2104 sets the moving image data A (X,
(Y, T), a motion vector is obtained from the representative area, a search range of the motion amount is determined based on the motion vector, and the motion detection unit 2103 sets the motion amount candidate and the corresponding control parameters θ and φ based on the search range. Then, the geometric transformation unit 2101 determines whether the moving image data A (X,
Y, T) into geometric transformation data D (R, S, Q),
The horizontal projection variance calculation unit 2102 calculates the projection variance data PV of the geometric transformation data D (R, S, Q) based on the control parameter φ, and the motion detection unit 2103 calculates the projection variance data P
The amount of motion when V is maximized is determined. Geometric transformation unit 2
In the process at 101, the three-dimensional pattern B (P, Q, T) is created by rotating the moving image data A (X, Y, T) by an angle -θ on the (X, Y) plane, Creates a three-dimensional pattern C (P, T, Q) by exchanging, and rotates it by −φ on the (R, S) plane to obtain geometric transformation data D (R, S, Q). Moving image data A (X,
When (Y, T) moves in the direction of the angle θ or θ + π on the (X, Y) plane, the angle φ corresponding to the magnitude of the movement is used as a control parameter, so that the (R, S) plane of each Q A clear striped pattern along the horizontal direction is formed in the upper geometric conversion data D (R, S, Q). Therefore, the horizontal projection variance calculation unit 2102 outputs the geometric transformation data D (R, S,
By calculating a horizontal projection variance value of Q), the motion detection unit 2103 detects a motion amount corresponding to the control parameters θ and φ when the projection variance value is the maximum, thereby obtaining a moving image A ( (X, Y, T).

【0199】(G−3)第7の実施形態の効果 第7の実施形態によれば、上述した第6の実施形態と同
様な効果を奏することができる。
(G-3) Effects of the Seventh Embodiment According to the seventh embodiment, the same effects as those of the above-described sixth embodiment can be obtained.

【0200】これに加えて、第7の実施形態によれば、
探索範囲設定部2104によって動き量の探索範囲を予
め限定するので、第6の実施形態に比べて、計算量を減
少できる。しかも、この第7の実施形態では、探索範囲
設定部2104が動きベクトルを検出して、動き量とし
て確からしい探索範囲を決定し、動き検出部2103が
該探索範囲内で動き量を検出するので、上記計算量減少
に伴う動き検出エラーは発生し難く、計算量が少なくか
つ高精度の動き検出が可能である。
In addition, according to the seventh embodiment,
Since the search range of the amount of motion is limited in advance by the search range setting unit 2104, the amount of calculation can be reduced as compared with the sixth embodiment. Moreover, in the seventh embodiment, the search range setting unit 2104 detects a motion vector, determines a search range that is likely to be a motion amount, and the motion detection unit 2103 detects a motion amount within the search range. In addition, a motion detection error due to the decrease in the amount of calculation hardly occurs, and the amount of calculation is small and highly accurate motion detection is possible.

【0201】(H)第8の実施形態 次に、本発明による動画像処理装置の第8の実施形態を
図面を参照しながら詳述する。
(H) Eighth Embodiment Next, an eighth embodiment of the moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0202】(H−1)第8の実施形態の構成 図23は、この第8の実施形態による動画像処理装置の
構成を示すブロック図である。図23において、第8の
実施形態の動画像処理装置は、幾何変換部2301、投
影分散計算部2302、動き検出部2303及びフィル
タ部2310から構成されている。ここで、幾何変換部
2301、投影分散計算部2302及び動き検出部23
03はそれぞれ、上述した第5の実施形態の対応する構
成要素と同様に機能するものであり、その詳細説明は省
略する。
(H-1) Configuration of Eighth Embodiment FIG. 23 is a block diagram showing the configuration of a moving image processing apparatus according to the eighth embodiment. In FIG. 23, the moving image processing apparatus according to the eighth embodiment includes a geometric conversion unit 2301, a projection variance calculation unit 2302, a motion detection unit 2303, and a filter unit 2310. Here, the geometric converter 2301, the projection variance calculator 2302, and the motion detector 23
03 function in the same way as the corresponding components of the fifth embodiment described above, and detailed description thereof will be omitted.

【0203】この第8の実施形態で新たに設けられたフ
ィルタ部2310は、幾何変換部2301から入力され
た幾何変換データS2302(C(P,T,Q))に対
し、動き検出部2303からの制御パラメータS230
5(φ)が規定する方向について低域遮断処理を行なっ
て得た幾何変換エッジデータS2310(C’(P,
T,Q))を投影分散計算部2302に出力するもので
ある。
The filter unit 2310 newly provided in the eighth embodiment converts the geometric transformation data S 2302 (C (P, T, Q)) inputted from the geometric transformation unit 2301 from the motion detection unit 2303. Control parameter S230
5 (φ) by performing low-frequency cutoff processing on the geometrically transformed edge data S2310 (C ′ (P,
T, Q)) to the projection variance calculation unit 2302.

【0204】従って、この実施形態の投影分散計算部2
302は、フィルタ部2310より入力された幾何変換
エッジデータS2310について、投影分散データS2
303(PV)を得て動き検出部2303に出力するよ
うになされている。
Therefore, the projection variance calculation unit 2 of this embodiment
Reference numeral 302 denotes projection dispersion data S2 for the geometric transformation edge data S2310 input from the filter unit 2310.
303 (PV) is obtained and output to the motion detection unit 2303.

【0205】(H−2)第8の実施形態の動作 次に、以上のような各部2301〜2303、2310
からなる第8の実施形態の動画像処理装置の動作を説明
する。
(H-2) Operation of Eighth Embodiment Next, each of the units 2301 to 2303, 2310 as described above
The operation of the moving image processing apparatus according to the eighth embodiment will be described.

【0206】外部からの動作開始命令によりこの動画像
処理装置は動作を開始する。このときまず、動き検出部
2303は、2つの制御パラメータθ及びφに初期値に
設定して、このうち制御パラメータθを幾何変換部23
01に、制御パラメータφをフィルタ部2310及び投
影分散計算部2302にそれぞれ出力する。
This moving image processing apparatus starts operation in response to an operation start command from outside. At this time, first, the motion detection unit 2303 sets the two control parameters θ and φ to initial values, and sets the control parameter θ among them to the geometrical conversion unit 23.
01, and outputs the control parameter φ to the filter unit 2310 and the projection variance calculation unit 2302, respectively.

【0207】その後は、今回の制御パラメータθ及びφ
についての幾何変換部2301、投影分散計算部230
2、動き検出部2303及びフィルタ部2310の一連
の処理が終了する毎に、動き検出部2303は、制御パ
ラメータθ及びφを所定範囲内で変更させる。
Thereafter, the current control parameters θ and φ
Transformation unit 2301, projection dispersion calculation unit 230
2. Each time a series of processes of the motion detection unit 2303 and the filter unit 2310 ends, the motion detection unit 2303 changes the control parameters θ and φ within a predetermined range.

【0208】ある制御パラメータθ及びφに対する幾何
変換部2301、投影分散計算部2302及び動き検出
部2303の動作は、第5の実施形態のものと同様であ
り、その詳細説明である。
The operations of the geometric converter 2301, the projection variance calculator 2302, and the motion detector 2303 for certain control parameters θ and φ are the same as those in the fifth embodiment, and will be described in detail.

【0209】外部から入力された動画像データA(X,
Y,T)を幾何変換部2301が図24に示すように変
換して得た幾何変換データC(P,T,Q)が、フィル
タ部2310に入力される。
Moving image data A (X,
Geometric transformation data C (P, T, Q) obtained by transforming (Y, T) by the geometric transformation unit 2301 as shown in FIG. 24 is input to the filter unit 2310.

【0210】フィルタ部2310に幾何変換データC
(P,T,Q)が入力されると、フィルタ部2310
は、各Q毎の2次元パターンC(P,T,Q)中の角度
φ方向に平行なエッジパターンを検出し、検出された幾
何変換エッジデータC’(P,T,Q)を投影分散計算
部2302に出力する。
The geometric conversion data C
When (P, T, Q) is input, the filter unit 2310
Detects the edge pattern parallel to the angle φ direction in the two-dimensional pattern C (P, T, Q) for each Q, and projects the detected geometrically transformed edge data C ′ (P, T, Q) by projection dispersion. Output to calculation section 2302.

【0211】この幾何変換エッジデータC’(P,T,
Q)の算出方法は、従来公知のエッジ検出方法を適用す
ることができる。この実施形態では、特に角度φ方向の
みに平行なエッジパターンを検出するため、例えば、以
下の手順(1) 及び(2) により幾何変換エッジデータC’
(P,T,Q)の算出している。
This geometrically transformed edge data C ′ (P, T,
As a calculation method of Q), a conventionally known edge detection method can be applied. In this embodiment, in order to particularly detect an edge pattern parallel only to the angle φ direction, for example, the geometric conversion edge data C ′ is obtained by the following procedures (1) and (2).
(P, T, Q) is calculated.

【0212】手順(1) パターンC(P,T,Q)の各
画素毎に画素値の傾き(gp,gt)=(√C/√P,
√T/√P)を計算する。
Procedure (1) Slope (gp, gt) of pixel value for each pixel of pattern C (P, T, Q) = (√C / √P,
√T / √P) is calculated.

【0213】手順(2) 2つの条件、p1<√(gp2
+gt2 )、及び、p2<tan -1(gt/gp)<p3
を満足する画素に対してはC’(P,T,Q)=1(エ
ッジ領域)、その他の画素に対してはC’(P,T,
Q)=0(非エッジ領域)とする。但し、p1はエッジ
と判定される画素間の変化量の最小値を表すパラメータ
であり、例えば、画素値を8ビットで記述する場合には
値16〜64程度の定数とする。p2、p3はエッジが
角度φ方向に平行であると判定するためのパラメータで
あり、p2=φ−Δφ+π/2、p3=φ+Δφ+π/
2であって、Δφはπ/50程度の定数とする。
Procedure (2) Two conditions, p1 <√ (gp 2
+ Gt 2 ) and p2 <tan −1 (gt / gp) <p3
C ′ (P, T, Q) = 1 (edge region) for pixels satisfying the following condition, and C ′ (P, T, Q) for other pixels.
Q) = 0 (non-edge area). Here, p1 is a parameter representing the minimum value of the amount of change between pixels determined to be edges. For example, when a pixel value is described in 8 bits, it is a constant of about 16 to 64. p2 and p3 are parameters for determining that the edge is parallel to the angle φ direction, and p2 = φ−Δφ + π / 2 and p3 = φ + Δφ + π /
2, and Δφ is a constant of about π / 50.

【0214】このような算出手法を適用することによ
り、角度φ方向に近い方向に平行なエッジのうち、ある
程度急峻な変化を持つもののみを検出し、これに基づき
幾何変換エッジデータC’(P,T,Q)を投影分散計
算部2302に出力する。
By applying such a calculation method, only edges having a certain steep change among edges parallel to the direction close to the angle φ direction are detected, and based on this, the geometrically transformed edge data C ′ (P , T, Q) are output to the projection variance calculation unit 2302.

【0215】上述した図24は、フィルタ部2310が
幾何変換データC(P,T,Q)中の角度φに平行なエ
ッジパターンを取り出し、幾何変換エッジデータC’
(P,T,Q)を作成した場合を示している。
In FIG. 24 described above, the filter unit 2310 extracts an edge pattern parallel to the angle φ in the geometric transformation data C (P, T, Q), and extracts the geometric transformation edge data C ′.
The case where (P, T, Q) is created is shown.

【0216】投影分散計算部2302は、入力データと
して、幾何変換エッジデータC’(P,T,Q)が入力
されるという相違があるが、その処理内容は、第5の実
施形態の投影分散計算部と同様である。すなわち、動き
検出部2303より制御パラメータφを入力して、各Q
毎の幾何変換データC’(P,T,Q)上で投影分散デ
ータPVを計算し、動き検出部2303に出力する。
The projection variance calculator 2302 has a difference that the geometrically transformed edge data C ′ (P, T, Q) is input as input data, but the processing content is the same as that of the fifth embodiment. It is the same as the calculation unit. That is, the control parameter φ is input from the motion detection section 2303, and each Q is input.
The projection variance data PV is calculated on the geometric transformation data C ′ (P, T, Q) for each and output to the motion detection unit 2303.

【0217】図25は、この第8の実施形態による投影
分散計算部2302の動作を説明する図である。図25
(a)は、この第8の実施形態の構成による動作を説明
するものであり、一方、図25(b)はフィルタ部23
10がない場合(第5の実施形態参照)の動作を説明す
るもの、すなわち、フィルタ部2310の効果を説明す
るための比較例を示したものである。
FIG. 25 is a diagram for explaining the operation of the projection variance calculation unit 2302 according to the eighth embodiment. FIG.
(A) illustrates the operation of the configuration of the eighth embodiment, while (b) of FIG.
10 illustrates an operation when there is no 10 (see the fifth embodiment), that is, illustrates a comparative example for explaining an effect of the filter unit 2310.

【0218】図25(a)に示すように、各Q毎の2次
元パターンC’(P,T,Q)が縞状パターンを形成し
ている場合には、この縞の方向と等しい角度φに対し
て、投影データPR2の変化が最大となり、投影分散デ
ータPVも最大となる。一方、この縞の方向と一致しな
い角度φに対しては、投影データPR2の変化は明瞭で
なく、その結果、投影分散データPVは大きな値とはな
らない。
As shown in FIG. 25A, when the two-dimensional pattern C ′ (P, T, Q) for each Q forms a striped pattern, the angle φ equal to the direction of the striped pattern is obtained. In contrast, the change of the projection data PR2 becomes the maximum, and the projection dispersion data PV also becomes the maximum. On the other hand, for an angle φ that does not match the direction of the stripes, the change in projection data PR2 is not clear, and as a result, projection dispersion data PV does not have a large value.

【0219】一方、仮に、フィルタ部2310を用い
ず、幾何変換データC(P,T,Q)を直接投影分散計
算部2302に入力する場合には(第5の実施形態参
照)、各Q毎の2次元パターンC(P,T,Q)が縞状
パターンを形成していても、図25(b)に示すよう
に、投影データPR1及びPR2は変化のばらつきが小
さく、投影分散データPVが最大とならない恐れがあ
る。これは入力画像を構成する画素値のダイナミックレ
ンジが狭いときに、エッジを境界とした2つの領域間の
画素値が近いために起きるものである。
On the other hand, if the geometric transformation data C (P, T, Q) is directly input to the projection variance calculation unit 2302 without using the filter unit 2310 (see the fifth embodiment), Even if the two-dimensional pattern C (P, T, Q) forms a striped pattern, as shown in FIG. 25B, the projection data PR1 and PR2 have a small variation in change, and the projection dispersion data PV May not be the maximum. This occurs when the dynamic range of the pixel values constituting the input image is narrow, because the pixel values between the two regions bordering the edge are close.

【0220】このような入力画像に対しても、この第8
の実施形態のようにフィルタ部2310が幾何変換デー
タC(P,T,Q)のエッジを予め検出して、この結果
得られる幾何変換エッジデータC’(P,T,Q)に対
して投影パターンを求めれば、図25(a)のように、
投影データPR2は明瞭な変化を持つことになる。
For such an input image, the eighth
As in the embodiment, the filter unit 2310 detects an edge of the geometric transformation data C (P, T, Q) in advance, and projects the geometric transformation edge data C ′ (P, T, Q) obtained as a result. If the pattern is obtained, as shown in FIG.
The projection data PR2 will have a clear change.

【0221】従って、この第8の実施形態におけるフィ
ルタ部2310は、縞状パターンに対する投影データに
明瞭な変化を持たせる効果がある。
Therefore, the filter unit 2310 in the eighth embodiment has an effect of giving a clear change to the projection data for the striped pattern.

【0222】以上のようなフィルタ部2310を設けた
ことによる動作の違いを除けば、第5の実施形態と同様
な動作を行なうので、これ以上の動作説明は省略する。
Since the same operation as in the fifth embodiment is performed except for the difference in operation due to the provision of the filter unit 2310 as described above, further description of the operation will be omitted.

【0223】以上説明したように、第8の実施形態で
は、幾何変換部2301が制御パラメータθに基づいて
動画像データA(X,Y,T)を幾何変換データC
(P,T,Q)に変換し、フィルタ部2310が制御パ
ラメータφに基づいて幾何変換データC(P,T,Q)
中のエッジを示す幾何変換エッジデータC’(P,T,
Q)を作成し、投影分散計算部2302が制御パラメー
タφに基づいて幾何変換エッジデータC’(P,T,
Q)の投影分散データPVを計算し、動き検出部230
3が投影分散データPVが最大となる場合の制御パラメ
ータθ及びφを決定する。幾何変換部2301での処理
では、動画像データA(X,Y,T)を(X,Y)平面
上で角度−θだけ回転して3次元パターンB(P,Q,
T)を作成した後、座標軸の交換により幾何変換データ
C(P,T,Q)を得るが、さらにその後、フィルタ部
2310が幾何変換データC(P,T,Q)のエッジを
表す幾何変換エッジデータC’(P,T,Q)を計算す
るので、動画像データA(X,Y,T)が(X,Y)平
面上で角度θ又はθ+π方向に動く場合には、各Q毎の
(P,T)平面上の幾何変換エッジデータC’(P,
T,Q)には明瞭な縞状パターンが形成され、さらに、
その縞の方向φは該動きの大きさに対応することにな
る。
As described above, in the eighth embodiment, the geometric conversion unit 2301 converts the moving image data A (X, Y, T) into the geometric conversion data C based on the control parameter θ.
(P, T, Q), and the filter unit 2310 converts the geometrically transformed data C (P, T, Q) based on the control parameter φ.
Geometric edge data C ′ (P, T,
Q), and the projection variance calculation unit 2302 generates the geometrically transformed edge data C ′ (P, T,
The projection dispersion data PV of Q) is calculated, and the motion detection unit 230 is calculated.
3 determines the control parameters θ and φ when the projection dispersion data PV is maximized. In the processing performed by the geometric transformation unit 2301, the moving image data A (X, Y, T) is rotated by an angle -θ on the (X, Y) plane, and the three-dimensional pattern B (P, Q,
T), the geometric transformation data C (P, T, Q) is obtained by exchanging the coordinate axes. After that, the filter unit 2310 further performs the geometric transformation representing the edge of the geometric transformation data C (P, T, Q). Since the edge data C ′ (P, T, Q) is calculated, if the moving image data A (X, Y, T) moves in the angle θ or θ + π direction on the (X, Y) plane, , The geometrically transformed edge data C ′ (P, T) on the (P, T) plane
T, Q), a clear stripe pattern is formed.
The direction φ of the stripe corresponds to the magnitude of the movement.

【0224】従って、投影分散計算部2302が幾何変
換エッジデータC’(P,T,Q)の方向φへの投影分
散値を計算して、動き検出部2303が該投影分散値が
最大となる場合の制御パラメータθ及びφを検出するこ
とによって、θ及びφの値から動画像A(X,Y,T)
の動き量を決定することができる。
Therefore, the projection variance calculation unit 2302 calculates the projection variance value of the geometrically transformed edge data C ′ (P, T, Q) in the direction φ, and the motion detection unit 2303 maximizes the projection variance value. By detecting the control parameters θ and φ in the case, the moving image A (X, Y, T) is obtained from the values of θ and φ.
Can be determined.

【0225】(H−3)第8の実施形態の効果 第8の実施形態によっても、上述した第5の実施形態の
動画像処理装置と同様な効果を奏することができる。
(H-3) Effects of the Eighth Embodiment The eighth embodiment can provide the same effects as those of the moving picture processing device of the fifth embodiment described above.

【0226】これに加えて、第8の実施形態によれば、
フィルタ部2310を設け、幾何変換エッジデータC’
(P,T,Q)に対して投影分散の算出処理を施した
後、動き量を検出するようにしたので、入力画像を構成
する画素値のダイナミックレンジの如何に関わらず、安
定に動き量を検出することができる。
In addition to this, according to the eighth embodiment,
A filter unit 2310 is provided, and the geometric transformation edge data C ′ is provided.
After performing the projection variance calculation process on (P, T, Q), the motion amount is detected. Therefore, regardless of the dynamic range of the pixel values constituting the input image, the motion amount is stably determined. Can be detected.

【0227】(I)第9の実施形態 次に、本発明による動画像処理装置の第9の実施形態を
図面を参照しながら詳述する。
(I) Ninth Embodiment Next, a ninth embodiment of the moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0228】(I−1)第9の実施形態の構成 図26は、この第9の実施形態による動画像処理装置の
構成を示すブロック図である。図26において、第9の
実施形態の動画像処理装置は、幾何変換部2601、水
平投影分散計算部2602、動き検出部2603及びフ
ィルタ部2610から構成されている。
(I-1) Configuration of the Ninth Embodiment FIG. 26 is a block diagram showing the configuration of a moving image processing apparatus according to the ninth embodiment. In FIG. 26, the moving image processing apparatus according to the ninth embodiment includes a geometric conversion unit 2601, a horizontal projection variance calculation unit 2602, a motion detection unit 2603, and a filter unit 2610.

【0229】上述した第8の実施形態は、既述した第5
の実施形態の技術的思想にフィルタ部を追加したもので
あったが、この第9の実施形態は、既述した第6の実施
形態の技術的思想にフィルタ部を追加したものである。
そのため、幾何変換部2601、水平投影分散計算部2
602及び動き検出部2603はそれぞれ、第6の実施
形態の対応する構成要素と同様に機能するものであり、
その詳細説明は省略する。
The above-described eighth embodiment is similar to the above-described fifth embodiment.
Although a filter unit is added to the technical idea of the sixth embodiment, the ninth embodiment is obtained by adding a filter unit to the technical idea of the sixth embodiment described above.
Therefore, the geometric transformation unit 2601 and the horizontal projection dispersion calculation unit 2
602 and the motion detection unit 2603 each function similarly to the corresponding component of the sixth embodiment.
The detailed description is omitted.

【0230】この第9の実施形態で新たに設けられたフ
ィルタ部2610は、幾何変換部2601から入力され
た幾何変換データS2602に対して低域遮断処理を行
なって得た幾何変換エッジデータS2610(D’
(R,S,Q))を水平投影分散計算部2602に出力
するものである。なお、フィルタ部2610を設けた意
味合いは、第8の実施形態と同様である。
The filter unit 2610 newly provided in the ninth embodiment performs the low frequency cutoff processing on the geometric conversion data S2602 input from the geometric conversion unit 2601, and obtains the geometric conversion edge data S2610 ( D '
(R, S, Q)) to the horizontal projection dispersion calculation unit 2602. The meaning of providing the filter unit 2610 is the same as that of the eighth embodiment.

【0231】このように水平投影分散計算部2602に
は、幾何変換部2601から出力された幾何変換データ
S2602が入力されるのではなく、フィルタ部261
0から出力された幾何変換エッジデータS2610が入
力されるので、水平投影分散計算部2602は、この幾
何変換エッジデータS2610を処理して投影分散デー
タS2603(PV)を得て動き検出部2603に出力
する。
As described above, the horizontal projection variance calculation unit 2602 does not receive the geometric transformation data S2602 output from the geometric transformation unit 2601, but the filter unit 261.
Since the geometric transformation edge data S2610 output from 0 is input, the horizontal projection variance calculation unit 2602 processes the geometric transformation edge data S2610 to obtain projection variance data S2603 (PV) and outputs it to the motion detection unit 2603. I do.

【0232】(I−2)第9の実施形態の動作 次に、以上のような各部2601〜2603、2610
からなる第9の実施形態の動画像処理装置の動作を説明
する。
(I-2) Operation of the Ninth Embodiment Next, the components 2601 to 2603 and 2610 as described above
The operation of the moving image processing apparatus according to the ninth embodiment will be described.

【0233】なお、上述したように、幾何変換部260
1、水平投影分散計算部2602及び動き検出部260
3はそれぞれ、第6の実施形態の対応する構成要素と同
様に機能し、動作するものであるので、その動作説明は
省略し、以下では、フィルタ部2610の動作を中心に
説明する。
As described above, the geometric transformation unit 260
1, horizontal projection dispersion calculation unit 2602 and motion detection unit 260
3 operate and operate in the same manner as the corresponding components of the sixth embodiment, and therefore, the description of the operation thereof is omitted, and the following mainly describes the operation of the filter unit 2610.

【0234】幾何変換部2601が、図27に示すよう
に、また、第6の実施形態で動作説明したように、入力
された動画像データA(X,Y,T)を順次変換処理し
て得た幾何変換データD(R,S,Q)がフィルタ部2
610に与えられる。
The geometric conversion unit 2601 sequentially converts the input moving image data A (X, Y, T) as shown in FIG. 27 and as described in the operation of the sixth embodiment. The obtained geometric transformation data D (R, S, Q) is applied to the filter unit 2
610.

【0235】フィルタ部2610に幾何変換データD
(R,S,Q)が入力されると、フィルタ部2610
は、各Q毎の2次元パターンD(R,S,Q)中の水平
方向に平行なエッジパターンを検出し、これにより得ら
れた幾何変換エッジデータD’(R,S,Q)を水平投
影分散計算部2602に出力する。
The geometric conversion data D is supplied to the filter unit 2610.
When (R, S, Q) is input, the filter unit 2610
Detects the edge pattern parallel to the horizontal direction in the two-dimensional pattern D (R, S, Q) for each Q, and converts the obtained geometrically transformed edge data D ′ (R, S, Q) to the horizontal direction. Output to the projection variance calculation unit 2602.

【0236】この幾何変換エッジデータD’(R,S,
Q)の算出方法は、第8の実施形態と同様、従来公知の
エッジ検出方法を適用することができる。この第9の実
施形態では、第8の実施形態に記載の方法を変形し、以
下の手順(1) 及び(2) により、幾何変換エッジデータ
D’(R,S,Q)の算出する。
This geometrically transformed edge data D '(R, S,
As the calculation method of Q), similarly to the eighth embodiment, a conventionally known edge detection method can be applied. In the ninth embodiment, the method described in the eighth embodiment is modified, and the geometric transformation edge data D ′ (R, S, Q) is calculated by the following procedures (1) and (2).

【0237】手順(1) パターンD(R,S,Q)の各
画素毎に画素値の傾き(gr,gs)=(√D/√R,
√D/√S)を計算する。
Procedure (1) The gradient (gr, gs) of the pixel value for each pixel of the pattern D (R, S, Q) = (√D / √R,
√D / √S) is calculated.

【0238】手順(2) 2つの条件、p1<√(gr2
+gs2 )、及び、p2<tan -1(gs/gr)<p3
を満足する画素に対してはD’(R,S,Q)=1(エ
ッジ領域)、その他の画素に対してはD’(R,S,
Q)=0(非エッジ領域)とする。但し、p1はエッジ
と判定される画素間の変化量の最小値を表すパラメータ
であり、例えば、画素値を8ビットで記述する場合には
値16〜64程度の定数とする。p2、p3は水平方向
(R軸に平行な方向)に平行であると判定するためのパ
ラメータであり、p2=−Δφ+π/2、p3=Δφ+
π/2であって、Δφはπ/50程度の定数とする。
Procedure (2) Two conditions, p1 <√ (gr 2
+ Gs 2 ) and p2 <tan −1 (gs / gr) <p3
D ′ (R, S, Q) = 1 (edge region) for pixels satisfying the following condition, and D ′ (R, S, Q) for other pixels.
Q) = 0 (non-edge area). Here, p1 is a parameter representing the minimum value of the amount of change between pixels determined to be edges. For example, when a pixel value is described in 8 bits, it is a constant of about 16 to 64. p2 and p3 are parameters for judging that they are parallel in the horizontal direction (direction parallel to the R axis), and p2 = −Δφ + π / 2 and p3 = Δφ +
π / 2, and Δφ is a constant of about π / 50.

【0239】この算出手法を適用することにより、水平
方向に近いエッジのうちある程度急峻な変化を持つもの
のみを検出して、これに基づき幾何変換エッジデータ
D’(R,S,Q)を出力する。
By applying this calculation method, only edges having a certain degree of sharp change among edges close to the horizontal direction are detected, and geometric transformation edge data D '(R, S, Q) is output based on the detected edges. I do.

【0240】その結果、上述した図27に示すように、
フィルタ部2610が幾何変換データD(R,S,Q)
中の水平方向のエッジパターンを取り出し、幾何変換エ
ッジデータD’(R,S,Q)を作成する。
As a result, as shown in FIG.
The filter unit 2610 converts the geometric transformation data D (R, S, Q)
The middle horizontal edge pattern is extracted, and geometric transformation edge data D '(R, S, Q) is created.

【0241】水平投影分散計算部2602は、入力デー
タとして、幾何変換エッジデータD’(R,S,Q)が
入力されるという相違があるが、その処理内容は、第6
の実施形態の水平投影分散計算部と同様である。すなわ
ち、水平投影分散計算部2602は、各Q毎の幾何変換
エッジデータD’(R,S,Q)上で投影分散データP
Vを計算し、動き検出部2603に出力する。
The horizontal projection variance calculation unit 2602 has a difference that the geometrically converted edge data D ′ (R, S, Q) is input as input data.
This is the same as the horizontal projection variance calculation unit of the embodiment. That is, the horizontal projection variance calculation unit 2602 uses the projection variance data P ′ on the geometric transformation edge data D ′ (R, S, Q) for each Q.
V is calculated and output to the motion detection unit 2603.

【0242】図28は、この第9の実施形態による水平
投影分散計算部2602の動作を説明する図である。図
28(a)は、この第9の実施形態の構成による動作を
説明するものであり、一方、図28(b)は、フィルタ
部2610を用いない場合の動作を説明するもの、逆に
言えば、フィルタ部2610の効果を説明するための比
較例を示したものある。
FIG. 28 is a diagram for explaining the operation of the horizontal projection dispersion calculation unit 2602 according to the ninth embodiment. FIG. 28A illustrates the operation according to the configuration of the ninth embodiment, while FIG. 28B illustrates the operation when the filter unit 2610 is not used, and conversely. For example, a comparative example for explaining the effect of the filter unit 2610 is shown.

【0243】図28(a)に示すように、各Q毎の2次
元パターンD’(R,S,Q)が水平方向に沿った縞状
パターンを形成している場合には、投影データPR1の
変化が最大となり、投影分散データPVも最大となる。
一方、D’(R,S,Q)が水平方向に沿った縞状パタ
ーンを形成していない場合には、投影データPR1の変
化は明瞭でなく、その結果、投影分散データPVは大き
な値とはならない。
As shown in FIG. 28A, when the two-dimensional pattern D '(R, S, Q) for each Q forms a striped pattern along the horizontal direction, the projection data PR1 Is maximum, and the projection dispersion data PV is also maximum.
On the other hand, when D ′ (R, S, Q) does not form a stripe pattern along the horizontal direction, the change in the projection data PR1 is not clear, and as a result, the projection dispersion data PV has a large value. Not be.

【0244】一方、仮にフィルタ部2610を用いず、
幾何変換データD(R,S,Q)を直接投影分散計算部
2602に入力した場合には、各Q毎の2次元パターン
D(R,S,Q)が縞状パターンを形成していても、図
28(b)に示すように、投影データPR1の変化はさ
ほど大きくなく、投影分散データPVが最大とならない
恐れがある。これは入力画像を構成する画素値のダイナ
ミックレンジが狭いときに、エッジを境界とした2つの
領域間の画素値が近いために起きるものである。
On the other hand, if the filter section 2610 is not used,
When the geometric transformation data D (R, S, Q) is directly input to the projection variance calculation unit 2602, even if the two-dimensional pattern D (R, S, Q) for each Q forms a striped pattern. As shown in FIG. 28B, the change of the projection data PR1 is not so large, and there is a possibility that the projection dispersion data PV does not become the maximum. This occurs when the dynamic range of the pixel values constituting the input image is narrow, because the pixel values between the two regions bordering the edge are close.

【0245】このような入力画像に対しても、第9の実
施形態のように、フィルタ部2610が幾何変換データ
D(R,S,Q)のエッジを予め検出して、この結果得
られる幾何変換エッジデータD’(R,S,Q)に対し
て投影パターンを求めれば、図28(a)のように、投
影データPR1は明瞭な変化を持つことになる。
For such an input image, as in the ninth embodiment, the filter unit 2610 detects the edge of the geometric conversion data D (R, S, Q) in advance, and obtains the resulting geometric image. If a projection pattern is obtained for the converted edge data D '(R, S, Q), the projection data PR1 has a clear change as shown in FIG.

【0246】従って、この第9の実施形態におけるフィ
ルタ部2610は、縞状パターンに対する投影データに
明瞭な変化を持たせる効果がある。
Therefore, the filter section 2610 according to the ninth embodiment has the effect of giving a clear change to the projection data for the striped pattern.

【0247】以上のようなフィルタ部2610を設けた
ことによる動作の違いを除けば、第6の実施形態と同様
な動作を行なうので、これ以上の動作説明は省略する。
Except for the difference in operation due to the provision of the filter unit 2610 as described above, the same operation as in the sixth embodiment is performed, so that further description of the operation will be omitted.

【0248】以上説明したように、第9の実施形態で
は、幾何変換部2601が制御パラメータθ及びφに基
づいて動画像データA(X,Y,T)を幾何変換データ
D(R,S,Q)に変換し、フィルタ部2610が幾何
変換データD(R,S,Q)中のエッジを示す幾何変換
エッジデータD’(R,S,Q)を作成し、水平投影分
散計算部2602が幾何変換エッジデータD’(R,
S,Q)の投影分散データPVを計算し、動き検出部2
603が投影分散データPVが最大となる場合の制御パ
ラメータθ及びφを決定する。
As described above, in the ninth embodiment, the geometric conversion unit 2601 converts the moving image data A (X, Y, T) into the geometric conversion data D (R, S, Q), the filter unit 2610 creates geometric transformation edge data D ′ (R, S, Q) indicating an edge in the geometric transformation data D (R, S, Q), and the horizontal projection variance calculation unit 2602 Geometric transformation edge data D '(R,
(S, Q) of the projection variance data PV
603 determines the control parameters θ and φ when the projection dispersion data PV is maximized.

【0249】幾何変換部2601での処理は、動画像デ
ータA(X,Y,T)を(X,Y)平面上で角度−θだ
け回転して3次元パターンB(P,Q,T)を作成した
後、座標軸の交換により3次元パターンC(P,T,
Q)を作成し、さらにこれを(R,S)平面上で−φだ
け回転して幾何変換データD(R,S,Q)を得るが、
さらにその後、フィルタ部2610が幾何変換データD
(R,S,Q)のエッジを表す幾何変換エッジデータ
D’(R,S,Q)を計算するので、動画像データA
(X,Y,T)が(X,Y)平面上で角度θ又はθ+π
方向に動く場合、その動きの大きさに応じた角度φを制
御パラメータとして用いることにより、各Q毎の(R,
S)平面上の幾何変換エッジデータD’(R,S,Q)
には水平方向に沿った明瞭な縞状パターンが形成され
る。
The processing in the geometric conversion unit 2601 is performed by rotating the moving image data A (X, Y, T) by an angle -θ on the (X, Y) plane to obtain a three-dimensional pattern B (P, Q, T). Is created, the three-dimensional pattern C (P, T,
Q) is created and further rotated by −φ on the (R, S) plane to obtain geometric transformation data D (R, S, Q).
Thereafter, the filter unit 2610 outputs the geometric transformation data D
Since the geometric transformation edge data D '(R, S, Q) representing the edge of (R, S, Q) is calculated, the moving image data A
(X, Y, T) is the angle θ or θ + π on the (X, Y) plane.
When moving in the direction, the angle φ corresponding to the magnitude of the movement is used as a control parameter, so that (R,
S) Geometric transformation edge data D '(R, S, Q) on a plane
Has a clear stripe pattern along the horizontal direction.

【0250】従って、水平投影分散計算部2602が幾
何変換エッジデータD’(R,S,Q)の水平方向への
投影分散値を計算して、動き検出部2603が該投影分
散値が最大となる場合の制御パラメータθ及びφを検出
することによって、θ及びφの値から動画像A(X,
Y,T)の動き量を決定することができる。
Accordingly, the horizontal projection variance calculation unit 2602 calculates the horizontal variance of the geometrically transformed edge data D ′ (R, S, Q), and the motion detection unit 2603 determines that the maximum variance is maximum. By detecting the control parameters θ and φ in the following case, the moving image A (X,
Y, T).

【0251】(I−3)第9の実施形態の効果 第9の実施形態によっても、上述した第6の実施形態と
同様な効果を奏することができる。
(I-3) Effects of the Ninth Embodiment The ninth embodiment can also provide the same effects as those of the above-described sixth embodiment.

【0252】これに加えて、第9の実施形態によれば、
時間軸Tを含む各Q毎の(P,T)平面を幾何学的に
(R,S)平面に変換し、これにより動画像の時間変化
が表現された(R,S)平面上の幾何変換エッジデータ
D’(R,S,Q)上のパターンの特徴を用いて動き量
を検出するので、入力画像を構成する画素値のダイナミ
ックレンジの如何に関わらず、安定に動き量を検出する
ことができる。
In addition to this, according to the ninth embodiment,
The (P, T) plane for each Q including the time axis T is geometrically converted to the (R, S) plane, and thereby the time change of the moving image is expressed on the (R, S) plane. Since the amount of motion is detected using the feature of the pattern on the converted edge data D '(R, S, Q), the amount of motion is detected stably regardless of the dynamic range of the pixel values constituting the input image. be able to.

【0253】(J)第10の実施形態 次に、本発明による動画像処理装置の第10の実施形態
を図面を参照しながら詳述する。
(J) Tenth Embodiment Next, a moving image processing apparatus according to a tenth embodiment of the present invention will be described in detail with reference to the drawings.

【0254】(J−1)第10の実施形態の構成 図29は、この第10の実施形態による動画像処理装置
の構成を示すブロック図である。図29において、第1
0の実施形態の動画像処理装置は、幾何変換部290
1、フィルタ付水平投影分散計算部2902及び動き検
出部2903から構成されている。
(J-1) Configuration of the Tenth Embodiment FIG. 29 is a block diagram showing the configuration of a moving image processing apparatus according to the tenth embodiment. In FIG. 29, the first
0 of the moving image processing apparatus according to the first embodiment.
1. It comprises a horizontal projection variance calculation unit 2902 with a filter and a motion detection unit 2903.

【0255】この第10の実施形態も、第9の実施形態
と同様に、既述した第6の実施形態の技術的思想にフィ
ルタリングの機能を追加したものである。しかし、第1
0の実施形態は、第9の実施形態のフィルタ部2610
及び水平投影分散計算部2602を融合させたフィルタ
付水平投影分散計算部2902を設けることにより、既
述した第6の実施形態の技術的思想にフィルタリングの
機能を追加している。そのため、幾何変換部2901及
び動き検出部2903は、第6の実施形態の対応する構
成要素と同様に機能するものであり、その詳細説明は省
略する。
In the tenth embodiment, similarly to the ninth embodiment, a filtering function is added to the technical idea of the sixth embodiment. But the first
0 is the same as the filter unit 2610 of the ninth embodiment.
By providing a horizontal projection variance calculation unit 2902 with a filter obtained by fusing the horizontal projection variance calculation unit 2602 with the horizontal projection variance calculation unit 2602, a filtering function is added to the technical idea of the sixth embodiment described above. Therefore, the geometric conversion unit 2901 and the motion detection unit 2903 function in the same manner as the corresponding components of the sixth embodiment, and a detailed description thereof will be omitted.

【0256】フィルタ付水平投影分散計算部2902
は、幾何変換部2901より幾何変換データS2902
(D(R,S,Q))を入力し、それに対して投影処
理、低域遮断処理を施した後に得た投影分散データS2
903(PV)を動き検出部2903に出力するもので
ある。
Horizontal variance calculator with filter 2902
Is obtained from the geometric transformation data S2902 by the geometric transformation unit 2901.
(D (R, S, Q)), and the projection variance data S2 obtained after performing projection processing and low-frequency cutoff processing on it.
903 (PV) is output to the motion detection unit 2903.

【0257】(J−1)第10の実施形態の動作 次に、以上のような各部2901〜2903からなる第
10の実施形態の動画像処理装置の動作を説明する。
(J-1) Operation of the Tenth Embodiment Next, the operation of the moving image processing apparatus according to the tenth embodiment, which includes the units 2901 to 2903 as described above, will be described.

【0258】なお、上述したように、幾何変換部290
1及び動き検出部2903はそれぞれ、第6の実施形態
の対応する構成要素と同様に機能し、動作するものであ
るので、その動作説明は省略し、以下では、フィルタ付
水平投影分散計算部2902の動作を中心に説明する。
As described above, the geometric transformation unit 290
1 and the motion detection unit 2903 function and operate in the same manner as the corresponding components of the sixth embodiment, so that the description of the operation is omitted, and the horizontal projection variance calculation unit with filter 2902 will be described below. The operation will be mainly described.

【0259】幾何変換部2601が、上述した図18に
示すように、また、第6の実施形態で動作説明したよう
に、入力された動画像データA(X,Y,T)を順次変
換処理して得た幾何変換データD(R,S,Q)がフィ
ルタ付水平投影分散計算部2902に与えられる。
The geometric conversion unit 2601 sequentially converts the input moving image data A (X, Y, T) as shown in FIG. 18 and described in the operation of the sixth embodiment. The obtained geometric transformation data D (R, S, Q) is provided to the horizontal projection dispersion calculation unit with filter 2902.

【0260】フィルタ付水平投影分散計算部2902に
幾何変換データD(R,S,Q)が入力されると、フィ
ルタ付水平投影分散計算部2902は、まず、各Q毎の
幾何変換データD(R,S,Q)上で水平方向への投影
データPR1を計算する。
When the geometric transformation data D (R, S, Q) is input to the horizontal projection variance calculation unit with filter 2902, the horizontal projection variance calculation unit with filter 2902 firstly converts the geometric transformation data D ( R, S, Q) to calculate the projection data PR1 in the horizontal direction.

【0261】さらに、フィルタ付水平投影計算部290
2は投影データPR1に対して、エッジ検出の処理(フ
ィルタリング)を行ない、その結果を投影データPR2
とする。このエッジ検出の方法としては、従来公知のエ
ッジ検出方法を適用することができる。例えば、投影デ
ータPR1上の局所データによるコンボリューションフ
ィルタを用いる。すなわち、投影データPR2は、(20)
式によって算出することができる。但し、w(i)はフ
ィルタ係数でであり、例えば、w(0)=1.0,w
(1)=w(−1)=0.5,w(eise)=0とす
る。また、(20)式における総和Σはiについてである。
Further, the horizontal projection calculation unit with filter 290
2 performs edge detection processing (filtering) on the projection data PR1 and outputs the result to the projection data PR2.
And As the edge detection method, a conventionally known edge detection method can be applied. For example, a convolution filter based on local data on the projection data PR1 is used. That is, the projection data PR2 is (20)
It can be calculated by an equation. Here, w (i) is a filter coefficient, for example, w (0) = 1.0, w
(1) = w (−1) = 0.5, w (eise) = 0. The sum Σ in the equation (20) is for i.

【0262】 PR2(s)=|Σw(i)PR1(s+i)| …(20) (20)式で表されるコンボリューションフィルタを適用す
れば、投影データPR1の変化が少なければ投影データ
PR2は0に近い値となり、逆に投影データPR1の変
化が大きければ投影データPR2は大きい値となる。従
って、投影データPR2は、投影データPR1の変化量
に応じた値を持つことになる。
PR2 (s) = | Σw (i) PR1 (s + i) | (20) By applying the convolution filter expressed by the equation (20), if the change in the projection data PR1 is small, the projection data PR2 becomes The value becomes close to 0. Conversely, if the change in the projection data PR1 is large, the projection data PR2 has a large value. Therefore, the projection data PR2 has a value corresponding to the change amount of the projection data PR1.

【0263】次に、フィルタ付水平投影分散計算部29
02は、全てのQの値に渡る投影データPR2の分散値
を計算し、これを投影分散データPVとして動き検出部
2903に出力する。
Next, the horizontal projection dispersion calculation unit with filter 29
02 calculates the variance of the projection data PR2 over all the Q values, and outputs this to the motion detection unit 2903 as projection variance data PV.

【0264】図30は、この第10の実施形態によるフ
ィルタ付水平投影分散計算部2902の動作を説明する
図である。
FIG. 30 is a diagram for explaining the operation of the horizontal projection variance calculating unit with filter 2902 according to the tenth embodiment.

【0265】入力された幾何変換データD(R,S,
Q)が水平方向の縞状パターンを形成する場合(=動画
像の動きに対応した制御パラメータθ及びφを用いて幾
何変換部2901を動作させた場合)、画像のダイナミ
ックレンジが狭ければ、フィルタ付水平投影分散計算部
2902により得られる投影データPR1は明瞭な変化
を示さない恐れがある。(20)式の計算により投影データ
PR2を求めると、投影データPR1の変化点に応じて
明瞭な変化を持つパターンが得られる。従って、投影分
散データPVは大きい値となる。
The inputted geometric transformation data D (R, S,
If Q) forms a horizontal stripe pattern (= if the geometric transformation unit 2901 is operated using the control parameters θ and φ corresponding to the motion of the moving image), if the dynamic range of the image is narrow, The projection data PR1 obtained by the horizontal projection dispersion calculation unit with filter 2902 may not show a clear change. When the projection data PR2 is obtained by the calculation of the expression (20), a pattern having a clear change according to the change point of the projection data PR1 is obtained. Therefore, the projection dispersion data PV has a large value.

【0266】一方、入力された幾何変換データD(R,
S,Q)が水平方向の縞状パターンを形成しない場合
(=動画像の動きに対応しない制御パラメータθ及びφ
を用いて幾何変換部2901を動作させた場合)には投
影データPR1は上記の場合に比べ、より変化の少ない
パターンとなるので、投影データPR2もまた明瞭な変
化を持たず、従って、投影分散データPVは小さい値と
なる。
On the other hand, the input geometric transformation data D (R,
S, Q) do not form a horizontal stripe pattern (= control parameters θ and φ that do not correspond to the motion of a moving image)
When the geometric transformation unit 2901 is operated by using), the projection data PR1 has a pattern with less change than in the above case, so that the projection data PR2 also has no clear change, and therefore, the projection variance. The data PV has a small value.

【0267】投影データPR1に対する分散値によって
も、縞状パターンを呈しているか否かの違いを知ること
は可能であるが、この第10の実施形態のように、エッ
ジ検出された投影データPR2に対する分散値を用いる
ことによって、縞状パターンを呈している場合の分散値
と縞状パターンを呈していない場合の分散値との差が広
がるので、該分散値によって両者の場合を判別すること
が容易になる。
Although it is possible to know the difference between the presence and absence of a striped pattern by the variance value for the projection data PR1, as in the tenth embodiment, the difference between the projection data PR2 and the edge-detected projection data PR2 is determined. By using the variance value, the difference between the variance value in the case of exhibiting a striped pattern and the variance value in the case of not exhibiting a striped pattern is widened, so that it is easy to determine both cases based on the variance value. become.

【0268】これ以降に動き検出部2903が行なう処
理は、上述したように、第6の実施形態と同様である。
The processing performed by the motion detecting section 2903 thereafter is the same as in the sixth embodiment, as described above.

【0269】以上説明したように、第10の実施形態で
は、幾何変換部2901が制御パラメータθ及びφに基
づいて動画像データA(X,Y,T)を幾何変換データ
D(R,S,Q)に変換し、フィルタ付水平投影分散計
算部2902が幾何変換データD(R,S,Q)の投影
データの変化量に基づき投影分散データPVを計算し、
動き検出部2903が投影分散データPVが最大となる
場合の制御パラメータθ及びφを決定する。
As described above, in the tenth embodiment, the geometric transformation unit 2901 transforms the moving image data A (X, Y, T) into the geometric transformation data D (R, S, S) based on the control parameters θ and φ. Q), and the horizontal projection variance calculation unit with filter 2902 calculates the projection variance data PV based on the change amount of the projection data of the geometric transformation data D (R, S, Q),
The motion detection unit 2903 determines the control parameters θ and φ when the projection dispersion data PV is maximized.

【0270】幾何変換部2901での処理は、動画像デ
ータA(X,Y,T)を(X,Y)平面上で角度−θだ
け回転して3次元パターンB(P,Q,T)を作成した
のち、座標軸の交換により3つのQの値に対してのみ3
次元パターンC(P,T,Q)を作成し、さらにこれを
(R,S)平面上で−φだけ回転して幾何変換データD
(R,S,Q)を得るため、動画像データA(X,Y,
T)が(X,Y)平面上で角度θ又はθ+π方向に動く
場合、その動きの大きさに応じた角度φを制御パラメー
タとして用いることにより、各Q毎の(R,S)平面上
の幾何変換データD(R,S,Q)には水平方向に沿っ
た縞状パターンが形成される。さらに、フィルタ付水平
投影分散計算部2902での処理により、該縞状パター
ンのダイナミックレンジの如何にかかわらず投影分散値
は大きい値となる。
The processing in the geometric transformation unit 2901 is such that the moving image data A (X, Y, T) is rotated on the (X, Y) plane by an angle -θ to obtain a three-dimensional pattern B (P, Q, T). Is created, and only three Q values are changed by exchanging the coordinate axes.
A dimensional pattern C (P, T, Q) is created, and this is rotated by -φ on the (R, S) plane to convert the geometric transformation data D
In order to obtain (R, S, Q), moving image data A (X, Y,
T) moves in the direction of the angle θ or θ + π on the (X, Y) plane, the angle φ corresponding to the magnitude of the movement is used as a control parameter, so that each Q can be moved on the (R, S) plane. A striped pattern along the horizontal direction is formed on the geometric transformation data D (R, S, Q). Further, by the processing in the horizontal projection dispersion calculation unit with filter 2902, the projection dispersion value becomes a large value regardless of the dynamic range of the striped pattern.

【0271】従って、動き検出部2903がこの投影分
散値が最大となる場合の制御パラメータθ及びφを検出
することによって、θ及びφの値から動画像A(X,
Y,T)の動き量を決定することができる。
Therefore, the motion detector A 2903 detects the control parameters θ and φ when the projection variance value is maximized, and the motion image A (X,
Y, T).

【0272】(J−3)第10の実施形態の効果 この第10の実施形態によっても、上述した第9の実施
形態と同様な効果を奏することができる。
(J-3) Effects of the Tenth Embodiment The tenth embodiment can provide the same effects as the ninth embodiment described above.

【0273】これに加えて、フィルタ処理を、1次元デ
ータである投影データPR1に対して行なうので、第9
の実施形態に比べ、計算量を減らすことができるという
効果もある。
In addition, since the filtering process is performed on the projection data PR1 which is one-dimensional data, the ninth
There is also an effect that the amount of calculation can be reduced as compared with the embodiment.

【0274】(K)第11の実施形態 次に、本発明による動画像処理装置の第11の実施形態
を図面を参照しながら詳述する。
(K) Eleventh Embodiment Next, an eleventh embodiment of the moving image processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0275】(K−1)第11の実施形態の構成 図31は、この第11の実施形態による動画像処理装置
の構成を示すブロック図である。図31において、第1
1の実施形態の動画像処理装置は、幾何変換部310
1、水平投影分散計算部3102、動き検出部310
3、フィルタ部3110及びパターン重畳部3111か
ら構成されている。
(K-1) Configuration of Eleventh Embodiment FIG. 31 is a block diagram showing a configuration of a moving image processing apparatus according to the eleventh embodiment. In FIG. 31, the first
The moving image processing apparatus according to the first embodiment includes a geometric conversion unit 310
1, horizontal projection dispersion calculation unit 3102, motion detection unit 310
3, a filter unit 3110 and a pattern superimposing unit 3111.

【0276】図31及び図26からの比較から明らかな
ように、この第11の実施形態は、上述した第9の実施
形態の構成にさらにパターン重畳部3111を設けたこ
とを特徴とするものである。そのため、幾何変換部31
01、水平投影分散計算部3102、動き検出部310
3及びフィルタ部3110は、第9の実施形態の対応す
る構成要素と同様に機能する。但し、水平投影分散計算
部3102は、パターン重畳部3111が設けられたこ
とにより、入力データが第9の実施形態と異なっている
ので、その処理は、第9の実施形態のものと僅かに異な
っている。
As is clear from the comparison from FIGS. 31 and 26, the eleventh embodiment is characterized in that a pattern superimposing section 3111 is further provided in the configuration of the ninth embodiment. is there. Therefore, the geometric transformation unit 31
01, horizontal projection dispersion calculation unit 3102, motion detection unit 310
3 and the filter unit 3110 function similarly to the corresponding components of the ninth embodiment. However, the horizontal projection variance calculation unit 3102 differs from the ninth embodiment in the input data due to the provision of the pattern superimposition unit 3111, and the processing is slightly different from that of the ninth embodiment. ing.

【0277】パターン重畳部3111は、フィルタ部3
110より幾何変換エッジデータS3110(D’
(R,S,Q))を入力し、その各Q値毎の(R,S)
2次元データを重畳して得た重畳データS3111(E
(R,S))を水平投影分散計算部3102に出力する
ものである。なお、重畳データE(R,S)は、幾何変
換エッジデータD’(R,S,Q)を定義する3つの軸
のうち、軸R及び軸Sがなす平面上で定義されるデータ
である。
The pattern superimposing section 3111 includes the filter section 3
110, the geometric transformation edge data S3110 (D ′
(R, S, Q)) and (R, S) for each Q value
Superimposed data S3111 (E) obtained by superimposing two-dimensional data
(R, S)) to the horizontal projection dispersion calculation unit 3102. The superimposition data E (R, S) is data defined on a plane defined by the axis R and the axis S among the three axes defining the geometrically transformed edge data D ′ (R, S, Q). .

【0278】この実施形態の水平投影分散計算部310
2は、パターン重畳部3111より重畳データS311
1を入力し、動き検出部3103に投影分散データS3
103(PV)を出力する。
The horizontal projection variance calculator 310 of this embodiment
2 is superimposed data S311 from the pattern superimposing unit 3111
1 and inputs the projection dispersion data S3 to the motion detection unit 3103.
103 (PV) is output.

【0279】(K−2)第11の実施形態の動作 次に、以上のような各部3101〜3103、311
0、3111からなる第11の実施形態の動画像処理装
置の動作を説明する。
(K-2) Operation of Eleventh Embodiment Next, each of the units 3101 to 3103 and 311 as described above
The operation of the moving image processing apparatus according to the eleventh embodiment, which includes 0, 3111, will be described.

【0280】なお、上述したように、幾何変換部310
1、動き検出部3103及びフィルタ部3110はそれ
ぞれ、第9の実施形態の対応する構成要素と同様に機能
し、動作するものであるので、その動作説明は省略し、
以下では、パターン重畳部3111の動作を中心に説明
し、水平投影分散計算部3102についてはパターン重
畳部3111が設けられたことにより第9の実施形態と
異なる動作となった点を説明する。
As described above, the geometric transformation unit 310
1. Since the motion detecting unit 3103 and the filter unit 3110 each function and operate similarly to the corresponding components of the ninth embodiment, the description of the operations is omitted.
Hereinafter, the operation of the pattern superimposing unit 3111 will be mainly described, and the point that the horizontal projection dispersion calculating unit 3102 operates differently from the ninth embodiment due to the provision of the pattern superimposing unit 3111 will be described.

【0281】パターン重畳部3111に幾何変換エッジ
データD’(R,S,Q)が入力されると、パターン重
畳部3111は各Q毎の2次元パターンD’(R,S,
Q)を重畳して重畳データE(R,S)を計算する。こ
の第11の実施形態では、このパターン重畳方法とし
て、E(R,S)=ΣD’(R,S,Q)を計算するこ
とにより求めるが(総和ΣはQについて)、各Q毎の幾
何変換エッジデータD’(R,S,Q)上の画素(R、
S)の値が重畳データE(R,S)上の対応する画素
(R、S)の値に反映されるならば、他の好適な方法を
用いても良い。
When the geometrically transformed edge data D ′ (R, S, Q) is input to the pattern superimposing section 3111, the pattern superimposing section 3111 outputs the two-dimensional pattern D ′ (R, S,
Q) is superimposed to calculate superimposition data E (R, S). In the eleventh embodiment, as this pattern superimposition method, E (R, S) = {D '(R, S, Q) is calculated (the sum Σ is about Q). Pixels (R, R) on the converted edge data D ′ (R, S, Q)
If the value of S) is reflected on the value of the corresponding pixel (R, S) on the superimposition data E (R, S), another suitable method may be used.

【0282】図32は、パターン重畳部3111の動作
を説明する図である。第9の実施形態において説明した
ように、動画像A(X,Y,T)の動きに対応した制御
パラメータθ及びφを用いることにより、幾何変換エッ
ジデータD’(R,S,Q)は、図32に示すような水
平方向に伸びるエッジパターンが形成される。これらの
パターンは、各Qの値によって異なるパターンではある
が、水平方向に伸びるエッジパターンを形成するという
共通の特徴を持つ。従って、これらのパターンを重畳す
ることによって、重畳データE(R,S)上には水平方
向へのエッジパターンがより多く形成されることにな
る。一方、動画像A(X,Y,T)の動きに対応してい
ない制御パラメータθ及びφを用いる場合には、重畳デ
ータE(R,S)上のパターンは水平方向に揃ったエッ
ジパターンは形成されない。
FIG. 32 is a diagram illustrating the operation of pattern superimposing section 3111. As described in the ninth embodiment, by using the control parameters θ and φ corresponding to the motion of the moving image A (X, Y, T), the geometrically transformed edge data D ′ (R, S, Q) is An edge pattern extending in the horizontal direction as shown in FIG. 32 is formed. These patterns differ according to the value of each Q, but have a common feature of forming an edge pattern extending in the horizontal direction. Therefore, by superimposing these patterns, more edge patterns in the horizontal direction are formed on the superimposition data E (R, S). On the other hand, when the control parameters θ and φ that do not correspond to the motion of the moving image A (X, Y, T) are used, the pattern on the superimposition data E (R, S) is the edge pattern aligned in the horizontal direction. Not formed.

【0283】水平投影分散計算部3102に重畳データ
E(R,S)が入力されると、水平投影分散計算部31
02は、この重畳データE(R,S)に対して水平方向
(R軸に平行な方向)への投影データPR1を計算し、
さらに投影データPR1の分散値を求め、これを投影分
散データPVとして動き検出部3101に出力する。
When superimposition data E (R, S) is input to horizontal projection variance calculation section 3102, horizontal projection variance calculation section 31
02 calculates projection data PR1 in the horizontal direction (direction parallel to the R axis) with respect to the superimposition data E (R, S),
Further, a variance value of the projection data PR1 is obtained, and this is output to the motion detection unit 3101 as projection variance data PV.

【0284】従って、図32に示すような水平方向に沿
ったエッジパターンを持つ重畳データE(R,S)に対
しては投影データPR1は変化が大きいので、投影分散
データPVは大きい値を持つ。一方、重畳データE
(R,S)に水平方向に沿ったエッジパターンが形成さ
れない場合(=動画像の動きに対応していない制御パラ
メータθ及びφを用いて幾何変換部3101及びフィル
タ部3110及びパターン重畳部3111を動作した場
合)には、投影データPR1は明瞭な変化が得られず、
その結果投影分散データPVは小さい値となる。
Therefore, since the projection data PR1 has a large change with respect to the superimposed data E (R, S) having an edge pattern extending in the horizontal direction as shown in FIG. 32, the projection dispersion data PV has a large value. . On the other hand, the superimposition data E
When an edge pattern along the horizontal direction is not formed at (R, S) (= using the control parameters θ and φ that do not correspond to the motion of the moving image, the geometric conversion unit 3101, the filter unit 3110, and the pattern superimposition unit 3111 ), The projection data PR1 does not have a clear change,
As a result, the projection dispersion data PV has a small value.

【0285】動き検出部3103は、投影分散データP
Vが入力されたときには、第9の実施形態と同様に動作
する。
The motion detecting section 3103 calculates
When V is input, it operates similarly to the ninth embodiment.

【0286】以上説明したように、第11の実施形態で
は、幾何変換部3101が制御パラメータθ及びφに基
づいて動画像データA(X,Y,T)を幾何変換データ
D(R,S,Q)に変換し、フィルタ部3110が幾何
変換データD(R,S,Q)中のエッジを示す幾何変換
エッジデータD’(R,S,Q)を作成し、パターン重
畳部3111が幾何変換エッジデータD’(R,S,
Q)の各Q毎のパターンを重畳して重畳パターンE
(R,S)を計算し、水平投影分散計算部3102が重
畳パターンE(R,S)の投影分散データPVを計算
し、動き検出部3103が投影分散データPVが最大と
なる場合の制御パラメータθ及びφを決定する。
As described above, in the eleventh embodiment, the geometric conversion unit 3101 converts the moving image data A (X, Y, T) into the geometric conversion data D (R, S, Q), the filter unit 3110 creates geometrically transformed edge data D ′ (R, S, Q) indicating an edge in the geometrically transformed data D (R, S, Q), and the pattern superimposing unit 3111 creates the geometrically transformed edge data D ′ (R, S, Q). Edge data D ′ (R, S,
Q) The pattern for each Q is superimposed to form a superimposed pattern E
(R, S) is calculated, the horizontal projection variance calculation unit 3102 calculates the projection variance data PV of the superimposed pattern E (R, S), and the motion detection unit 3103 controls the control parameter when the projection variance data PV is maximized. Determine θ and φ.

【0287】幾何変換部3101での処理は、動画像デ
ータA(X,Y,T)を(X,Y)平面上で角度−θだ
け回転して3次元パターンB(P,Q,T)を作成した
のち、座標軸の交換により3次元パターンC(P,T,
Q)を作成し、さらにこれを(R,S)平面上で−φだ
け回転して幾何変換データD(R,S,Q)を得るが、
さらにその後、フィルタ部3110が幾何変換データD
(R,S,Q)のエッジを表す幾何変換エッジデータ
D’(R,S,Q)を計算するので、動画像データA
(X,Y,T)が(X,Y)平面上で角度θ又はθ+π
方向に動く場合、その動きの大きさに応じた角度φを制
御パラメータとして用いることにより、各Q毎の(R,
S)平面上の幾何変換エッジデータD’(R,S,Q)
には水平方向に沿った明瞭な縞状パターンが形成され
る。
The processing in the geometric transformation unit 3101 is such that the moving image data A (X, Y, T) is rotated by an angle -θ on the (X, Y) plane to obtain a three-dimensional pattern B (P, Q, T). Is created, and the three-dimensional pattern C (P, T,
Q) is created and further rotated by −φ on the (R, S) plane to obtain geometric transformation data D (R, S, Q).
After that, the filter unit 3110 outputs the geometric transformation data D
Since the geometric transformation edge data D '(R, S, Q) representing the edge of (R, S, Q) is calculated, the moving image data A
(X, Y, T) is the angle θ or θ + π on the (X, Y) plane.
When moving in the direction, the angle φ corresponding to the magnitude of the movement is used as a control parameter, so that (R,
S) Geometric transformation edge data D '(R, S, Q) on a plane
Has a clear stripe pattern along the horizontal direction.

【0288】従って、パターン重畳部3111が幾何変
換エッジデータD’(R,S,Q)を重畳して重畳デー
タE(R,S)を作成し、水平投影分散計算部3102
が重畳データE(R,S)の水平方向への投影分散値を
計算して、動き検出部3103が該投影分散値が最大と
なる場合の制御パラメータθ及びφを検出することによ
って、θ及びφの値から動画像A(X,Y,T)の動き
量を決定することができる。
Therefore, the pattern superimposing section 3111 superimposes the geometrically transformed edge data D '(R, S, Q) to create superimposed data E (R, S), and the horizontal projection dispersion calculating section 3102
Calculates the projection variance in the horizontal direction of the superimposition data E (R, S), and the motion detection unit 3103 detects the control parameters θ and φ when the projection variance is maximized. The motion amount of the moving image A (X, Y, T) can be determined from the value of φ.

【0289】(K−3)第11の実施形態の効果 この第11の実施形態によっても、上述した第9の実施
形態と同様な効果を奏することができる。
(K-3) Effects of the Eleventh Embodiment According to the eleventh embodiment, the same effects as those of the ninth embodiment can be obtained.

【0290】これに加えて、第11の実施形態によれ
ば、投影分散データPR1の計算は、重畳データE
(R,S)に対してだけ行なえば良いので、幾何変換エ
ッジデータD’(R,S,Q)に対して処理を行なう第
9の実施形態に比較しても、計算量を減少させることが
できる。
In addition to the above, according to the eleventh embodiment, the calculation of the projection dispersion data PR1 is based on the superposition data E1.
Since it suffices to perform only on (R, S), the amount of calculation can be reduced as compared with the ninth embodiment in which processing is performed on geometrically transformed edge data D ′ (R, S, Q). Can be.

【0291】(L)第12の実施形態 次に、本発明による動画像処理装置の第12の実施形態
を図面を参照しながら詳述する。
(L) Twelfth Embodiment Next, a twelfth embodiment of the moving picture processing apparatus according to the present invention will be described in detail with reference to the drawings.

【0292】(L−1)第12の実施形態の構成 図33は、この第12の実施形態による動画像処理装置
の構成を示すブロック図である。図33において、第1
2の実施形態の動画像処理装置は、幾何変換部330
1、ハフ変換部3302、動き検出部3303、フィル
タ部3310及びパターン重畳部3311から構成され
ている。
(L-1) Configuration of Twelfth Embodiment FIG. 33 is a block diagram showing the configuration of a moving image processing apparatus according to the twelfth embodiment. In FIG. 33, the first
The moving image processing apparatus according to the second embodiment includes a geometric conversion unit 330
1, a Hough transform unit 3302, a motion detecting unit 3303, a filter unit 3310, and a pattern superimposing unit 3311.

【0293】幾何変換部3301は、装置外部より動画
像データS3301(A(X,Y,T))を入力し、動
き検出部3303より制御パラメータS3304(θ)
を入力し、幾何変換データS3302(C(P,T,
Q))を得てフィルタ部3310に出力するものであ
る。この幾何変換部3301は、第8の実施形態におけ
る幾何変換部と同様なものである。
The geometric transformation unit 3301 receives moving image data S3301 (A (X, Y, T)) from the outside of the apparatus, and receives a control parameter S3304 (θ) from the motion detection unit 3303.
Is input and the geometric transformation data S3302 (C (P, T,
Q)) and outputs it to the filter unit 3310. This geometric transformation unit 3301 is the same as the geometric transformation unit in the eighth embodiment.

【0294】フィルタ部3310は、幾何変換部330
1より幾何変換データS3302を入力し、幾何変換エ
ッジデータS3310(C’(P,T,Q))をパター
ン重畳部3311に出力するものである。この第12の
実施形態のフィルタ部3310には、動き検出部330
3から制御パラメータφは与えられておらず、フィルタ
部3310は、フィルタリング方向を意識することな
く、2次元のフィルタリングによって幾何変換エッジデ
ータS3310を形成する。
The filter unit 3310 includes a geometric conversion unit 330
1, the geometric transformation data S3302 is input, and the geometric transformation edge data S3310 (C ′ (P, T, Q)) is output to the pattern superimposing unit 3311. The filter unit 3310 according to the twelfth embodiment includes a motion detection unit 330
3, the control parameter φ is not given, and the filter unit 3310 forms the geometric transformation edge data S3310 by two-dimensional filtering without considering the filtering direction.

【0295】パターン重畳部3311は、フィルタ部3
310より幾何変換エッジデータS3310を入力し
て、重畳データS3311(F(P,T))を得てハフ
変換部3302に出力するものである。
[0295] The pattern superimposing section 3311 includes the filter section 3
The superimposition data S3311 (F (P, T)) is obtained by inputting the geometric transformation edge data S3310 from 310, and is output to the Hough transform unit 3302.

【0296】ハフ変換部3302は、パターン重畳33
11より重畳データS3311を入力して、縞特性デー
タS3303((φ,HV))を得て動き検出部330
3に出力するものである。ハフ変換部3302の機能に
ついては動作説明で明らかにする。
The Hough transform section 3302 calculates the pattern superposition 33
11 to obtain the stripe characteristic data S3303 ((φ, HV)).
3 is output. The function of the Hough transform unit 3302 will be clarified in the operation description.

【0297】動き検出部3303は、幾何変換部330
1に制御パラメータS3304を出力し、ハフ変換部3
302より縞特性データS3303を入力し、制御パラ
メータS3304や縞特性データS3303に基づい
て、動き量S3306((V,α))を得て装置外部に
出力するものである。
[0297] The motion detecting section 3303 includes the geometric transforming section 330.
1 and outputs the control parameter S3304 to the Hough transform unit 3
A stripe characteristic data S3303 is input from 302, a motion amount S3306 ((V, α)) is obtained based on the control parameter S3304 and the stripe characteristic data S3303, and output to the outside of the apparatus.

【0298】ここで、重畳データF(P,T)は、幾何
変換エッジデータC’(P,T,Q)を定義する3つの
軸のうち、軸P及び軸Tがなす平面上で定義されるデー
タである。また、縞特性(φ,HV)は、パラメータφ
が第8の実施形態における制御パラメータφに相当する
量を表し、パラメータHVがハフ変換評価値を表してい
る。
Here, the superimposition data F (P, T) is defined on the plane formed by the axes P and T among the three axes defining the geometrically transformed edge data C ′ (P, T, Q). Data. Further, the fringe characteristics (φ, HV) are determined by the parameters φ
Represents an amount corresponding to the control parameter φ in the eighth embodiment, and the parameter HV represents a Hough transform evaluation value.

【0299】(L−2)第12の実施形態の動作 次に、以上のような各部3301〜3303、331
0、3311からなる第11の実施形態の動画像処理装
置の動作を説明する。なお、幾何変換部3301だけ
が、第8の実施形態における幾何変換部と同一の機能を
持っている。
(L-2) Operation of the Twelfth Embodiment Next, each of the parts 3301 to 30330 and 331 as described above
The operation of the moving image processing apparatus according to the eleventh embodiment, which is composed of 0 and 3311, will be described. Note that only the geometric transformation unit 3301 has the same function as the geometric transformation unit in the eighth embodiment.

【0300】外部からの動作開始命令によりこの動画像
処理装置は動作を開始する。このときまず、動き検出部
3303は、制御パラメータθ(但し、|θ|=π/
2)に初期値に設定して、これを幾何変換部101に出
力する。
The moving image processing apparatus starts operation in response to an operation start command from outside. At this time, first, the motion detecting unit 3303 determines the control parameter θ (where | θ | = π /
The initial value is set in 2), and this is output to the geometric transformation unit 101.

【0301】幾何変換部3301は、動き検出部330
3より制御パラメータθを入力すると、第8の実施形態
における幾何変換部と同様に動作して、外部から入力さ
れた動画像データA(X,Y,T)を幾何変換データC
(P,T,Q)に変換してフィルタ部3310に出力す
る。
[0301] The geometric conversion unit 3301 is
3 operates in the same manner as the geometric conversion unit in the eighth embodiment, and converts the moving image data A (X, Y, T) input from the outside into the geometric conversion data C.
It is converted to (P, T, Q) and output to the filter unit 3310.

【0302】次に、フィルタ部3310に幾何変換デー
タC(P,T,Q)が入力されると、フィルタ部331
0は、各Q毎の2次元パターンC(P,T,Q)中のエ
ッジパターンを検出し、検出された幾何変換エッジデー
タC’(P,T,Q)をパターン重畳部3311に出力
する。
Next, when the geometric transformation data C (P, T, Q) is input to the filter unit 3310, the filter unit 331
0 detects an edge pattern in the two-dimensional pattern C (P, T, Q) for each Q, and outputs the detected geometric transformation edge data C ′ (P, T, Q) to the pattern superimposing unit 3311. .

【0303】この幾何変換エッジデータC’(P,T,
Q)の算出方法は、従来公知のエッジ検出方法を適用す
ることができる。ここでは、3×3画素サイズの2次元
コンボリューションフィルタを用いて幾何変換エッジデ
ータC’(P,T,Q)を計算するとした。すなわち、
(21)式に従って、幾何変換エッジデータC’(P,T,
Q)を算出することとした。なお、(21)式における総和
ΣΣはi及びjについてである。また、w(i,j)は
フィルタ係数でであり、例えば、w(0,0)=4、w
(−1,0)=w(1,0)=w(0,−1)=w
(0,1)=−1、w(else)=0とする。(21)式
の処理により、幾何変換データC(P,T,Q)中のエ
ッジ部分を取り出したパターンが幾何変換エッジデータ
C’(P,T,Q)として得られる。
The geometric transformation edge data C ′ (P, T,
As a calculation method of Q), a conventionally known edge detection method can be applied. Here, it is assumed that the geometric transformation edge data C ′ (P, T, Q) is calculated using a two-dimensional convolution filter having a size of 3 × 3 pixels. That is,
According to equation (21), the geometrically transformed edge data C ′ (P, T,
Q) was calculated. The sum 総 in the equation (21) is for i and j. W (i, j) is a filter coefficient, for example, w (0,0) = 4, w
(-1,0) = w (1,0) = w (0, -1) = w
(0, 1) = − 1, w (else) = 0. By the processing of the equation (21), a pattern obtained by extracting an edge portion from the geometrically transformed data C (P, T, Q) is obtained as geometrically transformed edge data C ′ (P, T, Q).

【0304】 C’(P,T,Q) =ΣΣ w(i,j)C(P+i,T+j,Q) …(21) 次に、パターン重畳部3311は、幾何変換エッジデー
タC’(P,T,Q)を入力すると、各Q毎の2次元パ
ターンC’(P,T,Q)を重畳して重畳データF
(P,T)を計算する。この第12の実施形態における
パターン重畳部3311の動作は、第11の実施形態に
おけるパターン重畳部の動作と同様である。すなわち、
重畳の方法として、F(R,S)=ΣC’(P,T,
Q)を計算している。
C ′ (P, T, Q) = ΣΣ w (i, j) C (P + i, T + j, Q) (21) Next, the pattern superposition unit 3311 outputs the geometrically converted edge data C ′ (P, T, Q), the two-dimensional pattern C ′ (P, T, Q) for each Q is superimposed and superimposed data F
Calculate (P, T). The operation of the pattern superposition unit 3311 in the twelfth embodiment is the same as the operation of the pattern superposition unit in the eleventh embodiment. That is,
As a method of superposition, F (R, S) = {C ′ (P, T,
Q) is calculated.

【0305】この時点において、動画像A(X,Y,
T)の動きに対応した制御パラメータθを用いて幾何変
換部3301を動作させると、重畳データF(P,T)
には縞状パターンが形成される。一方、動画像A(X,
Y,T)の動きに対応していない制御パラメータθを用
いて幾何変換部3301を動作させた場合には、重畳デ
ータF(P,T)には縞状パターンは形成されない。
At this point, the moving image A (X, Y,
When the geometric transformation unit 3301 is operated using the control parameter θ corresponding to the movement of T), the superimposition data F (P, T)
Is formed with a striped pattern. On the other hand, the moving image A (X,
When the geometric transformation unit 3301 is operated using the control parameter θ that does not correspond to the movement of (Y, T), no stripe pattern is formed in the superimposition data F (P, T).

【0306】次に、ハフ変換部3302に重畳データF
(P,T)が入力されると、重畳パターンF(P,T)
中の縞の方向φと、その確からしさを示すハフ変換評価
値HVとからなる縞特性データ(φ,HV)を計算し、
動き検出部3303に出力する。
Next, the superimposition data F is
When (P, T) is input, the superimposed pattern F (P, T)
Calculate fringe characteristic data (φ, HV) including the direction φ of the middle fringe and the Hough transform evaluation value HV indicating the likelihood,
Output to the motion detection unit 3303.

【0307】図34は、このような処理を行なうハフ変
換部3302の動作を説明する図である。
FIG. 34 is a view for explaining the operation of Hough transform section 3302 for performing such processing.

【0308】この第12の実施形態のハフ変換部330
2は、まず、重畳データF(P,T)をハフ変換データ
H(a,b)に変換する。すなわち、重畳データF
(P,T)において、その値が所定の閾値を越える、言
い換えるとエッジを構成している(P,T)に対して、
T=Pa+bの関係式を満足する点群(a,b)に対す
るデータH(a,b)に投票を行なう(すなわち、H
(a,b)の値をインクリメントする)。ここで、重畳
データF(P,T)が縞状パターンを形成する場合に
は、縞の方向φと上記パラメータaの間には(22)式の関
係が成り立つ。
The Hough transform unit 330 of the twelfth embodiment
2 first converts the superimposition data F (P, T) into Hough transform data H (a, b). That is, the superimposition data F
In (P, T), the value exceeds a predetermined threshold, in other words, for (P, T) constituting an edge,
Voting is performed on the data H (a, b) for the point group (a, b) satisfying the relational expression of T = Pa + b (ie, H
(The value of (a, b) is incremented.) Here, when the superimposition data F (P, T) forms a striped pattern, the relationship of equation (22) holds between the direction φ of the striped pattern and the parameter a.

【0309】 a=tan φ …(22) 従って、このような重畳データF(P,T)に対するハ
フ変換データH(a,b)においては、(22)式を満たす
パラメータaに値が集中しやすくなる。
A = tan φ (22) Accordingly, in the Hough transform data H (a, b) for such superimposed data F (P, T), the value concentrates on the parameter a satisfying the expression (22). It will be easier.

【0310】そこで、ハフ変換部3302は、データH
(a,b)を軸bに平行な方向に投影し、その投影デー
タ中の最大値HV=maxΣH(a,b)を与えるパラ
メータaを検出する(最大値maxの探索はaをパラメ
ータとし、総和Σはbについてである)。さらにハフ変
換部3302は、このときのパラメータaから、(22)式
に基づいてパラメータφを求め、縞特性データ(φ,H
V)を出力する。
Therefore, Hough transform section 3302 outputs data H
(A, b) is projected in a direction parallel to the axis b, and a parameter a that gives a maximum value HV = maxΣH (a, b) in the projection data is detected (a search for the maximum value max uses a as a parameter, The sum Σ is for b). Further, the Hough transform unit 3302 obtains a parameter φ from the parameter a at this time based on the equation (22), and obtains the stripe characteristic data (φ, H
V).

【0311】従って、重畳データF(P,T)が縞状パ
ターンを形成する場合には、パラメータφは縞の方向を
示すことになり、ハフ変換評価値HVは大きい値を持
つ。一方、重畳データF(P,T)が縞状パターンを形
成しない場合には、ハフ変換データH(a,b)上で特
定のパラメータaに値が集中せず、その結果ハフ変換評
価値HVは小さい値となる。
Therefore, when the superimposition data F (P, T) forms a stripe pattern, the parameter φ indicates the direction of the stripe, and the Hough transform evaluation value HV has a large value. On the other hand, when the superimposition data F (P, T) does not form a striped pattern, the value does not concentrate on the specific parameter a on the Hough transform data H (a, b), and as a result, the Hough transform evaluation value HV Is a small value.

【0312】ハフ変換は、画像中の直線が歪んでいた
り、雑音が含まれる場合に対しても「投票」という統計
的な処理によって、直線の傾きを精度良く検出できる。
従って、ハフ変換部3302によれば、重畳データF
(P,T)が厳密な縞状パターンでない場合(動画像の
動きが微妙に揺らいでいる場合や動画像中に雑音が含ま
れる場合など)に対しても、縞の方向を正確に検出する
ことができる。
In the Hough transform, even when a straight line in an image is distorted or includes noise, the inclination of the straight line can be detected with high accuracy by a statistical process of “voting”.
Therefore, according to Hough transform section 3302, superimposed data F
Even when (P, T) is not a strict striped pattern (such as when the motion of the moving image is slightly fluctuating or when noise is included in the moving image), the direction of the stripe is accurately detected. be able to.

【0313】因に、上述した第8の実施形態の場合に
は、幾何変換エッジデータC’(P,T,Q)に対する
投影データに基づいて縞方向を検出するが、該C’
(P,T,Q)が厳密な縞状パターンからある程度はず
れたパターンになると、投影データには明瞭な変化が現
れなくなる恐れがある。この第12の実施形態でのハフ
変換部3302による構成は、第8の実施形態より縞の
方向を正確に検出できることが期待される。
In the eighth embodiment, the fringe direction is detected based on the projection data for the geometrically transformed edge data C ′ (P, T, Q).
When (P, T, Q) deviates from the strict striped pattern to some extent, a clear change may not appear in the projection data. The configuration of the Hough transform unit 3302 in the twelfth embodiment is expected to be able to detect the direction of the stripe more accurately than in the eighth embodiment.

【0314】次に、動き検出部3303は、ハフ変換部
3302より縞特性データ(φ,HV)を入力すると、
このデータを内部で記憶した最大ハフ変換評価値HVm
(初期状態では値0を記憶)と比較し、入力されたハフ
変換評価値HVの方が大きければ、この値を最大投影分
散データHVmとして記憶し直すと共に、このときの2
つの制御パラメータθ及びパラメータφをそれぞれθm
及びφmとして記憶する。
Next, the motion detecting section 3303 receives the stripe characteristic data (φ, HV) from the Hough transform section 3302,
The maximum Hough transform evaluation value HVm in which this data is stored internally.
(In the initial state, the value 0 is stored.) If the input Hough transform evaluation value HV is larger, this value is stored again as the maximum projection variance data HVm.
Control parameter θ and parameter φ
And φm.

【0315】次に、動き検出部3303は、制御パラメ
ータθを−π/2〜π/2の範囲内で変更して再設定
し、幾何変換部3301に出力する。この実施形態で
は、上記変更はπ/100単位で行なわれる。上記制御
パラメータの再設定が行なわれる毎に、上述したと同様
に、幾何変換部3301、フィルタ部3310、パター
ン重畳部3311、ハフ変換部3302及び動き検出部
3303の動作が行なわれる。
Next, the motion detecting section 3303 changes and resets the control parameter θ within the range of -π / 2 to π / 2, and outputs the result to the geometric transformation section 3301. In this embodiment, the change is made in units of π / 100. Every time the control parameters are reset, the operations of the geometric conversion unit 3301, the filter unit 3310, the pattern superimposition unit 3311, the Hough conversion unit 3302, and the motion detection unit 3303 are performed in the same manner as described above.

【0316】その結果、動き検出部3303において
は、全ての制御パラメータθのうち、重畳データF
(P,T)上の縞状パターンが最も明瞭になる場合のパ
ラメータθ及びそのときの縞方向φに対してハフ変換評
価値HVが最大値HVmとなり、そのときのθ及びφが
θm及びφmとして記憶されることになる。
As a result, in the motion detection section 3303, the superimposition data F
The Hough transform evaluation value HV becomes the maximum value HVm with respect to the parameter θ when the stripe pattern on (P, T) becomes clearest and the stripe direction φ at that time, and θ and φ at that time are θm and φm. Will be stored as

【0317】上述したように、動画像データA(X,
Y,T)がθ又はθ+πの方向に動く場合、角度θを制
御パラメータとして幾何変換部3301及びフィルタ部
3310より得られる幾何変換エッジデータC’(P,
T,Q)には明瞭な縞状パターンが形成され、従って、
パターン重畳部3311から得られる重畳データF
(P,T)にも明瞭な縞状パターンが形成され、さら
に、その縞方向はハフ変換部3302より得られるハフ
変換評価値HVが最大値となる場合のパラメータφであ
ることから、動き検出部3303が記憶するパラメータ
θm及びφmは、動画像データA(X,Y,T)の動き
に対応した値となる。
As described above, the moving image data A (X,
Y, T) moves in the direction of θ or θ + π, the geometric transformation edge data C ′ (P, P) obtained from the geometric transformation unit 3301 and the filter unit 3310 using the angle θ as a control parameter.
T, Q) has a clear striped pattern,
Superimposition data F obtained from pattern superimposition section 3311
Since a clear stripe pattern is also formed on (P, T), and the stripe direction is the parameter φ when the Hough transform evaluation value HV obtained by the Hough transform unit 3302 is the maximum value, motion detection is performed. The parameters θm and φm stored by the unit 3303 are values corresponding to the motion of the moving image data A (X, Y, T).

【0318】そこで、動き検出部3303は、既述した
実施形態と同様にして、パラメータθm及びφmに基づ
いて、動画像データA(X,Y,T)の動き量S330
6((V,α))を計算し、外部へ出力する。
Therefore, in the same manner as in the above-described embodiment, the motion detecting section 3303 calculates the motion amount S330 of the moving image data A (X, Y, T) based on the parameters θm and φm.
6 ((V, α)) and outputs it to the outside.

【0319】以上説明したように、第12の実施形態で
は、幾何変換部3301が制御パラメータθに基づいて
動画像データA(X,Y,T)を幾何変換データC
(P,T,Q)に変換し、フィルタ部3310が制御パ
ラメータφに基づいて幾何変換データC(P,T,Q)
中のエッジを示す幾何変換エッジデータC’(P,T,
Q)を作成し、パターン重畳部3311が幾何変換エッ
ジデータC’(P,T,Q)の各Q毎の平面パターンを
重畳して重畳データF(P,T)を作成し、ハフ変換部
3302が重畳データF(P,T)に基づいて縞の方向
φとその確からしさを示すハフ変換評価値HVを計算
し、動き検出部3303がハフ変換評価値HVが最大と
なる場合の制御パラメータθ及びφを決定する。
As described above, in the twelfth embodiment, the geometric conversion unit 3301 converts the moving image data A (X, Y, T) into the geometric conversion data C based on the control parameter θ.
(P, T, Q), and the filter unit 3310 converts the geometric transformation data C (P, T, Q) based on the control parameter φ.
Geometric edge data C ′ (P, T,
Q), and the pattern superimposing unit 3311 superimposes a plane pattern for each Q of the geometric transformation edge data C ′ (P, T, Q) to create superimposed data F (P, T), and the Hough transform unit 3302 calculates the Hough transform evaluation value HV indicating the fringe direction φ and its certainty based on the superimposition data F (P, T), and the motion detection unit 3303 calculates the control parameter when the Hough transform evaluation value HV becomes the maximum. Determine θ and φ.

【0320】幾何変換部3301での処理では、動画像
データA(X,Y,T)を(X,Y)平面上で角度−θ
だけ回転して3次元パターンB(P,Q,T)を作成し
たのち、座標軸の交換により幾何変換データC(P,
T,Q)を得るが、さらにその後、フィルタ部3310
が幾何変換データC(P,T,Q)のエッジを表す幾何
変換エッジデータC’(P,T,Q)を計算するので、
動画像データA(X,Y,T)が(X,Y)平面上で角
度θ又はθ+π方向に動く場合には、各Q毎の(P,
T)平面上の幾何変換エッジデータC’(P,T,Q)
には明瞭な縞状パターンが形成され、さらに、その縞の
方向φは該動きの大きさに対応することになる。
In the processing performed by the geometric transformation unit 3301, the moving image data A (X, Y, T) is converted to an angle −θ on the (X, Y) plane.
To create a three-dimensional pattern B (P, Q, T), and then exchange the coordinate axes to convert the geometric transformation data C (P,
T, Q), and then the filter unit 3310
Calculates geometric transformation edge data C ′ (P, T, Q) representing an edge of the geometric transformation data C (P, T, Q).
When the moving image data A (X, Y, T) moves in the angle θ or θ + π direction on the (X, Y) plane, (P,
T) Geometric transformation edge data C ′ (P, T, Q) on a plane
Has a clear stripe pattern, and the direction φ of the stripe corresponds to the magnitude of the movement.

【0321】従って、ハフ変換部3302が重畳データ
F(P,T)をハフ変換して縞の方向φとハフ変換評価
値HVを計算し、動き検出部3303が該ハフ変換評価
値HVが最大となる場合の制御パラメータθ及びφを検
出することによって、θ及びφの値から動画像A(X,
Y,T)の動き量を決定することができる。
Therefore, the Hough transform section 3302 performs a Hough transform on the superimposed data F (P, T) to calculate the direction φ of the stripe and the Hough transform evaluation value HV, and the motion detecting section 3303 determines that the Hough transform evaluation value HV is maximum. By detecting the control parameters θ and φ in the case of, the moving image A (X,
Y, T).

【0322】(L−3)第12の実施形態の効果 この第12の実施形態によっても、上述した第12の実
施形態とほぼ同様な効果を奏することができる。
(L-3) Effects of the Twelfth Embodiment The twelfth embodiment can also provide substantially the same effects as the twelfth embodiment.

【0323】これに加えて、第12の実施形態によれ
ば、パターン重畳部3311が幾何変換エッジデータ
C’(P,T,Q)の各Q毎の平面データを重畳して重
畳データF(P,T)を作成し、ハフ変換部3302が
ハフ変換によって重畳データF(P,T)上の縞方向を
検出するので、第8の実施形態のような幾何変換エッジ
データC’(P,T,Q)への投影データに基づいて縞
方向を検出する場合に比べ、高精度に動きを検出するこ
とができる。
In addition, according to the twelfth embodiment, the pattern superimposing unit 3311 superimposes the plane data for each Q of the geometric transformation edge data C ′ (P, T, Q) to superimpose data F ( P, T), and the Hough transform unit 3302 detects the stripe direction on the superimposed data F (P, T) by the Hough transform. Therefore, the geometrically transformed edge data C ′ (P, T) as in the eighth embodiment is obtained. The motion can be detected with higher accuracy than when the fringe direction is detected based on the projection data on (T, Q).

【0324】(M)他の実施形態 本発明は、上述した各実施形態のものに限定されるもの
ではなく、同一の技術的思想下にある種々の変形実施形
態を許容するものであり、そのいくつかを例示すると以
下の通りである。
(M) Other Embodiments The present invention is not limited to the above embodiments, but allows various modified embodiments under the same technical concept. Some examples are as follows.

【0325】(M-1) 第1〜第11の実施形態では、動
画像処理装置を、投影データの分散値に基づいて縞方向
を検出するよう構成した場合につき説明したが、他の構
成として、投影データの変動量を示す評価値を予め設定
し、この評価値に基づいて縞方向を検出するように構成
しても良い。例えば、投影データを1次元信号列とみな
したときの微分(又は差分)パターンを求め、その絶対
値の総和を上記評価値としても良い。この場合には、投
影データの変動が激しいほど評価値は大きい値となるの
で、第1〜第11の実施形態と同様の効果が得られる。
(M-1) In the first to eleventh embodiments, the case has been described where the moving image processing apparatus is configured to detect the fringe direction based on the variance of the projection data. Alternatively, an evaluation value indicating the amount of change in the projection data may be set in advance, and the stripe direction may be detected based on the evaluation value. For example, a differential (or difference) pattern when the projection data is regarded as a one-dimensional signal sequence may be obtained, and the sum of the absolute values thereof may be used as the evaluation value. In this case, the larger the fluctuation of the projection data, the larger the evaluation value becomes, so that the same effect as in the first to eleventh embodiments can be obtained.

【0326】(M-2) 第5の実施形態では、幾何変換部
1301が動画像データA(X,Y,T)を3次元パタ
ーンB(P,Q,T)に変換し、さらに幾何変換データ
C(P,T,Q)に変換して、これを投影分散計算部1
302に出力する場合について説明したが、他の構成と
して、幾何変換部1301は投影分散計算部1302が
必要とする幾何変換データC(P,T,Q)に対応する
パラメータ(X,Y,T)を計算して出力するように
し、投影分散計算部1302は該パラメータ(X,Y,
T)を入力して対応する動画像データA(X,Y,T)
を外部から直接入力して投影パターンを計算するように
しても良い。請求項7の表現は、この場合を含むものと
する。また、第5の実施形態をベースとしている実施形
態についても同様な変形が可能である。
(M-2) In the fifth embodiment, the geometric conversion unit 1301 converts moving image data A (X, Y, T) into a three-dimensional pattern B (P, Q, T), and further performs geometric conversion. The data is converted into data C (P, T, Q), and this is converted into a projection dispersion
Although the case of outputting to the 302 has been described, as another configuration, the geometric transformation unit 1301 is configured to output the parameters (X, Y, T) corresponding to the geometric transformation data C (P, T, Q) required by the projection variance calculation unit 1302. ) Is calculated and output, and the projection variance calculator 1302 calculates the parameters (X, Y,
T) and the corresponding moving image data A (X, Y, T)
May be directly input from the outside to calculate the projection pattern. The expression of claim 7 includes this case. Further, similar modifications can be made to the embodiment based on the fifth embodiment.

【0327】(M-3) 同様に、第6の実施形態では、幾
何変換部1701が動画像データA(X,Y,T)を3
次元パターンB(P,Q,T)に変換し、さらに3次元
パターンC(P,T,Q)に変換し、さらに3次元パタ
ーンD(R,S,Q)に変換して、これを水平投影分散
計算部1702に出力する場合について説明したが、他
の構成として、幾何変換部1701は水平投影分散計算
部1702が必要とする幾何変換データD(R,S,
Q)に対応するパラメータ(X,Y,T)を計算して出
力するようにし、水平投影分散計算部1702は該パラ
メータ(X,Y,T)を入力して対応する動画像データ
A(X,Y,T)を外部から直接入力して投影パターン
等を計算するようにしても良い。請求項16の表現は、
この場合を含むものとする。また、第6の実施形態をベ
ースとしている実施形態についても同様な変形するよう
にしても良い。
(M-3) Similarly, in the sixth embodiment, the geometric transformation unit 1701 converts the moving image data A (X, Y, T) into 3
It is converted to a three-dimensional pattern B (P, Q, T), further converted to a three-dimensional pattern C (P, T, Q), further converted to a three-dimensional pattern D (R, S, Q), and Although the case of outputting to the projection variance calculation unit 1702 has been described, as another configuration, the geometric transformation unit 1701 performs the geometric transformation data D (R, S,
The parameter (X, Y, T) corresponding to Q) is calculated and output, and the horizontal projection variance calculation unit 1702 receives the parameter (X, Y, T) and receives the corresponding moving image data A (X , Y, T) may be directly input from the outside to calculate a projection pattern or the like. The expression of claim 16 is:
This case is included. Further, an embodiment based on the sixth embodiment may be similarly modified.

【0328】(M-4) 第7の実施形態では、探索範囲設
定部2104が動画像データA(X,Y,T)中の代表
領域に対して動きベクトルを求め、これに基づき探索範
囲データを決定する構成について説明したが、他の構成
として、動画像データA(X,Y,T)と同時に動きベ
クトルデータをも入力し、探索範囲設定部2104がこ
の動きベクトルに基づいて探索範囲データを決定するよ
うにしても良く、この場合には、この動画像処理装置内
で動き検出の処理を行ななう必要はなくなる。このよう
なデータ入力の例として、符号化された画像データ(例
えばMPEGデータ)を用いることができる。
(M-4) In the seventh embodiment, the search range setting unit 2104 obtains a motion vector for a representative region in the moving image data A (X, Y, T), and based on the motion vector, Has been described. However, as another configuration, the motion vector data A (X, Y, T) and the motion vector data are also input, and the search range setting unit 2104 searches the search range data based on the motion vector. May be determined. In this case, it is not necessary to perform the motion detection processing in the moving image processing apparatus. As an example of such data input, encoded image data (for example, MPEG data) can be used.

【0329】(M-5) 第6、第8〜第12の実施形態の
構成に、第7の実施形態の探索範囲設定部2104と同
様な探索範囲設定部を設けるようにしても良い。
(M-5) The configuration of the sixth, eighth to twelfth embodiments may be provided with a search range setting unit similar to the search range setting unit 2104 of the seventh embodiment.

【0330】(M-6) 各実施形態におけるフィルタ部にお
けるフィルタリング方法(エッジ検出方法)は、上記説
明のものに限定されるものではなく、従来公知のエッジ
検出方法を適用しても良い。
(M-6) The filtering method (edge detection method) in the filter unit in each embodiment is not limited to the above-described method, and a conventionally known edge detection method may be applied.

【0331】例えば、第8の実施形態については、平面
パターンにおいて角度φ方向と直交する方向への画素値
の変化量が大きい画素をエッジとみなし、他の画素を非
エッジと判定することによって幾何変換エッジデータ
C’(P,T,Q)を作成しても良い。このとき、幾何
変換エッジデータC’(P,T,Q)の値は、0及び1
からなる2値データであっても良いし、また、上記画素
値の変化量に応じた多値データとしても良い。さらに、
フィルタ部2610のより簡単な他の構成として、角度
φに依存しない処理構成、例えば、3×3画素サイズの
2次元コンボリューションフィルタを用いて幾何変換エ
ッジデータC’(P,T,Q)を計算しても良い。
For example, in the eighth embodiment, a pixel having a large amount of change in the pixel value in a direction orthogonal to the angle φ direction in the plane pattern is regarded as an edge, and the other pixels are determined as non-edges. The converted edge data C ′ (P, T, Q) may be created. At this time, the values of the geometric transformation edge data C ′ (P, T, Q) are 0 and 1
, Or multi-valued data according to the amount of change in the pixel value. further,
As another simpler configuration of the filter unit 2610, a processing configuration that does not depend on the angle φ, for example, by using a two-dimensional convolution filter having a size of 3 × 3 pixels to convert the geometrically transformed edge data C ′ (P, T, Q). You may calculate.

【0332】第9及び第11の実施形態については、例
えば、各Q毎のD(R,S,Q)平面パターンにおい
て、水平方向と直交する方向への画素値の変化量が大き
い画素をエッジとみなし、他の画素を非エッジと判定す
ることによって幾何変換エッジデータD’(R,S,
Q)を作成しても良い。このとき、幾何変換エッジデー
タD’(R,S,Q)の値は、0及び1からなる2値デ
ータであっても良いし、また、上記画素値の変化量に応
じた多値データとしても良い。さらに、フィルタ部のよ
り簡単な他の構成として、例えば、3×3画素サイズの
2次元コンボリューションフィルタを用いて幾何変換エ
ッジデータD’(R,S,Q)を計算しても良い。
In the ninth and eleventh embodiments, for example, in a D (R, S, Q) plane pattern for each Q, pixels having a large amount of change in pixel value in a direction orthogonal to the horizontal direction are defined as edges. And the other pixels are determined to be non-edges, whereby the geometrically transformed edge data D ′ (R, S,
Q) may be created. At this time, the value of the geometric transformation edge data D ′ (R, S, Q) may be binary data consisting of 0 and 1, or may be multi-valued data corresponding to the amount of change in the pixel value. Is also good. Further, as another simpler configuration of the filter unit, the geometric transformation edge data D ′ (R, S, Q) may be calculated using, for example, a two-dimensional convolution filter having a size of 3 × 3 pixels.

【0333】(M-7) 上記第5の実施形態以降の各実施
形態では、幾何変換エッジデータの計算及び投影分散デ
ータの計算は、対象するキューブ内の全領域に対して行
なったが、計算量削減のため一部領域に限定して行なっ
ても、これら実施形態と同様の効果が得られる。
(M-7) In each of the fifth and subsequent embodiments, the calculation of the geometrically transformed edge data and the calculation of the projection variance data are performed for all regions in the target cube. The same effects as those of the embodiments can be obtained even when the operation is performed only in a part of the region in order to reduce the amount.

【0334】例えば、第9の実施形態において、幾何変
換部2601はQが取りうる範囲のうち適当な3つの値
に対してのみ幾何変換データD(R,S,Q)を求める
よう構成し、フィルタ部2610及び水平投影分散計算
部2602についても上記3つのQの値に対してのみ処
理を行なうよう構成しても良く、その結果、得られる動
き量は、既に記載した第6の実施形態から得られる動き
量とほぼ同じ値が得られる。
For example, in the ninth embodiment, the geometric transformation unit 2601 is configured to determine the geometric transformation data D (R, S, Q) only for three appropriate values in the range that Q can take. The filter unit 2610 and the horizontal projection variance calculation unit 2602 may also be configured to perform processing only on the above three values of Q, and as a result, the obtained motion amount is determined from the already described sixth embodiment. Almost the same value as the obtained motion amount is obtained.

【0335】(M-8) 上記第5の実施形態以降の各実施
形態では、制御パラメータθ及び又はφを時分割で代え
て、動き量に応じた値θm及びφmを捜すものを示した
が、制御パラメータθ及び又はφの値が異なる毎の並列
処理により動き量に応じた値θm及びφmを捜すように
しても良い。
(M-8) In each of the fifth and subsequent embodiments, the control parameters θ and / or φ are replaced by time division to search for values θm and φm according to the amount of motion. Alternatively, the values θm and φm according to the amount of motion may be searched for by parallel processing for different values of the control parameters θ and / or φ.

【0336】(M-9) 上記各実施形態は、入力動画像デ
ータがフレームの時系列であるものを示したが、フレー
ムを縦横に分割したブロックに、時間軸方向を加えた3
次元データであっても良い。
(M-9) In each of the above embodiments, the input moving image data is a time series of frames, but the time axis direction is added to blocks obtained by dividing a frame vertically and horizontally.
It may be dimensional data.

【0337】(M-10) 上記第1〜第4実施形態のような
動き量の出力方法を上記第5〜第12の実施形態が採用
しても良く、また、上記第5〜第12実施形態のような
動き量の出力方法を上記第1〜第4の実施形態が採用し
ても良い。
(M-10) The fifth through twelfth embodiments may employ the motion amount output method as in the first through fourth embodiments. The above-described first to fourth embodiments may employ a motion amount output method as in the embodiment.

【0338】(M-11) 上記第2の実施形態で説明したよ
うな有限ラドン変換を、適用可能ならば、他の実施形態
の投影パターンの作成等に適用するようにしても良い。
(M-11) The finite Radon transform as described in the second embodiment may be applied to the creation of a projection pattern in another embodiment, if applicable.

【0339】[0339]

【発明の効果】以上のように、本発明によれば、水平
軸、垂直軸及び時間軸の3次元空間上で表された動画像
データが入力され、その動画像データに対する座標軸変
換処理を通じて、入力された動画像データにおける動き
に応じた縞状パターンを含み得る座標軸変換データを形
成する座標軸変換手段と、形成された座標軸変換データ
における縞状パターンの情報に基づいて、入力された動
画像データにおける動きの情報を得る動き情報形成手段
とを備えたので、動きの大小に拘らず、演算量がほぼ一
定である、しかも、画像中の対象物の一連の動きを大局
的に把握可能な、さらに、画像データに雑音が含まれて
も、動き検出エラーが発生し難い動画像処理装置を実現
できる。
As described above, according to the present invention, moving image data represented on a three-dimensional space of a horizontal axis, a vertical axis, and a time axis is input, and the coordinate axis conversion processing is performed on the moving image data. Coordinate axis conversion means for forming coordinate axis conversion data that may include a striped pattern corresponding to movement in the input moving image data, and input moving image data based on information on the striped pattern in the formed coordinate axis conversion data. With the motion information forming means for obtaining the motion information in, the amount of calculation is substantially constant regardless of the magnitude of the motion, and a series of motions of the object in the image can be grasped globally. Furthermore, even if noise is included in the image data, it is possible to realize a moving image processing device in which a motion detection error hardly occurs.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態の構成を示すブロック図であ
る。
FIG. 1 is a block diagram illustrating a configuration of a first embodiment.

【図2】従来の動き検出方法の説明図である。FIG. 2 is an explanatory diagram of a conventional motion detection method.

【図3】第1の実施形態の時空間軸変換部の動作説明図
である。
FIG. 3 is an explanatory diagram of an operation of a spatio-temporal axis conversion unit according to the first embodiment.

【図4】第1の実施形態の投影パターン作成部の動作説
明図である。
FIG. 4 is a diagram illustrating the operation of a projection pattern creation unit according to the first embodiment.

【図5】第1の実施形態の縞方向検出部の動作説明図で
ある。
FIG. 5 is a diagram illustrating the operation of the fringe direction detection unit according to the first embodiment.

【図6】第1の実施形態の動き量出力部の出力方法の説
明図である。
FIG. 6 is an explanatory diagram of an output method of a motion amount output unit according to the first embodiment.

【図7】第2の実施形態の構成を示すブロック図であ
る。
FIG. 7 is a block diagram illustrating a configuration of a second embodiment.

【図8】第2の実施形態の有限ラドン変換部の動作説明
図である。
FIG. 8 is an explanatory diagram of an operation of a finite Radon conversion unit according to the second embodiment.

【図9】第2の実施形態の縞方向検出部の動作説明図で
ある。
FIG. 9 is an explanatory diagram of an operation of a fringe direction detection unit according to the second embodiment.

【図10】第3の実施形態の構成を示すブロック図であ
る。
FIG. 10 is a block diagram illustrating a configuration of a third embodiment.

【図11】第3の実施形態の低域遮断フィルタ部の動作
説明図である。
FIG. 11 is a diagram illustrating the operation of a low-frequency cutoff filter unit according to the third embodiment.

【図12】第4の実施形態の構成を示すブロック図であ
る。
FIG. 12 is a block diagram illustrating a configuration of a fourth embodiment.

【図13】第5の実施形態の構成を示すブロック図であ
る。
FIG. 13 is a block diagram illustrating a configuration of a fifth embodiment.

【図14】第5の実施形態の幾何変換部の動作説明図
(その1)である。
FIG. 14 is a diagram (part 1) illustrating the operation of the geometric transformation unit according to the fifth embodiment.

【図15】第5の実施形態の幾何変換部の動作説明図
(その2)である。
FIG. 15 is a diagram (part 2) illustrating the operation of the geometric transformation unit according to the fifth embodiment.

【図16】第5の実施形態の投影分散計算部の動作説明
図である。
FIG. 16 is an explanatory diagram of the operation of the projection variance calculation unit of the fifth embodiment.

【図17】第6の実施形態の構成を示すブロック図であ
る。
FIG. 17 is a block diagram illustrating a configuration of a sixth embodiment.

【図18】第6の実施形態の幾何変換部の動作説明図で
ある。
FIG. 18 is an explanatory diagram of an operation of a geometric transformation unit according to the sixth embodiment.

【図19】第6の実施形態の水平投影分散計算部の動作
説明図である。
FIG. 19 is an explanatory diagram of the operation of the horizontal projection variance calculation unit of the sixth embodiment.

【図20】第6の実施形態の変形実施形態の幾何変換部
の動作説明図である。
FIG. 20 is an explanatory diagram of an operation of a geometric conversion unit according to a modified embodiment of the sixth embodiment.

【図21】第7の実施形態の構成を示すブロック図であ
る。
FIG. 21 is a block diagram illustrating a configuration of a seventh embodiment.

【図22】第7の実施形態の探索範囲設定部の動作説明
図である。
FIG. 22 is a diagram illustrating the operation of a search range setting unit according to the seventh embodiment.

【図23】第8の実施形態の構成を示すブロック図であ
る。
FIG. 23 is a block diagram showing the configuration of the eighth embodiment.

【図24】第8の実施形態の幾何変換部及びフィルタ部
の動作説明図である。
FIG. 24 is an explanatory diagram illustrating operations of a geometric conversion unit and a filter unit according to the eighth embodiment.

【図25】第8の実施形態のフィルタ部を設けた効果の
説明図である。
FIG. 25 is an explanatory diagram of an effect obtained by providing a filter unit according to the eighth embodiment.

【図26】第9の実施形態の構成を示すブロック図であ
る。
FIG. 26 is a block diagram showing a configuration of a ninth embodiment.

【図27】第9の実施形態の幾何変換部及びフィルタ部
の動作説明図である。
FIG. 27 is an explanatory diagram of operations of a geometric conversion unit and a filter unit according to the ninth embodiment.

【図28】第9の実施形態のフィルタ部を設けた効果の
説明図である。
FIG. 28 is an explanatory diagram of an effect obtained by providing a filter unit according to the ninth embodiment.

【図29】第10の実施形態の構成を示すブロック図で
ある。
FIG. 29 is a block diagram showing the configuration of the tenth embodiment.

【図30】第10の実施形態のフィルタ付水平投影分散
計算部の動作説明図である。
FIG. 30 is an explanatory diagram of the operation of the horizontal projection variance calculation unit with filter according to the tenth embodiment.

【図31】第11の実施形態の構成を示すブロック図で
ある。
FIG. 31 is a block diagram illustrating a configuration of an eleventh embodiment.

【図32】第11の実施形態のパターン重畳部の動作説
明図である。
FIG. 32 is a diagram illustrating the operation of the pattern superimposing unit according to the eleventh embodiment.

【図33】第12の実施形態の構成を示すブロック図で
ある。
FIG. 33 is a block diagram showing a configuration of a twelfth embodiment.

【図34】第12の実施形態のハフ変換部の動作説明図
である。
FIG. 34 is a diagram illustrating the operation of the Hough transform unit according to the twelfth embodiment.

【符号の説明】[Explanation of symbols]

101、701、1001、1201…時空間軸変換
部、 102、1202…投影パターン作成部、 103、703、1003、1203…縞方向検出部、 104、704、1004、1204…動き量出力部、 702、1002…有限ラドン変換部、 705、1005…候補角度記憶部、 1006、1205…低域遮断フィルタ部、 1301、1701、2101、2301、2601、
2901、3101、3301…幾何変換部、 1302、2302…投影分散計算部、 1303、1703、2103、2303、2603、
2901、3103、3303…動き検出部、 1702、2102、2602、3102…水平投影分
散計算部、 2104…探索範囲設定部、 2310、2610、3110、3310…フィルタ
部、 2902…フィルタ付水平投影分散計算部、 3111、3311…パターン重畳部。
101, 701, 1001, 1201 ... space-time axis conversion unit, 102, 1202 ... projection pattern creation unit, 103, 703, 1003, 1203 ... stripe direction detection unit, 104, 704, 1004, 1204 ... motion amount output unit, 702 , 1002: finite Radon transform unit, 705, 1005: candidate angle storage unit, 1006, 1205: low-pass cutoff filter unit, 1301, 1701, 2101, 2301, 2601,
2901, 3101, 3301 ... geometric conversion unit, 1302, 2302 ... projection dispersion calculation unit, 1303, 1703, 2103, 2303, 2603,
2901, 3103, 3303: motion detectors, 1702, 2102, 2602, 3102: horizontal projection variance calculator, 2104: search range setting unit, 2310, 2610, 3110, 3310: filter unit, 2902: horizontal projection variance calculation with filter Section, 3111, 3311 ... pattern superimposition section.

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成8年12月18日[Submission date] December 18, 1996

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0212[Correction target item name] 0212

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0212】手順(1) パターンC(P,T,Q)の各
画素毎に画素値の傾き(gp,gt)=(∂C/∂P,
∂T/∂P)を計算する。
Procedure (1) Slope (gp, gt) of pixel value for each pixel of pattern C (P, T, Q) = (∂C / ∂P,
∂T / ∂P) is calculated.

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0237[Correction target item name] 0237

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0237】手順(1) パターンD(R,S,Q)の各
画素毎に画素値の傾き(gr,gs)=(∂D/∂R,
∂D/∂S)を計算する。
Procedure (1) Slope (gr, gs) of pixel value for each pixel of pattern D (R, S, Q) = (∂D / ∂R,
∂D / ∂S) is calculated.

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】 水平軸、垂直軸及び時間軸の3次元空間
上で表された動画像データが入力され、その動画像デー
タに対する座標軸変換処理を通じて、入力された動画像
データにおける動きに応じた縞状パターンを含み得る座
標軸変換データを形成する座標軸変換手段と、 形成された座標軸変換データにおける縞状パターンの情
報に基づいて、入力された動画像データにおける動きの
情報を得る動き情報形成手段とを備えたことを特徴とす
る動画像処理装置。
1. Moving image data represented in a three-dimensional space of a horizontal axis, a vertical axis, and a time axis is input, and a coordinate axis conversion process is performed on the moving image data to correspond to the motion in the input moving image data. Coordinate axis conversion means for forming coordinate axis conversion data that may include a striped pattern; and motion information forming means for obtaining information on movement in input moving image data based on information on the striped pattern in the formed coordinate axis conversion data. A moving image processing apparatus comprising:
【請求項2】 上記座標軸変換手段は、入力された動画
像データの垂直軸方向の各値毎の時間軸及び水平軸の2
次元空間上で表された第1の座標軸変換データと、入力
された動画像データの水平軸方向の各値毎の時間軸及び
垂直軸の2次元空間上で表された第2の座標軸変換デー
タとを形成するものであり、 上記動き情報形成手段は、第1の座標軸変換データにお
ける縞状パターンの情報及び第2の座標軸変換データに
おける縞状パターンの情報に基づいて、入力された動画
像データにおける動きの情報を得るものであることを特
徴とする請求項1に記載の動画像処理装置。
2. The coordinate axis converting means according to claim 1, wherein said moving image data includes a time axis and a horizontal axis for each value in the vertical axis direction.
First coordinate axis conversion data expressed on a three-dimensional space, and second coordinate axis conversion data expressed on a two-dimensional space of a time axis and a vertical axis for each value in the horizontal axis direction of the input moving image data The motion information forming means is configured to input the moving image data based on the information of the striped pattern in the first coordinate axis conversion data and the information of the striped pattern in the second coordinate axis conversion data. The moving image processing apparatus according to claim 1, wherein information on a motion in the motion image is obtained.
【請求項3】 上記動き情報形成手段が、 第1及び第2の座標軸変換データのそれぞれに対して、
種々の投影方向についての投影パターンを作成する投影
パターン作成部と、 第1の座標軸変換データについて得られた複数の投影パ
ターンの中でその変動が最も大きい投影パターンの投影
方向である縞方向を検出すると共に、第2の座標軸変換
データについて得られた複数の投影パターンの中でその
変動が最も大きい投影パターンの投影方向である縞方向
を検出する縞方向検出部と、 第1の座標軸変換データに係る縞方向と、第2の座標軸
変換データに係る縞方向との情報に基づいて、入力され
た動画像データにおける動きの情報を得る動き量出力部
とを有することを特徴とする請求項2に記載の動画像処
理装置。
3. The motion information forming means, for each of the first and second coordinate axis conversion data,
A projection pattern creation unit that creates projection patterns for various projection directions; and detects a stripe direction that is a projection direction of a projection pattern having the largest variation among a plurality of projection patterns obtained for the first coordinate axis conversion data. And a fringe direction detecting unit for detecting a fringe direction which is a projection direction of a projection pattern having the largest variation among a plurality of projection patterns obtained with respect to the second coordinate axis conversion data; 3. The image processing apparatus according to claim 2, further comprising: a motion amount output unit that obtains information on a motion in the input moving image data based on information on the stripe direction and the stripe direction according to the second coordinate axis conversion data. The moving image processing apparatus according to the above.
【請求項4】 上記座標軸変換手段及び上記投影パター
ン作成部の間、又は、上記投影パターン作成部及び上記
縞方向検出部の間に、入力されたデータに対して、低域
遮断処理を行なう低域遮断フィルタ部を設けたことを特
徴とする請求項3に記載の動画像処理装置。
4. A low-frequency cutoff process for input data between the coordinate axis conversion means and the projection pattern creation unit or between the projection pattern creation unit and the stripe direction detection unit. The moving image processing apparatus according to claim 3, further comprising an area cutoff filter unit.
【請求項5】 上記投影パターン作成部として、入力デ
ータに対して、有限ラドン変換を行なう有限ラドン変換
部を適用したことを特徴とする請求項3又は4に記載の
動画像処理装置。
5. The moving image processing apparatus according to claim 3, wherein a finite Radon transform unit that performs a finite Radon transform on the input data is applied as the projection pattern creating unit.
【請求項6】 上記縞方向検出部は、上記有限ラドン変
換部から直接与えられることがあり得る有限ラドン変換
による投影パターン、又は、上記有限ラドン変換部から
出力されて上記低域遮断フィルタ部を介して与えられる
ことがあり得る有限ラドン変換による投影パターン毎
に、その縞方向角度候補とそれに対応する信頼度とを格
納している記憶部を関連して備え、 上記縞方向検出部は、入力された有限ラドン変換による
複数の投影パターンのうち、その投影パターンの変動が
大きいものの縞方向角度候補及び信頼度に基づいて、縞
方向を検出することを特徴とする請求項5に記載の動画
像処理装置。
6. The fringe direction detecting unit is configured to perform a projection pattern based on a finite Radon transform that can be directly given from the finite Radon transform unit, or the low frequency cut-off filter unit output from the finite Radon transform unit. For each projection pattern by the finite Radon transform that can be given via the storage unit that stores the stripe direction angle candidate and the reliability corresponding thereto, wherein the stripe direction detection unit is configured to input, 6. The moving image according to claim 5, wherein, among the plurality of projection patterns obtained by the finite Radon transform, the stripe direction is detected based on the stripe direction angle candidate and the reliability of the projection pattern whose fluctuation is large. Processing equipment.
【請求項7】 上記座標軸変換手段は、入力された動画
像データの時間軸方向の各値毎の水平軸及び垂直軸の2
次元空間上のデータを角度変数Θだけ回転させた後、そ
の回転後の水平軸、垂直軸及び時間軸の3次元空間上で
表された動画像データを、垂直軸方向(又は水平軸方
向)の各値毎の時間軸と水平軸(又は垂直軸)との2次
元空間上で表されたデータに変換するものであり、 上記動き情報形成手段は、上記座標軸変換手段からの座
標軸変換データにおいて縞状パターンが現れる角度変数
Θ、及び、その座標軸変換データにおける縞状パターン
の角度Φに基づいて、入力された動画像データにおける
動きの情報を得るものであることを特徴とする請求項1
に記載の動画像処理装置。
7. The coordinate axis conversion means according to claim 2, wherein said moving image data includes a horizontal axis and a vertical axis for each value in a time axis direction.
After rotating the data in the three-dimensional space by the angle variable Θ, the moving image data represented in the three-dimensional space of the horizontal axis, the vertical axis, and the time axis after the rotation is converted into the vertical axis direction (or the horizontal axis direction). Is converted into data expressed on a two-dimensional space of a time axis and a horizontal axis (or a vertical axis) for each value of the above. 2. The motion information in input moving image data is obtained based on an angle variable が in which a striped pattern appears and an angle Φ of the striped pattern in the coordinate axis conversion data.
3. The moving image processing device according to claim 1.
【請求項8】 上記動き情報形成手段が、 上記座標軸変換手段からの各角度変数Θについてのそれ
ぞれの座標軸変換データに対し、角度変数Φの投影パタ
ーンを得て、最も変動が大きい投影パターンの情報を得
る投影パターン変動計算部と、 最も変動が大きい投影パターンにおいての角度変数Θ及
びΦに基づいて、入力された動画像データにおける動き
の情報を得る動き検出部とでなることを特徴とする請求
項7に記載の動画像処理装置。
8. The motion information forming means obtains a projection pattern of an angle variable Φ for each coordinate axis conversion data for each angle variable Θ from the coordinate axis conversion means, and obtains information of a projection pattern having the largest variation. And a motion detector that obtains information on the motion in the input moving image data based on the angle variables Θ and Φ in the projection pattern having the largest fluctuation. Item 8. The moving image processing device according to Item 7.
【請求項9】 上記座標軸変換手段及び上記動き情報形
成手段の間に、入力された回転後の水平軸、垂直軸及び
時間軸の3次元空間上で表された動画像データにおける
垂直軸方向(又は水平軸方向)の各値毎の時間軸と水平
軸(又は垂直軸)との2次元空間のデータに対して、低
域遮断処理を行なう低域遮断フィルタ部を有することを
特徴とする請求項7又は8に記載の動画像処理装置。
9. A vertical axis direction in the moving image data expressed in a three-dimensional space of the input horizontal axis, vertical axis, and time axis after rotation between the coordinate axis conversion unit and the motion information forming unit. Or a low-frequency cut-off filter unit for performing low-frequency cut-off processing on data in a two-dimensional space of a time axis and a horizontal axis (or a vertical axis) for each value in the horizontal axis direction. Item 9. The moving image processing device according to item 7 or 8.
【請求項10】 上記低域遮断フィルタ部から出力され
たフィルタリング後の垂直軸方向(又は水平軸方向)の
各値毎の時間軸と水平軸(又は垂直軸)との2次元空間
データを、垂直軸方向(又は水平軸方向)に重畳合成し
て上記動き情報形成手段に出力するパターン重畳部を有
することを特徴とする請求項9に記載の動画像処理装
置。
10. Two-dimensional spatial data of a time axis and a horizontal axis (or a vertical axis) for each value in a vertical axis direction (or a horizontal axis direction) after filtering output from the low-frequency cutoff filter unit, The moving image processing apparatus according to claim 9, further comprising a pattern superimposing unit that superimposes and synthesizes in a vertical axis direction (or a horizontal axis direction) and outputs the resultant to the motion information forming unit.
【請求項11】 上記投影パターン変動計算部が、入力
データに対して、有限ラドン変換を行ない、有限ラドン
変換による投影パターンの中で最も変動が大きい投影パ
ターンの情報を得るものであることを特徴とする請求項
8〜10のいずれかに記載の動画像処理装置。
11. The projection pattern variation calculation section performs a finite Radon transform on input data, and obtains information on a projection pattern having the largest variation among projection patterns by the finite Radon transform. The moving image processing device according to any one of claims 8 to 10.
【請求項12】 上記投影パターン変動計算部は、有限
ラドン変換により生じることがあり得る投影パターン毎
に、その縞方向角度候補とそれに対応する信頼度とを格
納している記憶部を内蔵し、有限ラドン変換による複数
の投影パターンのうち、その投影パターンの変動が大き
いものの縞方向角度候補及び信頼度に基づいて、最も変
動が大きい投影パターンの情報を得るものであることを
特徴とする請求項11に記載の動画像処理装置。
12. The projection pattern variation calculation unit includes a storage unit for storing, for each projection pattern that may be generated by the finite Radon transform, a stripe direction angle candidate and a reliability corresponding thereto, The information of the projection pattern having the largest variation is obtained based on the stripe direction angle candidate and the reliability of the projection pattern having a large variation among the plurality of projection patterns by the finite Radon transform. 12. The moving image processing device according to item 11.
【請求項13】 上記投影パターン変動計算部が、上記
座標軸変換手段からの座標軸変換データに対する角度変
数Φの投影パターンを得、各投影パターンに対して低域
遮断処理を行ない、この低域遮断処理後の投影パターン
の中で最も変動が大きい投影パターンの情報を得るもの
であることを特徴とする請求項8に記載の動画像処理装
置。
13. The projection pattern fluctuation calculation unit obtains a projection pattern of an angle variable Φ with respect to coordinate axis conversion data from the coordinate axis conversion means, performs low-frequency cutoff processing on each projection pattern, and performs low-frequency cutoff processing. 9. The moving image processing apparatus according to claim 8, wherein information of a projection pattern having the largest variation among subsequent projection patterns is obtained.
【請求項14】 上記座標軸変換手段及び上記動き情報
形成手段の間に、入力された回転後の水平軸、垂直軸及
び時間軸の3次元空間上で表された動画像データにおけ
る垂直軸方向(又は水平軸方向)の各値毎の時間軸と水
平軸(又は垂直軸)との2次元空間のデータに対して、
低域遮断処理を行なう低域遮断フィルタ部を有すると共
に、 上記動き情報形成手段が、 上記低域遮断フィルタ部からの各角度変数Θについての
それぞれの座標軸変換データに対し、ハフ変換を行なっ
て、その座標軸変換データにおける縞状パターンの角度
Φ及び信頼度を得るハフ変換部と、 信頼度が最も大きい角度Φ及び角度変数Θに基づいて、
入力された動画像データにおける動きの情報を得る動き
検出部とでなることを特徴とする請求項7に記載の動画
像処理装置。
14. A vertical axis direction (moving image data) expressed in a three-dimensional space of a horizontal axis, a vertical axis, and a time axis after rotation between the coordinate axis converting means and the motion information forming means. Or horizontal axis direction) for data in a two-dimensional space of a time axis and a horizontal axis (or a vertical axis) for each value,
A low-frequency cutoff filter for performing low-frequency cutoff processing, and the motion information forming means performs Hough transform on each coordinate axis conversion data for each angle variable の from the low-frequency cutoff filter, A Hough transform unit that obtains the angle Φ and the reliability of the striped pattern in the coordinate axis conversion data, and the angle Φ and the angle variable Θ with the highest reliability
The moving image processing apparatus according to claim 7, comprising a motion detecting unit that obtains information on a motion in the input moving image data.
【請求項15】 上記低域遮断フィルタ部から出力され
たフィルタリング後の垂直軸方向(又は水平軸方向)の
各値毎の時間軸と水平軸(又は垂直軸)との2次元空間
データを、垂直軸方向(又は水平軸方向)に重畳合成し
て上記動き情報形成手段に出力するパターン重畳部を有
することを特徴とする請求項14に記載の動画像処理装
置。
15. Two-dimensional spatial data of a time axis and a horizontal axis (or a vertical axis) for each value in a vertical axis direction (or a horizontal axis direction) after filtering output from the low-frequency cutoff filter unit, 15. The moving image processing apparatus according to claim 14, further comprising a pattern superimposing unit that superimposes and synthesizes in a vertical axis direction (or a horizontal axis direction) and outputs the resultant to the motion information forming unit.
【請求項16】 上記座標軸変換手段は、入力された動
画像データの時間軸方向の各値毎の水平軸及び垂直軸の
2次元空間上のデータを角度変数Θだけ回転させた後、
その回転後の水平軸、垂直軸及び時間軸の3次元空間上
で表された動画像データを、垂直軸方向(又は水平軸方
向)の各値毎の時間軸と水平軸(又は垂直軸)との2次
元空間上で表されたデータに変換し、さらに、その変換
後の垂直軸方向(又は水平軸方向)の各値毎の時間軸と
水平軸(又は垂直軸)との2次元空間上のデータを角度
変数Φだけ回転させるものであり、 上記動き情報形成手段は、上記座標軸変換手段からの座
標軸変換データにおいて最も縞状パターンが明瞭に現れ
る角度変数Θ及びΦに基づいて、入力された動画像デー
タにおける動きの情報を得るものであることを特徴とす
る請求項1に記載の動画像処理装置。
16. The coordinate axis conversion means rotates data in a two-dimensional space of a horizontal axis and a vertical axis for each value in the time axis direction of the input moving image data by an angle variable Θ,
The moving image data expressed in the three-dimensional space of the horizontal axis, the vertical axis, and the time axis after the rotation is converted into the time axis and the horizontal axis (or the vertical axis) for each value in the vertical axis direction (or the horizontal axis direction). Is converted into data represented on a two-dimensional space of the following two-dimensional space, and further, the two-dimensional space of the time axis and the horizontal axis (or the vertical axis) for each value in the vertical axis direction (or the horizontal axis direction) after the conversion The above data is rotated by an angle variable Φ. 2. The moving image processing apparatus according to claim 1, wherein information on movement in the moving image data is obtained.
【請求項17】 上記動き情報形成手段が、 上記座標軸変換手段からの各角度変数Θ及びΦの組み合
わせのそれぞれの座標軸変換データに対し、水平方向
(又は垂直方向)の投影パターンを得て、最も変動が大
きい投影パターンの情報を得る一方向投影パターン変動
計算部と、 最も変動が大きい投影パターンにおいての角度変数Θ及
びΦに基づいて、入力された動画像データにおける動き
の情報を得る動き検出部とでなることを特徴とする請求
項16に記載の動画像処理装置。
17. The motion information forming means obtains a horizontal (or vertical) projection pattern with respect to each coordinate axis conversion data of each combination of the angle variables Θ and Φ from the coordinate axis conversion means, A one-way projection pattern variation calculation unit that obtains information on a projection pattern having a large variation, and a motion detection unit that obtains information on the motion in input moving image data based on the angle variables Θ and Φ in the projection pattern with the largest variation 17. The moving image processing device according to claim 16, wherein:
【請求項18】 上記座標軸変換手段及び上記動き情報
形成手段の間に、入力された回転後の垂直軸方向(又は
水平軸方向)の各値毎の時間軸と水平軸(又は垂直軸)
との2次元空間上のデータに対して、低域遮断処理を行
なう低域遮断フィルタ部を有することを特徴とする請求
項16又は17に記載の動画像処理装置。
18. A time axis and a horizontal axis (or a vertical axis) for each value of a vertical axis direction (or a horizontal axis direction) after rotation inputted between the coordinate axis converting means and the motion information forming means.
18. The moving image processing apparatus according to claim 16, further comprising a low-frequency cutoff filter unit that performs low-frequency cutoff processing on the data in the two-dimensional space.
【請求項19】 上記低域遮断フィルタ部から出力され
たフィルタリング後の垂直軸方向(又は水平軸方向)の
各値毎の時間軸と水平軸(又は垂直軸)との2次元空間
データを、垂直軸方向(又は水平軸方向)に重畳合成し
て上記動き情報形成手段に出力するパターン重畳部を有
することを特徴とする請求項18に記載の動画像処理装
置。
19. Two-dimensional spatial data of a time axis and a horizontal axis (or a vertical axis) for each value in a vertical axis direction (or a horizontal axis direction) after filtering output from the low-frequency cutoff filter unit, 19. The moving image processing apparatus according to claim 18, further comprising a pattern superimposing unit that superimposes and synthesizes in a vertical axis direction (or a horizontal axis direction) and outputs the resultant to the motion information forming unit.
【請求項20】 上記一方向投影パターン変動計算部
が、上記座標軸変換手段からの各角度変数Θ及びΦの組
み合わせのそれぞれの座標軸変換データに対し、水平方
向(又は垂直方向)の投影パターンを得、各投影パター
ンに対して低域遮断処理を行ない、この低域遮断処理後
の投影パターンの中で最も変動が大きい投影パターンの
情報を得るものであることを特徴とする請求項17に記
載の動画像処理装置。
20. The one-directional projection pattern variation calculation unit obtains a horizontal (or vertical) projection pattern for each coordinate axis conversion data of a combination of each angle variable Θ and Φ from the coordinate axis conversion means. 18. The method according to claim 17, wherein a low-frequency cutoff process is performed on each projection pattern to obtain information on a projection pattern having the largest variation among the projection patterns after the low-frequency cutoff process. Moving image processing device.
【請求項21】 入力された動画像データにおける動画
像中の代表領域に対しフレーム間の動きベクトルを推定
し、又は、外部からこの動きベクトルを入力し、この動
きベクトルに基づき動き量の探索範囲を設定し、上記角
度Θ及びΦの取り得る範囲を設定する探索範囲設定部を
有することを特徴とする請求項7〜20のいずれかに記
載の動画像処理装置。
21. Estimating a motion vector between frames for a representative region in a moving image in the input moving image data, or inputting the motion vector from the outside, and searching for a motion amount based on the motion vector 21. The moving image processing apparatus according to claim 7, further comprising a search range setting unit that sets a range in which the angles Θ and Φ can be taken.
【請求項22】 上記座標軸変換手段による角度Θ又は
Φの回転処理で、回転前の2次元データの全ての画素
が、回転後の2次元データの全ての画素に1対1で対応
するように回転処理することを特徴とする請求項8〜1
5、17〜21のいずれかに記載の動画像処理装置。
22. In the rotation processing of the angle Θ or Φ by the coordinate axis converting means, all the pixels of the two-dimensional data before rotation correspond to all the pixels of the two-dimensional data after rotation on a one-to-one basis. The rotation processing is performed.
A moving image processing apparatus according to any one of 5, 17 to 21.
JP33590496A 1996-12-16 1996-12-16 Moving image processor Pending JPH10177655A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33590496A JPH10177655A (en) 1996-12-16 1996-12-16 Moving image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33590496A JPH10177655A (en) 1996-12-16 1996-12-16 Moving image processor

Publications (1)

Publication Number Publication Date
JPH10177655A true JPH10177655A (en) 1998-06-30

Family

ID=18293677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33590496A Pending JPH10177655A (en) 1996-12-16 1996-12-16 Moving image processor

Country Status (1)

Country Link
JP (1) JPH10177655A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067739A (en) * 2001-08-28 2003-03-07 Monolith Co Ltd Method and device for image transformation
JP2005311971A (en) * 2004-04-26 2005-11-04 Mitsutoyo Corp Image processing apparatus, method, and program
JP2007272733A (en) * 2006-03-31 2007-10-18 Sony Corp Image processing device and method, and program
CN104576483A (en) * 2013-10-25 2015-04-29 上海微电子装备有限公司 Silicon slice prealignment device and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067739A (en) * 2001-08-28 2003-03-07 Monolith Co Ltd Method and device for image transformation
JP2005311971A (en) * 2004-04-26 2005-11-04 Mitsutoyo Corp Image processing apparatus, method, and program
US7515764B2 (en) 2004-04-26 2009-04-07 Mitutoyo Corporation Image processing apparatus using morphology
JP2007272733A (en) * 2006-03-31 2007-10-18 Sony Corp Image processing device and method, and program
CN104576483A (en) * 2013-10-25 2015-04-29 上海微电子装备有限公司 Silicon slice prealignment device and method
CN104576483B (en) * 2013-10-25 2017-06-27 上海微电子装备有限公司 A kind of silicon wafer pre-alignment device and its method

Similar Documents

Publication Publication Date Title
US11562498B2 (en) Systems and methods for hybrid depth regularization
JP7173772B2 (en) Video processing method and apparatus using depth value estimation
JP6430064B2 (en) Method and system for aligning data
JP4887374B2 (en) A method for obtaining scattered parallax field in stereo vision
JP5249221B2 (en) Method for determining depth map from image, apparatus for determining depth map
Beardsley et al. 3D model acquisition from extended image sequences
EP0735775B1 (en) Image processing apparatus and method
Meilland et al. Dense visual mapping of large scale environments for real-time localisation
WO2004001672A1 (en) Digital image edge detection and road network tracking method and system
WO2000027131A2 (en) Improved methods and apparatus for 3-d imaging
KR20130112311A (en) Apparatus and method for reconstructing dense three dimension image
WO2021108626A1 (en) System and method for correspondence map determination
KR20040068291A (en) Method for estimating the dominant motion in a sequence of images
Yamamoto et al. A change detection method for remotely sensed multispectral and multitemporal images using 3-D segmentation
Funde et al. Object detection and tracking approaches for video surveillance over camera network
St-Charles et al. Online mutual foreground segmentation for multispectral stereo videos
JP2001101419A (en) Method and device for image feature tracking processing and three-dimensional data preparing method
JPH10177655A (en) Moving image processor
Xu et al. Optical flow-based video completion in spherical image sequences
Zhou et al. New eye contact correction using radial basis function for wide baseline videoconference system
Turetken et al. Temporally consistent layer depth ordering via pixel voting for pseudo 3D representation
Thevenon et al. Dense pixel matching between unrectified and distorted images using dynamic programming
Zhong et al. Depth Completion using Piecewise Planar Model
CN112233162A (en) Measuring method and device for plane image analysis based on structural illumination characteristics
Wang Novel dense stereo algorithms for high-quality depth estimation from images