JP2983354B2 - Exercise parameter extraction method - Google Patents

Exercise parameter extraction method

Info

Publication number
JP2983354B2
JP2983354B2 JP3279699A JP27969991A JP2983354B2 JP 2983354 B2 JP2983354 B2 JP 2983354B2 JP 3279699 A JP3279699 A JP 3279699A JP 27969991 A JP27969991 A JP 27969991A JP 2983354 B2 JP2983354 B2 JP 2983354B2
Authority
JP
Japan
Prior art keywords
output
image
differentiation
processing means
filter processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3279699A
Other languages
Japanese (ja)
Other versions
JPH05120428A (en
Inventor
隆 鳥生
憲男 田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3279699A priority Critical patent/JP2983354B2/en
Publication of JPH05120428A publication Critical patent/JPH05120428A/en
Application granted granted Critical
Publication of JP2983354B2 publication Critical patent/JP2983354B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、画像平面上に投影され
た動画像の座標及び速度に基づき、3次元運動パラメー
タとしての物体の並進速度及び回転速度を抽出する運動
パラメータ抽出方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion parameter extraction method for extracting a translation speed and a rotation speed of an object as three-dimensional motion parameters based on the coordinates and speed of a moving image projected on an image plane.

【0002】[0002]

【従来の技術】従来、3次元上で運動する物体をTVカ
メラなどにより撮像して画像平面上に投影し、得られた
2次元上の動画像の座標及び速度から、3次元上の物体
の並進速度及び回転速度を抽出する運動パラメータ抽出
方式が知られている。
2. Description of the Related Art Conventionally, a three-dimensionally moving object is imaged by a TV camera or the like and projected on an image plane. A motion parameter extraction method for extracting a translation speed and a rotation speed is known.

【0003】図7は従来のこの種の運動パラメータ抽出
方式の原理図である。図7において、X,Y,Zは、運
動する物体上の点の座標を示し、その点が画像平面上に
投影された点の座標をx,yで示すものとする。ここ
で、座標系の原点は、TVカメラのレンズの中心に設定
している。また、レンズの焦点距離は、1であるとす
る。このとき、座標X,Y,Zと座標x,yとは、次の
関係式を満たす。
FIG. 7 is a diagram showing the principle of a conventional motion parameter extraction method of this kind. In FIG. 7, X, Y, and Z indicate the coordinates of a point on a moving object, and the coordinates of the point where the point is projected on the image plane are indicated by x and y. Here, the origin of the coordinate system is set at the center of the lens of the TV camera. It is assumed that the focal length of the lens is 1. At this time, the coordinates X, Y, Z and the coordinates x, y satisfy the following relational expression.

【0004】 x=X/Z,y=Y/Z ・・(1) また、物体が運動パラメータとして、並進速度TX
Y,TZと、回転速度WX,WY,WZで運動したとき、
画像平面上の点x,yは次式で算出される速度VX,VY
を有する。 VX=−WXxy−WY(l+x2)−WZy+(TX−TZx)/Z VY= WYxy−WX(l+y2)+WZx+(TY−TZy)/Z ・・(2) 一方、時刻tにおける画像平面上の各点の明るさをI
(x,y,t)とする。画像平面上の各点は、VX,VY
の速度で動いているので、時刻tにおいて座標x,yの
位置にあった点は、時刻t+dtでは、x+VXdt,
y+VYdtの位置に移動する。移動中に各点の明るさ
が変化しない、すなわち、時刻tにおける画像と時刻t
+dtにおける画像の互いに対応する点の明るさが等し
いとすれば、次式が成立する。
X = X / Z, y = Y / Z (1) Further, the translation speed T X ,
When moving at T Y , T Z and rotation speeds W X , W Y , W Z ,
Points x and y on the image plane are speeds V X and V Y calculated by the following equations.
Having. V X = -W X xy-W Y (l + x 2) -W Z y + (T X -T Z x) / Z V Y = W Y xy-W X (l + y 2) + W Z x + (T Y -T Z y) / Z (2) On the other hand, the brightness of each point on the image plane at time t is expressed by I
(X, y, t). Each point on the image plane is V X , V Y
At the time t, the point at the position of the coordinates x, y at time t + dt is x + V X dt,
Move to the position of y + V Y dt. The brightness of each point does not change during the movement, that is, the image at time t and the time t
If the brightness of the corresponding points of the image at + dt is equal, the following equation is established.

【0005】 I(x,y,t)=I(x+VXdt,y+VYdt,t+dt) ・・(3) 従って、(3)式を偏微分すると、次式が成立する。 ∂I/∂xVX+∂I/∂yVY+∂I/∂t=0 ・・(4) ここで、(2)式の速度VX,VYを(4)式に代入する
と、画像の明るさI(x,y,z)と運動パラメータT
X,TY,TZ,WX,WY,WZと、画像の各点毎の奥行き
座標Zとの関係を表す次式が得られる。
I (x, y, t) = I (x + V X dt, y + V Y dt, t + dt) (3) Accordingly, when the equation (3) is partially differentiated, the following equation is established. ∂I / ∂xV X + ∂I / ∂yV Y + ∂I / ∂t = 0 (4) Here, when the velocities V X and V Y of equation (2) are substituted into equation (4), the image Brightness I (x, y, z) and motion parameter T
The following equation representing the relationship between X , T Y , T Z , W X , W Y , and W Z and the depth coordinate Z for each point of the image is obtained.

【0006】 ∂I/∂x{−WXxy+WY(l−x2)−WZy+(TX−TZx)/Z} + ∂I/∂y{WYxy−WX(l+y2)+WZx+(TY−TZy)/Z} +∂I/∂t=0 ・・(5) この(5)式は、画像の各点で成立する。この(5)式
を解けば、運動パラメータと奥行き座標が得られると予
想される。
[0006] ∂I / ∂x {-W X xy + W Y (l-x 2) -W Z y + (T X -T Z x) / Z} + ∂I / ∂y {W Y xy-W X (l + y 2) + W Z x + ( T Y -T Z y) / Z} + ∂I / ∂t = 0 ·· (5) the equation (5) is satisfied at each point of the image. By solving equation (5), it is expected that the motion parameters and the depth coordinates can be obtained.

【0007】しかしながら、方程式が画像の画素の数だ
け存在するのに対して、未知数として、奥行き座標Z
(x,y)が画像の画素の数だけ存在するとともに、運
動パラメータが6個も存在する。このため、未知数の数
が式の数よりも多いから、(5)式によって解を求める
ことはできない。
However, while the equations exist as many as the number of pixels in the image, the depth coordinates Z
There are (x, y) as many as the number of pixels in the image, and there are as many as six motion parameters. For this reason, since the number of unknowns is larger than the number of equations, a solution cannot be obtained by equation (5).

【0008】そこで、従来では奥行き座標が滑らかに変
化するなどの制約条件を付加することにより、運動パラ
メータや奥行き座標を算出していた。例えば(5)式の
左辺の二乗を全ての画素に対してたし合わせた結果と、
奥行き座標Z(x,y)のx方向の微分の二乗とy方向
の微分の二乗との和を全ての画素に対してたし合わせた
結果との総和を、最小にするように解を求めていた。
Therefore, conventionally, a motion parameter and a depth coordinate have been calculated by adding a constraint condition such that the depth coordinate changes smoothly. For example, the result of adding the square of the left side of equation (5) to all the pixels,
A solution is obtained so as to minimize the sum of the sum of the square of the derivative of the depth coordinate Z (x, y) in the x direction and the square of the derivative in the y direction for all pixels. I was

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上述し
た従来の方法を用いて解を得るためには、解の初期値を
与えたあと、前記総和が最小になるように解を繰り返し
更新していくという繰り返し計算が必要となるため、計
算量が膨大になるという問題があった。また、繰り返し
計算によって、必ずしも正しい解に収束するとは限らな
かった。
However, in order to obtain a solution using the above-mentioned conventional method, the solution is repeatedly updated so as to minimize the sum after giving an initial value of the solution. , The problem is that the amount of calculation becomes enormous. In addition, iterative calculations did not always converge on a correct solution.

【0010】本発明の目的は、計算量を削減できるとと
もに、正確な運動パラメータを求めることのできる運動
パラメータ抽出方式を提供することにある。
An object of the present invention is to provide a motion parameter extraction method capable of reducing the amount of calculation and obtaining an accurate motion parameter.

【0011】[0011]

【課題を解決するための手段】本発明は、上記課題を解
決し目的を達成するために、第1の発明として図1に示
す構成とした。3次元座標系(X,Y,Z)において運
動する物体を撮像することにより、2次元座標系(x,
y)の画像平面上に動画像を投影する画像入力手段1
と、この画像入力手段1から出力される動画像に対して
少なくとも二種類の空間フィルタ処理を施す空間フィル
タ処理手段3と、この空間フィルタ処理手段3からの各
出力に対して時間微分及びx方向の微分,y方向微分処
理を施す微分処理手段5,6と、この微分処理手段5,
6の各出力を用いて該各出力に含まれる座標Z成分を消
去することにより、前記物体の3次元運動パラメータと
して並進速度及び回転速度を算出する速度算出手段7と
を備えている。
In order to solve the above-mentioned problems and achieve the object, the present invention has a structure as shown in FIG. 1 as a first invention. By imaging an object that moves in a three-dimensional coordinate system (X, Y, Z), a two-dimensional coordinate system (x,
image input means 1 for projecting a moving image on the image plane of y)
A spatial filter processing means 3 for applying at least two types of spatial filter processing to a moving image output from the image input means 1; a time differential and an x-direction for each output from the spatial filter processing means 3 Differential processing means 5 and 6 for performing the differential processing and the y-direction differential processing,
And a speed calculation means for calculating a translation speed and a rotation speed as three-dimensional motion parameters of the object by eliminating the coordinate Z component included in each output by using each output of 6.

【0012】また、第2の発明として図2に示す構成と
した。3次元座標系X,Y,Zにおいて運動する物体を
撮像することにより、2次元座標系x,yの画像平面上
に動画像を投影する画像入力手段1と、この画像入力手
段1から出力される動画像の中から少なくとも二種類の
スペクトルバンドを抽出する色フィルタ処理手段11
と、この色フィルタ処理手段11の各出力に対して時間
微分及びx方向の微分,y方向の微分処理を施す微分処
理手段5,6と、この微分処理手段5,6の各出力を用
いて該各出力に含まれる座標Z成分を消去することによ
り、物体の3次元運動パラメータとして並進速度及び回
転速度を算出する速度算出手段7とを備えている。
FIG. 2 shows a second invention. Image input means 1 for projecting a moving image on an image plane of a two-dimensional coordinate system x, y by imaging an object moving in a three-dimensional coordinate system X, Y, Z, and output from the image input means 1. Filter processing means 11 for extracting at least two kinds of spectral bands from a moving image
And differential processing means 5 and 6 for performing time differentiation, x-direction differentiation and y-direction differentiation processing on each output of the color filter processing means 11, and using the outputs of the differentiation processing means 5 and 6. A speed calculating means 7 is provided for calculating a translation speed and a rotation speed as three-dimensional motion parameters of the object by eliminating the coordinate Z component included in each output.

【0013】また、より好適には次のようにするのがよ
い。すなわち、速度算出手段7は、微分処理手段5,6
の各出力に基づき座標Z成分を算出することを特徴とす
る。
Further, the following is more preferable. That is, the speed calculating means 7 is provided with the differential processing means 5, 6
The coordinate Z component is calculated based on each of the outputs.

【0014】[0014]

【作用】本発明によれば、次のような作用を呈する。画
像入力手段からの動画像に空間フィルタ処理手段で二種
類のフィルタ処理を施し、得られた各出力に微分処理手
段で時間微分及び空間微分を施し、得られた各出力を用
いて速度算出手段で該各出力に含まれる座標Z成分を消
去し、物体の3次元運動パラメータとして並進速度及び
回転速度を算出するようにした。
According to the present invention, the following functions are exhibited. The moving image from the image input means is subjected to two types of filter processing by the spatial filter processing means, the obtained outputs are subjected to time differentiation and spatial differentiation by the differentiation processing means, and the speed calculation means is obtained by using the obtained outputs. Then, the coordinate Z component included in each output is deleted, and the translation speed and the rotation speed are calculated as three-dimensional motion parameters of the object.

【0015】また、画像入力手段からの動画像に色フィ
ルタ処理手段でフィルタ処理を施し、得られた各出力に
微分処理手段で時間微分及び空間微分を施し、得られた
各出力を用いて速度算出手段で該各出力に含まれる座標
Z成分を消去し、物体の3次元運動パラメータとして並
進速度及び回転速度を算出するようにした。
Further, the moving image from the image input means is subjected to filter processing by a color filter processing means, and the obtained outputs are subjected to time differentiation and spatial differentiation by a differentiation processing means. The calculation means eliminates the coordinate Z component included in each output, and calculates the translation speed and the rotation speed as three-dimensional motion parameters of the object.

【0016】また、必要があれば、微分処理手段の各出
力を解くことで、奥行き座標Zも得られる。
If necessary, the depth coordinate Z can be obtained by solving each output of the differential processing means.

【0017】[0017]

【実施例】以下、本発明の具体的な実施例を説明する。 <実施例1>図3は本発明に係る運動パラメータ抽出方
式を実現するための実施例1の構成ブロック図である。
図4は運動パラメータ抽出方式を説明するためのフロー
図である。図3及び図4を参照して実施例1を説明す
る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, specific embodiments of the present invention will be described. <Embodiment 1> FIG. 3 is a block diagram showing the configuration of Embodiment 1 for realizing a motion parameter extraction method according to the present invention.
FIG. 4 is a flowchart for explaining the exercise parameter extraction method. Example 1 will be described with reference to FIGS. 3 and 4.

【0018】図3において、TVカメラ1は、図7に示
すように3次元座標系(X,Y,Z)において運動する
物体を撮像することにより、2次元座標系(x,y)の
画像平面上に動画像を投影し(ステップ101)、その
出力をディジタル信号に変換するためのA/D変換器2
に出力する。
In FIG. 3, the TV camera 1 picks up an image of a moving object in a three-dimensional coordinate system (X, Y, Z) as shown in FIG. A / D converter 2 for projecting a moving image on a plane (step 101) and converting its output into a digital signal
Output to

【0019】A/D変換器2からのディジタル信号出力
は、空間フィルタ回路3a,3bに取り込まれる。空間
フィルタ回路3a,3bは、A/D変換器2からのディ
ジタル化された動画像に対して後述する(6)式、
(7)式に従って、少なくとも二種類の空間フィルタ処
理を施す(ステップ102)。ここで、空間フィルタ回
路3a,3bとは、ある点を中心として正方形(すなわ
ち、n×n(nは整数))または円形視野内の画像濃度
の重み付き平均値を求め、その値を再びその点の濃度と
するものである。例えばある点(x,y)を中心として
3×3の平方領域の各点の濃度の重み付き平均値を求
め、フィルタ処理後の画像の新しい濃度とするものであ
り、3×3の行列の各要素の値は、3×3画素領域の各
点の濃度に与える重み係数である。
The digital signal output from the A / D converter 2 is taken into the spatial filter circuits 3a and 3b. The spatial filter circuits 3a and 3b apply the following equation (6) to the digitized moving image from the A / D converter 2.
According to equation (7), at least two types of spatial filter processing are performed (step 102). Here, the spatial filter circuits 3a and 3b determine a weighted average value of image densities in a square (that is, n × n (n is an integer)) or a circular visual field with a certain point as a center, and return that value to that It is the density of a point. For example, a weighted average value of the density of each point in a 3 × 3 square area with respect to a certain point (x, y) is obtained as a new density of the image after the filter processing. The value of each element is a weight coefficient applied to the density of each point in the 3 × 3 pixel area.

【0020】すなわち、空間フィルタ回路3a,3b
は、2次元ディジタル画像において、画像の平滑化、す
なわち積分操作を行って雑音を除去するものである。し
たがって、空間フィルタ回路3a,3bは、入力画像I
(x,y,t)に対して二種類の空間フィルタfl
(x,y),fl(x,y)を施し次式を得る。
That is, the spatial filter circuits 3a and 3b
In the two-dimensional digital image, noise is removed by performing image smoothing, that is, integration operation. Therefore, the spatial filter circuits 3a and 3b output the input image I
Two types of spatial filters fl for (x, y, t)
(X, y) and fl (x, y) are applied to obtain the following equation.

【0021】 I1(x,y,t)=∫f1(x−y’,y−y’)I1(x’,y’,t) dx’dy’ ・・(6) I2(x,y,t)=∫f2(x−y’,y−y’)I2(x’,y’,t) dx’dy’ ・・(7) 遅延回路4a,4bは、空間フィルタ回路3a,3bか
らのフィルタ処理された動画像を一定時間だけ遅延保持
するものであり、画像メモリなどで構成されている。
I 1 (x, y, t) = {f 1 (xy ′, yy ′) I 1 (x ′, y ′, t) dx′dy ′ (6) I 2 ( x, y, t) = {f 2 (xy ′, yy ′) I 2 (x ′, y ′, t) dx′dy ′ (7) The delay circuits 4 a and 4 b are spatial filters. The moving image subjected to the filtering process from the circuits 3a and 3b is held for a predetermined time with a delay, and is configured by an image memory or the like.

【0022】時間微分回路5a,5bは、遅延回路4
a,4bで一定時間だけ遅延されたフィルタ処理画像
(1時刻前の画像)と空間フィルタ回路3a,3bから
の直前のフィルタ処理画像との差をとることにより、時
間微分処理を行なう(ステップ103)。
The time differentiating circuits 5a and 5b include a delay circuit 4
Time differential processing is performed by taking the difference between the filtered image (the image one time before) delayed by a fixed time in a and 4b and the immediately preceding filtered image from the spatial filter circuits 3a and 3b (step 103). ).

【0023】x方向微分回路6aー1,6bー1は、空
間フィルタ回路3a,3bからの出力に対してx方向の
微分処理を施し、y方向微分回路6aー2,6bー2
は、空間フィルタ回路3a,3bからの出力に対してy
方向の微分処理を施す(ステップ104)。
The x-direction differentiators 6a-1 and 6b-1 apply x-direction differentiation to the outputs from the spatial filter circuits 3a and 3b, and the y-direction differentiators 6a-2 and 6b-2.
Represents y with respect to the outputs from the spatial filter circuits 3a and 3b.
A differentiation process in the direction is performed (step 104).

【0024】すなわち、(6)(7)式に示す二つの画
像に対して(5)式に相当する式をたてる。 ∂I1/∂x{−WXxy+WY(l−x2)−WZy+(TX−TZx)/Z} +∂I1/∂y{WYxy−WX(l+y2)+WZx+(TY−TZy)/Z} +∂I1/∂t=0 ・・(8) ∂I2/∂x{−WXxy+WY(l−x2)−WZy+(TX−TZx)/Z} +∂I2/∂y{WYxy−WX(l+y2)+WJx+(TY−TZy)/Z} +∂I2/∂t=0 ・・(9) 次に時間微分回路5a,5b,x方向微分回路6aー
1,6bー1,y方向微分回路6aー2,6bー2から
の各出力が運動パラメータ算出回路7に取り込まれる。 <運動パラメータ算出回路の動作説明>運動パラメータ
算出回路7は、x方向微分回路6aー1,6bー1,y
方向微分回路6aー2,6bー2の各出力を用いて該各
出力に含まれる座標Z成分を消去することにより、物体
の3次元運動パラメータとして並進速度及び回転速度を
算出すべく、次のような計算を行なう。
That is, equations corresponding to equation (5) are established for the two images shown in equations (6) and (7). ∂I 1 / ∂x {-W X xy + W Y (l-x 2) -W Z y + (T X -T Z x) / Z} + ∂I 1 / ∂y {W Y xy-W X (l + y 2 ) + W Z x + (T Y -T Z y) / Z} + ∂I 1 / ∂t = 0 ·· (8) ∂I 2 / ∂x {-W X xy + W Y (l-x 2) -W Z y + (T X -T Z x ) / Z} + ∂I 2 / ∂y {W Y xy-W X (l + y 2) + W J x + (T Y -T Z y) / Z} + ∂I 2 / ∂ t = 0 Next, the outputs from the time differentiating circuits 5a and 5b, the x-direction differentiating circuits 6a-1 and 6b-1, and the y-direction differentiating circuits 6a-2 and 6b-2 are used as the motion parameter calculating circuit 7. It is taken in. <Description of Operation of Motion Parameter Calculation Circuit> The motion parameter calculation circuit 7 includes x-direction differentiation circuits 6a-1, 6b-1, and y.
By using each output of the direction differentiating circuits 6a-2 and 6b-2 to eliminate the coordinate Z component contained in each output, the following translational and rotational speeds are calculated as three-dimensional motion parameters of the object. Perform such calculations.

【0025】まず、(8)(9)式から座標成分Zを消
去して、次式を求める。 UXXXX+UYYYY+UZZZZ+UXYXY+UZXZX+FXX+FYY+FZZ =0 ・・(10) ここで、 UXX={(∂I1/∂x)(∂I2/∂y)−(∂I2/∂x)(∂I1/∂y)} (1+y2)/2 UYY={(∂I1/∂x)(∂I2/∂y)−(∂I2/∂x)(∂I1/∂y)} (1+x2)/2 UZZ={(∂I1/∂x)(∂I2/∂y)−(∂I2/∂x)(∂I1/∂y)} (x2+y2)/2 UXY=−{(∂I1/∂x)(∂I2/∂y)−(∂I2/∂x)(∂I1/∂y) }xy UYZ=−{(∂I1/∂x)(∂I2/∂y)−(∂I2/∂x)(∂I1/∂y) }y UZX=−{(∂I1/∂x)(∂I2/∂y)−(∂I2/∂x)(∂I1/∂y) }x ・・(11) FX=+(∂I2/∂x)(∂I1/∂t)−(∂I1/∂x)(∂I2/∂t) FY=+(∂I2/∂y)(∂I1/∂t)−(∂I1/∂y)(∂I2/∂t) FZ=−y(∂I2/∂y)(∂I1/∂t)+y(∂I1/∂y)(∂I2/∂t )−x(∂I2/∂x)(∂I1/∂t)+x−(∂I1/∂x)(∂I2/∂t) ・・(12) AXX=2WXXYY=2WYYZZ=2WZZXY=WXY+WYXYZ=WYZ+WZYZX=WZX+WXZ ・・(13) (10)式は、画像の各点で成立するので、画像におけ
る画素数だけの方程式が得られる。一方、未知数は運動
パラメータ6個だけであるので、解を求めるのに十分な
式が得られた。 <(10)式の解法>次に(10)式の解き方の一例を
示す。(10)式は画像の各点で成立するので、(1
0)式の左辺を二乗したものをその物体が画像上で占め
る全ての領域内の点にわたってたし合わせたものも、零
に等しい。
First, the coordinate component Z is deleted from the equations (8) and (9), and the following equation is obtained. U XX A XX + U YY A YY + U ZZ A ZZ + U XY A XY + U ZX A ZX + F X T X + F Y T Y + F Z T Z = 0 ·· (10) wherein, U XX = {(∂I 1 / ∂x) (∂I 2 / ∂y) − (∂I 2 / ∂x) (∂I 1 / ∂y)} (1 + y 2 ) / 2 U YY = {(∂I 1 / ∂x) (∂ I 2 / ∂y) − (∂I 2 / ∂x) (∂I 1 / ∂y)} (1 + x 2 ) / 2 U ZZ = {(∂I 1 / ∂x) (∂I 2 / ∂y) − (∂I 2 / ∂x) (∂I 1 / ∂y)} (x 2 + y 2 ) / 2 U XY = − {(∂I 1 / ∂x) (∂I 2 / ∂y) − (∂ I 2 / ∂x) (∂I 1 / ∂y)} xy U YZ = − {(∂I 1 / ∂x) (∂I 2 / ∂y) − (∂I 2 / ∂x) (∂I 1 / ∂y)} y U ZX = − {(∂I 1 / ∂x) (∂I 2 / ∂y) − (∂I 2 / ∂x) (∂I 1 / ∂y)} x ·· (11 ) F X = + ( I 2 / ∂x) (∂I 1 / ∂t) - (∂I 1 / ∂x) (∂I 2 / ∂t) F Y = + (∂I 2 / ∂y) (∂I 1 / ∂t ) − (∂I 1 / ∂y) (∂I 2 / ∂t) F Z = −y (∂I 2 / ∂y) (∂I 1 / ∂t) + y (∂I 1 / ∂y) (∂ I 2 / Δt) −x (ΔI 2 / Δx) (ΔI 1 / Δt) + x− (ΔI 1 / Δx) (ΔI 2 / Δt) (12) A XX = 2W X T X A YY = 2W Y T Y A ZZ = 2W Z T Z A XY = W X T Y + W Y T X A YZ = W Y T Z + W Z T Y A ZX = W Z T X + W X T Z · (13) Since the equation (10) holds at each point of the image, an equation for the number of pixels in the image is obtained. On the other hand, since the unknown is only six motion parameters, a sufficient expression for obtaining a solution was obtained. <Solution of Equation (10)> Next, an example of how to solve Equation (10) will be described. Since equation (10) holds at each point of the image, (1)
The sum of the square of the left side of equation (0) and the points in all the regions occupied by the object on the image is also equal to zero.

【0026】 ∫(UXXXX+UYYYY+UZZZZ+EXYXY+UZXZX+FXX+FYY+ FZZ2dxdy=0 ・・(14) しかし、実際には画像上にノイズが含まれるので、(1
4)式は必ずしも成立しない。そこで、(14)式の左
辺が最小になる解を求める。ここで、AXX,A YY
ZZ,AXY,AYZ,AZX,TX,TY,TZを独立な未知
変数と見なせば、(14)式の左辺を最小にする解は、
次式で定義される観測行列Sの最小固有値に対応する固
有ベクトルに等しい。
∫ (UXXAXX+ UYYAYY+ UZZAZZ+ EXYAXY+ UZXAZX+ FXTX+ FYTY+ FZTZ)Twodxdy = 0 (14) However, since the image actually contains noise, (1)
Equation 4) does not always hold. Therefore, the left of equation (14)
Find the solution that minimizes the edge. Where AXX, A YY,
AZZ, AXY, AYZ, AZX, TX, TY, TZThe independent unknown
Assuming that it is a variable, the solution that minimizes the left side of equation (14) is
The fixed value corresponding to the minimum eigenvalue of the observation matrix S defined by
Equivalent to a vector.

【0027】 S=∫UUdxdy ・・(15) ただし、 U=(UXX,UYY,UZZ,UXY,UYZ,UZX,FX
Y,FZ) である。
S = ∫UUdxdy (15) where U = (U XX , U YY , U ZZ , U XY , U YZ , U ZX , F X ,
F Y , F Z ).

【0028】前記(15)式によって観測行列Sを算出
し(ステップ105)、この観測行列Sの最小固有値に
対応する固有ベクトルを算出することで、(13)式で
定義されるAXX,AYY,AZZ,AXY,AYZ,AZX及び並
進速度TX,TY,TZを得る(ステップ106)。さら
に(13)式をWX,WY,WZについて解くことによっ
て回転速度も求めることができる(ステップ107)。
The observation matrix S is calculated by the above equation (15) (step 105), and the eigenvector corresponding to the minimum eigenvalue of the observation matrix S is calculated, whereby A XX and A YY defined by the equation (13) are obtained. , a ZZ, a XY, a YZ, a ZX and translational velocity T X, T Y, obtaining the T Z (step 106). Further, the rotational speed can also be obtained by solving the equation (13) for W X , W Y , and W Z (step 107).

【0029】よって、従来のように繰り返し計算を行な
うことなく動画像から物体の3次元運動のパラメータを
算出できるので、計算量を削減できるとともに、誤った
解への収束を回避できる。なお、運動パラメータが得ら
れれば、(8)式または(9)式をZについての方程式
と見なして解けば、各画素毎に奥行きZが得られる(ス
テップ108)。
Thus, since the parameters of the three-dimensional motion of the object can be calculated from the moving image without repeatedly performing the calculation as in the related art, the amount of calculation can be reduced and convergence to an erroneous solution can be avoided. If the motion parameters are obtained, the equation (8) or (9) is solved assuming that the equation is an equation for Z, and the depth Z is obtained for each pixel (step 108).

【0030】さらに、運動パラメータ算出回路7で得ら
れた3次元運動パラメータデータをパラメータメモリ8
に格納しておき、後にこれらのパラメータデータを産業
用ロボットの位置座標データとして用いることもでき
る。 <実施例2>次に本発明の実施例2について説明する。
図5は実施例2の構成ブロック図、図6は実施例2の運
動パラメータ抽出方式を説明するためのフロー図であ
る。
Further, the three-dimensional motion parameter data obtained by the motion parameter calculation circuit 7 is stored in a parameter memory 8.
And these parameter data can be used later as position coordinate data of the industrial robot. <Embodiment 2> Next, Embodiment 2 of the present invention will be described.
FIG. 5 is a configuration block diagram of the second embodiment, and FIG. 6 is a flowchart for explaining a motion parameter extraction method of the second embodiment.

【0031】実施例2が実施例1に対して特徴とすると
ころは、入力画像に二種類の空間フィルタ回路3a,3
bを施す代わりに、カラー画像を入力する時のように動
画像の中から少なくとも二種類のスペクトルバンドを抽
出するための色フィルタを施す色フィルタ回路11a,
11bを用いた点にある。色フィルタ回路11a,11
bは、カラー用TVカメラに内蔵されているものとす
る。なお、実施例2のその他の構成は、実施例1の構成
と同一である。
The feature of the second embodiment over the first embodiment is that two types of spatial filter circuits 3a and 3
b, a color filter circuit 11a for applying a color filter for extracting at least two types of spectral bands from a moving image, such as when a color image is input,
11b. Color filter circuits 11a, 11
It is assumed that b is built in the color TV camera. The other configuration of the second embodiment is the same as the configuration of the first embodiment.

【0032】例えば、TVカメラ1で動画像を入力して
(ステップ101)、A/D変換器2でディジタル画像
に変換し、このディジタル画像に対して色フィルタ回路
11aで赤のフィルタを施し(ステップ202)、画像
Ir(x,y,z)を得る。また、ディジタル画像に対
して色フィルタ回路11bで緑のフィルタを施し、画像
Ig(x,y,t)を得る。
For example, a moving image is input by the TV camera 1 (step 101), converted to a digital image by the A / D converter 2, and a red filter is applied to the digital image by the color filter circuit 11a (step 101). Step 202), an image Ir (x, y, z) is obtained. Further, a green filter is applied to the digital image by the color filter circuit 11b to obtain an image Ig (x, y, t).

【0033】そして、画像Ir(x,y,z)と画像I
g(x,y,t)とを用いて、以下、前述した実施例1
と同様な処理を行なう(ステップ103〜108)。こ
のように色フィルタ回路11a,11bを用いても、繰
り返し演算を行なうことなく、前記実施例1と同様に運
動パラメータとして並進速度,回転速度及び奥行き座標
を求めることができる。なお、色フィルタは上述した2
つの色以外であってもよい。
Then, the image Ir (x, y, z) and the image I
g (x, y, t) and the first embodiment described above.
(Steps 103 to 108). As described above, even when the color filter circuits 11a and 11b are used, the translation speed, the rotation speed, and the depth coordinates can be obtained as the motion parameters without repeating the calculation. Note that the color filter is the same as the above-mentioned 2
Other colors may be used.

【0034】また、上述した実施例では、直交座標系に
ついて説明したが、本発明は円柱座標系、極座標系に適
用可能である。円柱座標の場合には、 x=rcosθ y=rsinθ によって円柱座標(r,θ)を導入する。このとき、 ∂/∂x=cosθ・∂/∂r−(sinθ・∂/∂θ)/r ∂/∂y=sinθ・∂/∂r+(cosθ・∂/∂θ)/r 従って、前述した式(11)(12)のUXX,UYY,U
ZZ・・・は以下のようになる。 UXX=(1+r2sin2θ){(∂I1/∂r)(∂I2
∂θ)−(∂I2/∂r)(∂I1/∂θ)}/2r UYY=(1+r2cos2θ){(∂I1/∂r)(∂I2
∂θ)−(∂I2/∂r)(∂I1/∂θ)}/2r UZZ=r{(∂I1/∂r)(∂I2/∂θ)−(∂I2
/∂r)(∂I1/∂θ)}/2 UXY=−rcosθsinθ{(∂I1/∂r)(∂I2/∂
θ)−(∂I2/∂r)(∂I1/∂θ)} UYZ=−sinθ{(∂I1/∂r)(∂I2/∂θ)−
(∂I2/∂r)(∂I1/∂θ)} UZX=−cosθ{(∂I1/∂r)(∂I2/∂θ)−
(∂I2/∂r)(∂I1/∂θ)} FX={cosθ(∂I2/∂r)−sinθ(∂I2/∂θ)
/r}(∂I1/∂t)−{cosθ(∂I1/∂r)−sin
θ(∂I1/∂θ)/r}(∂I2/∂t) FY={sinθ(∂I2/∂r)+cosθ(∂I2/∂θ)
/r}(∂I1/∂t)−{sinθ(∂I1/∂r)+cos
θ(∂I1/∂θ)/r}(∂I2/∂t) FZ=−r(∂I2/∂r)(∂I1/∂t)+r(∂I1
/∂r)(∂I2/∂t) その他は、前述した直交座
標系と同様である。
In the above-described embodiment, the rectangular coordinate system has been described. However, the present invention is applicable to a cylindrical coordinate system and a polar coordinate system. In the case of cylindrical coordinates, cylindrical coordinates (r, θ) are introduced by x = rcos θ y = rsinθ. At this time, ∂ / ∂x = cos θ∂ / ∂r- (sin θ∂ / ∂θ) / r∂ / ∂y = sin θ∂ / ∂r + (cos θ∂ / ∂θ) / r U XX , U YY , U in equations (11) and (12)
ZZ is as follows. U XX = (1 + r 2 sin 2 θ) {(∂I 1 / ∂r) (∂I 2 /
∂θ) - (∂I 2 / ∂r ) (∂I 1 / ∂θ)} / 2r U YY = (1 + r 2 cos 2 θ) {(∂I 1 / ∂r) (∂I 2 /
∂θ)-(∂I 2 / ∂r) (∂I 1 / ∂θ)} / 2r U ZZ = r {(∂I 1 / ∂r) (∂I 2 / ∂θ)-(∂I 2
/ ∂r) (∂I 1 / ∂θ)} / 2 U XY = −r cos θ sin θ {(∂I 1 / ∂r) (∂I 2 / ∂
θ) − (∂I 2 / ∂r) (∂I 1 / ∂θ)} U YZ = −sin θ {(∂I 1 / ∂r) (∂I 2 / ∂θ) −
(∂I 2 / ∂r) (∂I 1 / ∂θ)} U ZX = −cos θ {(∂I 1 / ∂r) (∂I 2 / ∂θ) −
(∂I 2 / ∂r) (∂I 1 / ∂θ)} F X = {cos θ (∂I 2 / ∂r) −sin θ (∂I 2 / ∂θ)
/ R} (∂I 1 / ∂t)-{cosθ (∂I 1 / ∂r) -sin
θ (∂I 1 / ∂θ) / r} (∂I 2 / ∂t) F Y = {sin θ (∂I 2 / ∂r) + cos θ (∂I 2 / ∂θ)
/ R} (∂I 1 / ∂t) − {sin θ (∂I 1 / ∂r) + cos
θ (∂I 1 / ∂θ) / r} (∂I 2 / ∂t) F Z = −r (∂I 2 / ∂r) (∂I 1 / ∂t) + r (∂I 1
/ ∂r) (∂I 2 / ∂t) Others are the same as in the above-described rectangular coordinate system.

【0035】次に極座標について説明する。 x=tanφcosθ y=tanφsinθ によって極座標(φ,θ)を導入する。このとき、従っ
て、前述した式(11)(12)のUXX,UYY,UZZ
・・は以下のようになる。 UXX=cos3φ(1+r2sin2θ){(∂I1/∂φ)(∂
2/∂θ)−(∂I2/∂φ)(∂I1/∂θ)}/2s
inφ UYY=cos3φ(1+r2cos2θ){(∂I1/∂φ)(∂
2/∂θ)−(∂I2/∂φ)(∂I1/∂θ)}/2s
inφ UZZ=sinφcosφ{(∂I1/∂φ)(∂I2/∂θ)−
(∂I2/∂φ)(∂I1/∂θ)}/2 UXY=−sinφcosφsinθcosθ{(∂I1/∂φ)(∂
2/∂θ)−(∂I2/∂φ)(∂I1/∂θ)} UYZ=−cos2φsinθ{(∂I1/∂φ)(∂I2/∂
θ)−(∂I2/∂φ)(∂I1/∂θ)} UZX=−cos2φcosθ{(∂I1/∂φ)(∂I2/∂
θ)−(∂I2/∂φ)(∂I1/∂θ)} FX={cos2φcosθ(∂I2/∂φ)−sinθ(∂I2
∂θ)/tanφ}(∂I1/∂t)−{cos2φcosθ(I1
∂/∂φ)−sinθ(I1∂/∂θ)/tanφ}(∂I2
∂t) FY={cos2φsinθ(∂I2/∂φ)+cosθ(∂I2
∂θ)/tanφ}(∂I1/∂t)−{cos2φsinθ(I1
∂/∂φ)+cosθ(I1∂/∂θ)/tanφ}(∂I2
∂t) FZ=−sinφcosφ(∂I2/∂φ)(∂I1/∂t)+s
inφcosφ(∂I1/∂φ)(∂I2/∂t) その他は、前述した直交座標系と同様である。このほ
か、本発明の要旨を逸脱しない範囲で種々変形実施可能
であるのはもちろんである。
Next, polar coordinates will be described. x = tanφcosθ y = tanφsinθ Introduce polar coordinates (φ, θ). At this time, therefore, U XX , U YY , U ZZ.
・ ・ Is as follows. U XX = cos 3 φ (1 + r 2 sin 2 θ) {(∂I 1 / ∂φ) (∂
I 2 / ∂θ)-(∂I 2 / ∂φ) (∂I 1 / ∂θ)} / 2s
inφ U YY = cos 3 φ ( 1 + r 2 cos 2 θ) {(∂I 1 / ∂φ) (∂
I 2 / ∂θ)-(∂I 2 / ∂φ) (∂I 1 / ∂θ)} / 2s
inφ U ZZ = sinφcosφ {(∂I 1 / ∂φ) (∂I 2 / ∂θ) -
(∂I 2 / ∂φ) (∂I 1 / ∂θ)} / 2 U XY = −sinφcosφsinθcosθ {(∂I 1 / ∂φ) (∂
I 2 / ∂θ)-(∂I 2 / ∂φ) (∂I 1 / ∂θ)} U YZ = −cos 2 φsin θ {(∂I 1 / ∂φ) (∂I 2 / ∂
θ) − (∂I 2 / ∂φ) (∂I 1 / ∂θ)} U ZX = −cos 2 φcos θ {(∂I 1 / ∂φ) (∂I 2 / ∂
θ) − (∂I 2 / ∂φ) (∂I 1 / ∂θ)} F X = {cos 2 φcos θ (∂I 2 / ∂φ) −sin θ (∂I 2 /
∂θ) / tanφ} (∂I 1 / ∂t) − {cos 2 φcosθ (I 1
∂ / ∂φ) −sin θ (I 1 ∂ / ∂θ) / tanφ} (∂I 2 /
∂t) F Y = {cos 2 φsinθ (∂I 2 / ∂φ) + cosθ (∂I 2 /
∂θ) / tanφ} (∂I 1 / ∂t) − {cos 2 φsinθ (I 1
∂ / ∂φ) + cos θ (I 1 ∂ / ∂θ) / tanφ} (∂I 2 /
∂t) F Z = -sinφcosφ (∂I 2 / ∂φ) (∂I 1 / ∂t) + s
inφcosφ (∂I 1 / ∂φ) (∂I 2 / ∂t) Others are the same as those of the above-described orthogonal coordinate system. In addition, it goes without saying that various modifications can be made without departing from the spirit of the present invention.

【0036】[0036]

【発明の効果】本発明によれば、繰り返し演算を行わず
に動画像から物体の三次元運動のパラメータを算出でき
るので、計算量を削減できるとともに、誤った解への収
束を回避できる。
According to the present invention, since the parameters of the three-dimensional motion of the object can be calculated from the moving image without repeating the calculation, the amount of calculation can be reduced and convergence to an erroneous solution can be avoided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の発明の原理図である。FIG. 1 is a principle diagram of the first invention.

【図2】第2の発明の原理図である。FIG. 2 is a principle view of the second invention.

【図3】本発明の実施例1の構成ブロック図である。FIG. 3 is a configuration block diagram of a first embodiment of the present invention.

【図4】実施例1における運動パラメータ抽出方式を説
明するためのフロー図である。
FIG. 4 is a flowchart for explaining a motion parameter extraction method according to the first embodiment.

【図5】本発明の実施例2の構成ブロック図である。FIG. 5 is a configuration block diagram of a second embodiment of the present invention.

【図6】実施例2における運動パラメータ抽出方式を説
明するためのフロー図である。
FIG. 6 is a flowchart illustrating a motion parameter extraction method according to a second embodiment.

【図7】従来の運動パラメータ抽出方式の原理図であ
る。
FIG. 7 is a principle diagram of a conventional motion parameter extraction method.

【符号の説明】[Explanation of symbols]

1・・TVカメラ 2・・A/D変換器 3・・空間フィルタ回路 4・・遅延回路 5・・時間微分回路 6a・・x方向微分回路 6b・・y方向微分回路 7・・運動パラメータ算出回路 8・・パラメータメモリ 11・・色フィルタ回路 1. TV camera 2. A / D converter 3. Spatial filter circuit 4. Delay circuit 5. Time differentiation circuit 6a..x direction differentiation circuit 6b..y direction differentiation circuit 7..Motion parameter calculation Circuit 8. Parameter memory 11. Color filter circuit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平3−6780(JP,A) 特開 平4−276553(JP,A) 特開 平5−151354(JP,A) 遠藤利生外、「時空間に関する滑らか さ制約を用いたオプティカルフローの算 出」、1991年、電子情報通信学会論文誌 D−▲II▼,Vol.J74−D−▲I I▼,No.12,p.1678−1685 (58)調査した分野(Int.Cl.6,DB名) G06T 7/20 JICSTファイル(JOIS)────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-3-6780 (JP, A) JP-A-4-276553 (JP, A) JP-A-5-151354 (JP, A) Toshio Endo, " Calculation of Optical Flow Using Spatio-Temporal Smoothness Constraint ”, 1991, IEICE Transactions D- ▲ II ▼, Vol. J74-D-II, No. 12, p. 1678-1685 (58) Field surveyed (Int. Cl. 6 , DB name) G06T 7/20 JICST file (JOIS)

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 3次元座標系(X,Y,Z)において運
動する物体を撮像することにより、2次元座標系(x,
y)の画像平面上に動画像を投影する画像入力手段
(1)と、 この画像入力手段(1)から出力される動画像に対して
少なくとも二種類の空間フィルタ処理を施す空間フィル
タ処理手段(3)と、 この空間フィルタ処理手段(3)からの各出力に対して
時間微分及びx方向の微分,y方向微分処理を施す微分
処理手段(5,6)と、 この微分処理手段(5,6)の各出力を用いて該各出力
に含まれる座標Z成分を消去することにより、前記物体
の3次元運動パラメータとして並進速度及び回転速度を
算出する速度算出手段(7)とを備え、 前記画像入力手段(1)からの動画像に空間フィルタ処
理手段(3)でフィルタ処理を施し、得られた各出力に
微分処理手段(5,6)で時間微分及び空間微分を施
し、得られた各出力を用いて速度算出手段(7)で該各
出力に含まれる座標Z成分を消去し、前記物体の3次元
運動パラメータとして並進速度及び回転速度を算出する
ことを特徴とする運動パラメータ抽出方式。
1. An image of a moving object in a three-dimensional coordinate system (X, Y, Z) is taken, so that a two-dimensional coordinate system (x,
y) an image input means (1) for projecting a moving image on the image plane; and a spatial filter processing means for performing at least two types of spatial filter processing on the moving image output from the image input means (1). 3), differentiation processing means (5, 6) for performing time differentiation, x-direction differentiation, and y-direction differentiation processing on each output from the spatial filter processing means (3); 6) speed calculation means (7) for calculating a translation speed and a rotation speed as three-dimensional motion parameters of the object by eliminating a coordinate Z component included in each output by using each output of 6); The moving image from the image input means (1) is subjected to filter processing by the spatial filter processing means (3), and the obtained outputs are subjected to time differentiation and spatial differentiation by the differentiation processing means (5, 6). Speed calculation using each output A motion parameter extraction method, wherein the output means (7) deletes the coordinate Z component included in each output, and calculates a translation speed and a rotation speed as three-dimensional motion parameters of the object.
【請求項2】 3次元座標系(X,Y,Z)において運
動する物体を撮像することにより、2次元座標系(x,
y)の画像平面上に動画像を投影する画像入力手段
(1)と、 この画像入力手段(1)から出力される動画像の中から
少なくとも二種類のスペクトルバンドを抽出する色フィ
ルタ処理手段(11)と、 この色フィルタ処理手段(11)の各出力に対して時間
微分及びx方向の微分,y方向の微分処理を施す微分処
理手段(5,6)と、 この微分処理手段(5,6)の各出力を用いて該各出力
に含まれる座標Z成分を消去することにより、前記物体
の3次元運動パラメータとして並進速度及び回転速度を
算出する速度算出手段(7)とを備え、 前記画像入力手段(1)からの動画像に色フィルタ処理
手段(11)でフィルタ処理を施し、得られた各出力に
微分処理手段(5,6)で時間微分及び空間微分を施
し、得られた各出力を用いて速度算出手段(7)で該各
出力に含まれる座標Z成分を消去し、前記物体の3次元
運動パラメータとして並進速度及び回転速度を算出する
ことを特徴とする運動パラメータ抽出方式。
2. An image of a moving object in a three-dimensional coordinate system (X, Y, Z) is taken, so that a two-dimensional coordinate system (x,
y) an image input unit (1) for projecting a moving image on the image plane; and a color filter processing unit (1) for extracting at least two types of spectral bands from the moving image output from the image input unit (1). 11), differential processing means (5, 6) for performing time differentiation, x-direction differentiation, and y-direction differentiation processing on each output of the color filter processing means (11); 6) speed calculation means (7) for calculating a translation speed and a rotation speed as three-dimensional motion parameters of the object by eliminating a coordinate Z component included in each output by using each output of 6); The moving image from the image input means (1) is subjected to filter processing by the color filter processing means (11), and the obtained outputs are subjected to time differentiation and spatial differentiation by the differentiation processing means (5, 6). Speed using each output A motion parameter extraction method, wherein a calculating means (7) deletes a coordinate Z component included in each output, and calculates a translation speed and a rotation speed as three-dimensional motion parameters of the object.
【請求項3】 前記速度算出手段(7)は、前記微分処
理手段(5,6)の各出力に基づき座標Z成分を算出す
ることを特徴とする請求項1または請求項2記載の運動
パラメータ抽出方式。
3. The motion parameter according to claim 1, wherein said velocity calculating means calculates a coordinate Z component based on each output of said differential processing means. Extraction method.
JP3279699A 1991-10-25 1991-10-25 Exercise parameter extraction method Expired - Fee Related JP2983354B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3279699A JP2983354B2 (en) 1991-10-25 1991-10-25 Exercise parameter extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3279699A JP2983354B2 (en) 1991-10-25 1991-10-25 Exercise parameter extraction method

Publications (2)

Publication Number Publication Date
JPH05120428A JPH05120428A (en) 1993-05-18
JP2983354B2 true JP2983354B2 (en) 1999-11-29

Family

ID=17614648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3279699A Expired - Fee Related JP2983354B2 (en) 1991-10-25 1991-10-25 Exercise parameter extraction method

Country Status (1)

Country Link
JP (1) JP2983354B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2810320B2 (en) * 1994-04-18 1998-10-15 住友ゴム工業株式会社 Sphere rotation measuring device and measuring method
JP3394242B2 (en) 1998-06-09 2003-04-07 尚利 前田 Quantitative method of myocardial contractile movement using ECG-gated cross-sectional tomograms
DE102004060402A1 (en) 2004-12-14 2006-07-13 Adc Automotive Distance Control Systems Gmbh Method and device for determining a vehicle speed
JP4825260B2 (en) * 2008-12-03 2011-11-30 日本電信電話株式会社 Three-dimensional motion detection device, three-dimensional motion detection method, and three-dimensional motion detection program
JP2011081479A (en) * 2009-10-05 2011-04-21 Nippon Telegr & Teleph Corp <Ntt> Moving image photographic subject motion display device and moving image photographic subject motion display program
KR102573302B1 (en) * 2018-10-10 2023-08-31 삼성전자 주식회사 Camera module for stabilizing video, electrical video including the same and video stabilizing method of the electrical device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
遠藤利生外、「時空間に関する滑らかさ制約を用いたオプティカルフローの算出」、1991年、電子情報通信学会論文誌D−▲II▼,Vol.J74−D−▲II▼,No.12,p.1678−1685

Also Published As

Publication number Publication date
JPH05120428A (en) 1993-05-18

Similar Documents

Publication Publication Date Title
US6650704B1 (en) Method of producing a high quality, high resolution image from a sequence of low quality, low resolution images that are undersampled and subject to jitter
JP7164706B2 (en) Image stitching method and device, in-vehicle image processing device, electronic device, storage medium
US4736436A (en) Information extraction by mapping
US5259037A (en) Automated video imagery database generation using photogrammetry
US7583858B2 (en) Image processing based on direction of gravity
US7426317B2 (en) Image processing apparatus and image processing method, storage medium and computer program
US20060078215A1 (en) Image processing based on direction of gravity
JP2005515675A (en) System and method for enhancing spatial or temporal resolution of video
KR20010085779A (en) Visual device
WO2000036564A9 (en) Creating a three-dimensional model from two-dimensional images
JP2983354B2 (en) Exercise parameter extraction method
JP2000348159A (en) Picture composite processing method, image pickup device, picture contraction processing method, and recording medium
CN101231693A (en) System and method for reconstructing restored facial images from video
Wang et al. 3D shape and motion analysis from image blur and smear: A unified approach
JPH05314244A (en) Three-dimensional information extracting method
Kawasaki et al. Super‐resolution omnidirectional camera images using spatio‐temporal analysis
Short 3-D Point Cloud Generation from Rigid and Flexible Stereo Vision Systems
JPH11506847A (en) Visual identification method
JPH11150741A (en) Three-dimensional picture displaying method and its device by stereo photographing
KR100421208B1 (en) Wethod for synthesizing three-dimensional image
JPH11120359A (en) Image processor, its method and transmission medium
JP3180430B2 (en) 3D shape restoration method
JP3344600B2 (en) Image processing device
JP2990256B2 (en) Object posture change detection method
JP2846298B2 (en) Determination method of affine transformation coefficient using moment

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990907

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080924

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees