JP2882136B2 - Video analysis method - Google Patents

Video analysis method

Info

Publication number
JP2882136B2
JP2882136B2 JP3308623A JP30862391A JP2882136B2 JP 2882136 B2 JP2882136 B2 JP 2882136B2 JP 3308623 A JP3308623 A JP 3308623A JP 30862391 A JP30862391 A JP 30862391A JP 2882136 B2 JP2882136 B2 JP 2882136B2
Authority
JP
Japan
Prior art keywords
motion
moving image
vector
moving
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3308623A
Other languages
Japanese (ja)
Other versions
JPH05233813A (en
Inventor
直哉 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP3308623A priority Critical patent/JP2882136B2/en
Publication of JPH05233813A publication Critical patent/JPH05233813A/en
Application granted granted Critical
Publication of JP2882136B2 publication Critical patent/JP2882136B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、たとえば自動車のよう
な、静止環境中を移動する物体に設置されたカメラから
得られる動画像を用いて、そのカメラの運動に関する情
報(運動パラメータ)を検出する技術、さらにこの情報
を用いて、たとえば先行車のように、自己以外の静止環
境中を運動する物体を検出する技術に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects information (motion parameters) relating to the motion of a camera using a moving image obtained from a camera installed on an object moving in a stationary environment such as a car. The present invention also relates to a technology for detecting an object that moves in a stationary environment other than itself, such as a preceding vehicle, using this information.

【0002】[0002]

【従来の技術】動画像の持つ移動情報を用いて、それが
写されたカメラの運動情報を得る処理は、一般に図2に
示される構成をとる。最初に、移動ベクトル検出処理2
1によって、動画像からその画像上での移動ベクトル
(オプティカルフロー)を検出し、次に運動パラメータ
計算処理22によって、その移動ベクトルを解析するこ
とにより自己運動を表す運動パラメータを計算する。移
動ベクトル検出処理については、たとえば、吹抜敬彦,
「画像信号による動対象の移動量、速度の測定」,電子
通信学会技術研究報告,IE−67,1978−10、
あるいは、和田正裕、山口博久,「反復勾配法による動
画像信号の動き量検出」,電子通信学会論文誌D,19
85−4,pp.663−670、によって報告されて
いる方法がある。また、運動パラメータ計算処理につい
ては、たとえば、Anna R.Bruss,Bert
hold K.P.Horn,「Passive Na
vigation」,COMPUTER VISIO
N,GRAPHICS,ANDIMAGE PROCE
SSING,21,3−20,1983、によって報告
されている方法がある。
2. Description of the Related Art A process for obtaining motion information of a camera on which a moving image is captured using moving information of a moving image generally has a configuration shown in FIG. First, movement vector detection processing 2
In step 1, a motion vector (optical flow) on the image is detected from the moving image, and then, in a motion parameter calculation process 22, a motion parameter representing the self-motion is calculated by analyzing the motion vector. Regarding the movement vector detection processing, for example,
"Measurement of moving amount and speed of moving object by image signal", IEICE Technical Report, IE-67, 1978-10,
Or Masahiro Wada, Hirohisa Yamaguchi, "Motion Detection of Moving Image Signal by Iterative Gradient Method", IEICE Transactions D, 19
85-4, pp. 663-670. The motion parameter calculation process is described in, for example, Anna R. Bruss, Bert
hold K. P. Horn, "Passive Na
navigation ", COMPUTER VISIO
N, GRAPHICS, ANDIMAGE PROCE
SSING, 21, 3-20, 1983.

【0003】[0003]

【発明が解決しようとする課題】以上で述べた方法によ
って、動画像から運動パラメータが検出できるが、次に
述べる問題点がある。移動ベクトル検出処理によって検
出される移動ベクトルは、画像の各部分でその検出精度
が異なる。従って、その移動ベクトルには大きな誤差を
含むものが含まれており、上述の運動パラメータ計算処
理は、そのような誤った移動ベクトルをも使用して運動
パラメータを計算するため、正確な運動パラメータを計
算できない。従って、正確な運動パラメータを計算する
ためには、検出された移動ベクトルの精度を考慮するこ
とが必要である。移動ベクトルの精度は、たとえば、太
田直哉,「信頼性指標を持つ移動ベクトルの検出」,コ
ンピュータビジョン’90,シンポジウム論文集,19
90−8,pp.21−30、で報告されている信頼性
指標を導入することにより知ることができる。しかし従
来は、このような移動ベクトルの精度に関する情報を有
効に利用して運動パラメータを計算する手法がなかっ
た。本発明の目的は、これを可能にする手法を提供し、
高精度な運動パラメータの検出を可能にすること、さら
に運動パラメータと移動ベクトルおよびその精度に関す
る情報を使用して、自己が環境中を運動している場合で
も、他の移動物体を検出することを可能にすることであ
る。
Although the motion parameters can be detected from a moving image by the method described above, there are the following problems. The detection accuracy of the movement vector detected by the movement vector detection processing differs in each part of the image. Therefore, the motion vector includes a large error, and the above-described motion parameter calculation process calculates the motion parameter also using such an erroneous motion vector. I can't calculate. Therefore, in order to calculate an accurate motion parameter, it is necessary to consider the accuracy of the detected motion vector. For example, Naoya Ota, “Detection of Moving Vector with Reliability Index”, Computer Vision '90, Symposium Papers, 19
90-8, p. 21-30, can be known by introducing the reliability index reported in 21-30. However, conventionally, there has been no method of calculating a motion parameter by effectively using such information on the accuracy of a movement vector. It is an object of the present invention to provide a technique which makes this possible,
To be able to detect motion parameters with high accuracy, and to use motion parameters and motion vectors and information on their accuracy to detect other moving objects even if they are moving in the environment. Is to make it possible.

【0004】[0004]

【課題を解決するための手段】第1の発明の動画像解析
方法は、環境に対して相対運動をするカメラによって撮
影された動画像上の各点での移動ベクトル(オプティカ
ルフロー)を用いて、該カメラの運動に関する情報(運
動パラメータ)を検出する動画像解析方法に於いて、前
記動画像から検出された移動ベクトルvd i と、ある運
動パラメータから理論的に計算された移動ベクトルvi
との差異εi 2 を、前記動画像から検出された移動ベク
トルの信頼性を表すベクトルr1 i ,r2 i を用いて、 εi 2 =((vd i −vi )・r1 i 2 +((vd i −vi )・r2 i 2 とし、該差異の各移動ベクトルに関する合計
According to a first aspect of the present invention, there is provided a moving image analyzing method using a moving vector (optical flow) at each point on a moving image captured by a camera which moves relative to an environment. , in the moving image analysis method for detecting information (motion parameters) relating to exercise of the camera, the motion vector v di detected from the moving image, the moving vector calculated from a certain motion parameters theoretically v i
The difference epsilon i 2 with using the vector r 1 i, r 2 i representing the reliability of the detected moving vector from the moving image, ε i 2 = ((v di -v i) · r 1 i ) 2 + ((v di −v i ) · r 2 i ) 2, and the sum of the differences for each motion vector

【0005】[0005]

【数2】 (Equation 2)

【0006】を最小にする運動パラメータを実際のカメ
ラの運動パラメータとして検出することを特徴とする。
[0006] It is characterized in that a motion parameter that minimizes the above is detected as a motion parameter of an actual camera.

【0007】第2の発明の動画像解析方法は、第1の発
明の動画像解析方法において、運動パラメータから理論
的に計算される移動ベクトルvi =(ui ,vi )を、
回転運動を表すパラメータ(Ω1 ,Ω2 ,ω3 )および
並進運動を表すパラメータ(xe ,ye )から、式 ui =(xi −xe )ti +Ω1 i i −Ω2 (xi 2 +f2 )+ω3 i i =(yi −ye )ti +Ω1 (yi 2 +f2 )−Ω2 i i −ω3 i によって計算することを特徴とする。
[0007] moving image analysis method of the second invention, in the moving picture analysis method of the first aspect of the invention, movement vector v i = (u i, v i) which is calculated from the motion parameters theoretically and
Parameter indicative of the rotational movement (Ω 1, Ω 2, ω 3) and parameters representing the translational movement (x e, y e) from the formula u i = (x i -x e ) t i + Ω 1 x i y i - Ω 2 (x i 2 + f 2) + ω 3 x i v i = (y i -y e) t i + Ω 1 (y i 2 + f 2) -Ω be calculated by 2 x i y i -ω 3 x i It is characterized by.

【0008】第3の発明の動画像解析方法は、第1の発
明の動画像解析方法において、運動パラメータから理論
的に計算される移動ベクトルvi =(ui ,vi )を、
回転運動を表すパラメータ(ur ,vr )および並進運
動を表すパラメータ(xe ,ye )から、式 ui =(xi −xe )ti +uri =(yi −ye )ti +vr によって計算することを特徴とする。
[0008] moving image analysis method of the third invention, in the moving picture analysis method of the first aspect of the invention, movement vector v i = (u i, v i) which is calculated from the motion parameters theoretically and
Parameter indicative of the rotational movement (u r, v r) and parameters representing the translational movement (x e, y e) from the formula u i = (x i -x e ) t i + u r v i = (y i -y and calculating by e) t i + v r.

【0009】第4の発明の動画像解析方法は、第2の発
明の動画像解析方法において、動画像から検出された移
動ベクトルと運動パラメータから理論的に計算される移
動ベクトルとの全体の差異Pを最小にする運動パラメー
タを、回転運動を表すパラメータ(Ω1 ,Ω2
ω3 )、ti および並進運動を表すパラメータ(xe
e)の各々に関する最適化を順次、繰り返して行うこ
とにより求めることを特徴とする。
A moving image analysis method according to a fourth aspect of the present invention is the moving image analysis method according to the second aspect, wherein the entire difference between the movement vector detected from the moving image and the movement vector theoretically calculated from the movement parameters is obtained. The motion parameters that minimize P are the parameters representing the rotational motion (Ω 1 , Ω 2 ,
ω 3 ), t i and parameters (x e ,
y e ) is obtained by sequentially and repeatedly performing optimization for each of y e ).

【0010】第5の発明の動画像解析方法は、第3の発
明の動画像解析方法において、動画像から検出された移
動ベクトルと運動パラメータから理論的に計算される移
動ベクトルとの全体の差異Pを最小にする運動パラメー
タを、回転運動を表すパラメータ(ur ,vr )、ti
および並進運動を表すパラメータ(xe ,ye )の各々
に関する最適化を順次、繰り返して行うことにより求め
ることを特徴とする。
According to a fifth aspect of the present invention, in the moving image analysis method according to the third aspect of the present invention, an entire difference between a movement vector detected from the moving image and a movement vector theoretically calculated from the movement parameters is obtained. the motion parameters that minimize the P, the parameter representative of the rotational movement (u r, v r), t i
And optimization for each of the parameters (x e , y e ) representing the translational motion is sequentially and repeatedly performed.

【0011】第6の発明の動画像解析方法は、環境に対
して相対運動をするカメラによって撮影された動画像上
の各点での移動ベクトル(オプティカルフロー)と、該
カメラの運動に関する情報(運動パラメータ)を用い
て、環境に対して移動している物体を検出する動画像解
析方法に於いて、前記動画像から検出された移動ベクト
ルvd i と、前記運動パラメータから理論的に計算され
た移動ベクトルvi との差異εi 2 を、前記動画像から
検出された移動ベクトルの信頼性を表すベクトル
1 i ,r2 i を用いて、式 εi 2 =((vd i −vi )・r1 i 2 +((vd i −vi )・r2 i 2 によって計算し、該差異の値を用いて前記移動している
物体を検出することを特徴とする。
According to a sixth aspect of the present invention, there is provided a moving image analysis method, comprising: a movement vector (optical flow) at each point on a moving image captured by a camera moving relative to an environment; In the moving image analysis method for detecting an object moving with respect to the environment using the movement parameter), the movement vector v di detected from the moving image and the movement vector v di calculated theoretically from the movement parameter the difference epsilon i 2 with the movement vector v i, by using the vector r 1 i, r 2 i representing the reliability of the detected moving vector from the moving image, wherein ε i 2 = ((v di -v i ) · r 1 i) 2 + ( calculated by (v di -v i) · r 2 i) 2, and detects the object that the mobile using the value of the difference.

【0012】第7の発明の動画像解析方法は、第6の発
明の動画像解析方法において、カメラの運動パラメータ
を、第4の発明の動画像解析方法によって求めることを
特徴とする。
A moving image analysis method according to a seventh invention is characterized in that, in the moving image analysis method according to the sixth invention, the motion parameters of the camera are obtained by the moving image analysis method according to the fourth invention.

【0013】第8の発明の動画像解析方法は、第6の発
明の動画像解析方法において、カメラの運動パラメータ
を、第5の発明の動画像解析方法によって求めることを
特徴とする。
An eighth aspect of the present invention provides the moving image analysis method according to the sixth aspect, wherein the motion parameters of the camera are obtained by the moving image analysis method according to the fifth aspect.

【0014】[0014]

【作用】初めに、静止環境中のカメラの運動により生じ
る画像上の移動ベクトル場(オプティカルフローと呼
ぶ)について述べる。カメラの座標系(X,Y,Z)を
図3に示すように設定する。すなわち、レンズ中心を原
点0とし、Z軸がカメラの光軸と一致するように選ぶ。
Z=fで表される面を撮像面とし、撮像面の座標系
(x,y)を、xおよびy軸がカメラの座標系のXおよ
びY軸と同じ方向を向くように設定する。ここでfは焦
点距離である。物体上の点P=(X,Y,Z)が投影さ
れる撮像面上の点をp=(x,y)とすると、これらの
間には式1で示す関係がある。
First, a motion vector field (referred to as an optical flow) on an image generated by a motion of a camera in a stationary environment will be described. The coordinate system (X, Y, Z) of the camera is set as shown in FIG. That is, the lens center is set to the origin 0, and the Z axis is selected so as to coincide with the optical axis of the camera.
The plane represented by Z = f is defined as an imaging plane, and the coordinate system (x, y) of the imaging plane is set so that the x and y axes are oriented in the same direction as the X and Y axes of the camera coordinate system. Here, f is the focal length. Assuming that p = (x, y) is a point on the imaging surface where the point P = (X, Y, Z) on the object is projected, there is a relationship expressed by Equation 1 between them.

【0015】[0015]

【数3】 (Equation 3)

【0016】カメラの任意の瞬間的運動(速度)は、並
進成分と回転成分の合成によって表すことができる。い
ま、カメラの座標系は静止環境に対し並進速度Tと、カ
メラの座標系の原点0を中心とした回転速度ωを持って
いるとする。この2つのベクトルTとωが運動パラメー
タである。このとき、静止環境上の点Pはカメラの座標
系に対し並進速度−T、原点0に対する回転速度−ωの
運動を行っていることに等しい。従ってTおよびωの各
成分をカメラの座標系によって表せば、点Pのカメラの
座標系に対する速度Vは、点Pの位置ベクトルをrとし
て次のようになる。
Any instantaneous motion (velocity) of the camera can be represented by a combination of translational and rotational components. Now, it is assumed that the coordinate system of the camera has a translation speed T with respect to the stationary environment and a rotation speed ω about the origin 0 of the camera coordinate system. These two vectors T and ω are motion parameters. At this time, the point P on the stationary environment is equivalent to the movement of the translation speed -T and the rotation speed -ω with respect to the origin 0 with respect to the camera coordinate system. Therefore, if each component of T and ω is represented by the coordinate system of the camera, the speed V of the point P with respect to the coordinate system of the camera is as follows, where r is the position vector of the point P.

【0017】 V=−ω×r−T (2) ここで、式2の各ベクトルの成分を V=(X’,Y’,Z,)T (3) r=(X ,Y ,Z )T T=(τ1 ,τ2 ,τ3 T ω=(ω1 ,ω2 ,ω3 T として、Vの各成分を書き下せば式4を得る。V = −ω × r−T (2) where V = (X ′, Y ′, Z,) T (3) r = (X, Y, Z) T T = a (τ 1, τ 2, τ 3) T ω = (ω 1, ω 2, ω 3) T, obtaining a formula 4 if Kakikudase each component of V.

【0018】 X’=−τ1 −ω2 Z+ω3 Y (4) Y’=−τ2 −ω3 X+ω1 Z Z’=−τ3 −ω1 Y+ω2 X この点Pの運動により生じる画像上の点pの速度v=
(u,v)は、式1で示される点pの座標(x,y)を
時間微分することにより得られる。
[0018] X '= - τ 1 -ω 2 Z + ω 3 Y (4) Y' = - τ 2 -ω 3 X + ω 1 Z Z '= - τ 3 -ω 1 Y + ω 2 X image caused by movement of the point P Speed v of point p above =
(U, v) is obtained by time-differentiating the coordinates (x, y) of the point p expressed by the equation (1).

【0019】[0019]

【数4】 (Equation 4)

【0020】式4を上式に代入し、式1の関係を用いて
整理することにより、次式が得られる。
By substituting equation (4) into the above equation and rearranging using the relationship of equation (1), the following equation is obtained.

【0021】 u =ut +ur (6) v =vt +vr t =(τ3 x−T1 )/Z (7) vt =(τ3 y−T2 )/Z ur =Ω1 xy−Ω2 (x2 +f2 )+ω3 y (8) vr =Ω1 (y2 +f2 )Ω2 xy−ω3 x ただし T1 =fτ1 ,T2 =fτ2 (9) Ω1 =ω1 /f,Ω2 =ω2 /f 静止環境中の各点は、それぞれの撮像面上の位置(x,
y)により、式6で示される速度(u,v)を撮像面上
で持つことになる。したがって、この(u,v)がカメ
ラの運動により生じるオプティカルフローである。式6
は、オプティカルフロー(u,v)がカメラの並進運動
によって生じる並進成分(ut ,vt )と回転運動によ
って生じる回転成分(ur ,vr )の和によって表され
ることを示している。回転成分(ur ,vr )は、カメ
ラの回転速度ωと撮像面上の位置(x,y)によって一
意に定まるが、並進成分(ut ,vt )はカメラの並進
速度Tと撮像面上の位置(x,y)の他に点Pの3次元
空間中でのZ座標の値にも依存することが分かる。ここ
で、並進成分(ut ,vt )を次のように書き換える。
[0021] u = u t + u r ( 6) v = v t + v r u t = (τ 3 x-T 1) / Z (7) v t = (τ 3 y-T 2) / Z u r = Ω 1 xy−Ω 2 (x 2 + f 2 ) + ω 3 y (8) v r = Ω 1 (y 2 + f 2 ) Ω 2 xy−ω 3 x where T 1 = fτ 1 , T 2 = fτ 2 (9 Ω 1 = ω 1 / f, Ω 2 = ω 2 / f Each point in the stationary environment is a position (x,
By y), the speed (u, v) represented by Expression 6 is obtained on the imaging surface. Therefore, this (u, v) is an optical flow generated by the movement of the camera. Equation 6
Shows that the optical flow (u, v) is represented by the sum of the translation component (u t, v t) and the rotation component caused by the rotational movement (u r, v r) caused by translational movement of the camera . Rotation component (u r, v r) is located on the rotational speed ω and the imaging surface of the camera (x, y) by but is uniquely determined, the translation component (u t, v t) camera translation speed T and imaging It can be seen that it depends not only on the position (x, y) on the surface but also on the value of the Z coordinate of the point P in the three-dimensional space. Here, it rewrites the translation component (u t, v t) and as follows.

【0022】 ut =(x−xe )t (10) vt =(y−ye )t ただし xe =f(τ1 /τ3 ),ye =f(τ2 /τ3 ),t=τ3 /Z (11) tがZに依存するので、(ut ,vt )の大きさはZに
依存するが、その方向はZに依存しない撮像面上の点
(xe ,ye )を向くことが分かる。この点はFOE
(Focus of Expansion)と呼ばれ
る。
U t = (x−x e ) t (10) v t = (y−y e ) t where x e = f (τ 1 / τ 3 ), y e = f (τ 2 / τ 3 ) since t = τ 3 / Z (11 ) t is dependent on Z, (u t, v t ) of magnitude is dependent on Z, but that direction the point on the imaging surface does not depend on the Z (x e , Y e ). This point is FOE
(Focus of Expansion).

【0023】さて、オプティカルフローからカメラの移
動パラメータを検出することは、撮像面上の移動ベクト
ルvの分布が与えられたときに、Tおよびωを決定する
ことであるが、並進速度Tの大きさはオプティカルフロ
ーからのみでは決定できない。これは次の事情による。
式11に示される各値は、Tの各成分およびZにある定
数を乗じても変化しない。これはTの各成分とZの比が
同じならば、同じオプティカルフローが生じることを示
している。従って、可能なことはTの各成分の比、言い
替えればTの方向を求めることのみである。この任意性
は式11の関係のみに含まれているので、(xe
e ),t,ωはオプティカルフローから決定すること
ができる。以降、(xe ,ye ),ωを運動パラメータ
と呼ぶ。tは点Pのz座標値Zを反映する量で撮像面上
の各位置について独立に存在する。
Detecting the movement parameter of the camera from the optical flow is to determine T and ω when the distribution of the movement vector v on the imaging surface is given. It cannot be determined only from optical flow. This depends on the following circumstances.
Each value shown in Expression 11 does not change even if each component of T and Z are multiplied by a constant. This indicates that the same optical flow occurs if the ratio of each component of T to Z is the same. Therefore, all that is possible is to determine the ratio of each component of T, in other words, the direction of T. Since this arbitrariness is included only in the relationship of Equation 11, (x e ,
y e ), t, ω can be determined from the optical flow. Hereinafter, (x e , y e ) and ω are referred to as motion parameters. t is an amount reflecting the z-coordinate value Z of the point P, and exists independently for each position on the imaging surface.

【0024】以上の議論より、解くべき問題は移動ベク
トルvの分布が与えられたときに、運動パラメータ(x
e ,ye ),ωを決定することであるが、原理的には画
像上の8点で移動ベクトルが与えられればこの問題を解
くことができる(H.C.Longust−Higgi
ns,「A computer algorithmf
or reconstructing a scene
from twoviews」,Nature,29
3−10,1981,pp.133−135)。しか
し、この手法が現実性を持つような正確な移動ベクトル
を検出することが不可能なので、多数の点で計測した移
動ベクトルを用いて、それらに最も良く当てはまる
(u,v)を生成する運動パラメータを求め、それを解
とする。いま、移動ベクトルが計測された点がN点ある
とし、第i番目の計測された移動ベクトルをvd i
(ud i ,vd i )、運動パラメータから計算されるそ
の点での移動ベクトルをvi =(ui ,vi )とする。
これらのベクトルの差異を表す量εi 2 を、移動ベクト
ルの信頼性を考慮して定義すると次式となる。
From the above discussion, the problem to be solved is that the motion parameters (x
e , y e ) and ω. In principle, this problem can be solved if a motion vector is given at eight points on the image (HC Longust-Higgi).
ns, “A computer algorithmmf
or restructuring a scene
from twoviews ", Nature, 29
3-10, 1981 pp. 133-135). However, since it is impossible to detect an accurate movement vector such that this method has realism, a movement vector that generates the (u, v) that best fits them using movement vectors measured at many points is used. Find the parameters and use them as solutions. Now, it is assumed that there are N points at which the movement vector is measured, and the i-th measured movement vector is represented by v di =
Let (u di , v di ) and the motion vector at that point calculated from the motion parameters be v i = (u i , v i ).
When the quantity ε i 2 representing the difference between these vectors is defined in consideration of the reliability of the movement vector, the following equation is obtained.

【0025】 εi 2 =(δvi ・r1 i 2 +(δvi ・r2 i 2 (12) δvi =vd i −vi ただし、(a・b)はベクトルaとbの内積を表す。こ
こで、ベクトルr1 i ,r2 i は移動ベクトルの信頼性
を表すベクトルで、たとえばθ方向の信頼性Rθ は次式
で表される(太田直哉,「信頼性指標を持つ移動ベクト
ルの検出」,コンピュータビジョン’90,シンポジウ
ム論文集,1990−8,pp.21−30)。
Εi Two= (Δvi・ R1 i)Two+ (Δvi・ R2 i)Two (12) δvi= Vdi-Vi Here, (ab) represents the inner product of the vectors a and b. This
Where the vector r1 i, R2 iIs the reliability of the movement vector
, For example, the reliability R in the θ directionθ Is
(Naoya Ota, "Moving vector with reliability index
Detection, "Computer Vision '90, Symposium
Proceedings, 1990-8, pp. 139-143. 21-30).

【0026】[0026]

【数5】 (Equation 5)

【0027】δvi の方向をθとすると、 δvi =|δvi |e となるので、式12のεi 2 は次式で表される。Assuming that the direction of δv i is θ, δv i = | δv i | e, so ε i 2 in equation 12 is expressed by the following equation.

【0028】εi 2 =(Rθ |δvi |)2 このことより、ベクトルの差異は、実際のベクトルの差
δvi をその方向の信頼性で重み付けし、自乗したもの
で測られることになる。さて、移動ベクトル場全体の差
異は、個々のベクトルの差異を合計した値Pで測られ
る。
The ε i 2 = (R θ | δv i |) 2 From this, the difference in vector, weights the difference .delta.v i of the actual vector in that direction of the reliability, to be measured in those squares Become. Now, the difference of the entire motion vector field is measured by a value P obtained by adding the differences of the individual vectors.

【0029】[0029]

【数6】 (Equation 6)

【0030】この値Pはエネルギーと呼ばれる。解くべ
き問題は「vd i ,r1 i ,r2 i が与えられたとき、
エネルギーPを最小にする(xe ,ye ),ti ,ωを
求めること」となる。ここで、各変数に付加された添え
字iはi番目の点に関するものであることを示し、全体
でN個ある。この問題は制約なしの非線形最適化問題で
あるので、この問題は最急降下法、共役勾配法などを用
いて解かれる(「最適化」,岩波講座情報科学−19,
岩波書店,1982)。以上述べた手法により、動画像
から検出された移動ベクトルの信頼性を考慮した運動パ
ラメータの検出が可能となる。
This value P is called energy. Problem to be solved is when given a "v di, r 1 i, r 2 i,
(X e , y e ), t i , and ω to minimize the energy P ”. Here, the suffix i added to each variable indicates that it relates to the i-th point, and there are N in total. Since this problem is an unconstrained nonlinear optimization problem, this problem can be solved using the steepest descent method, the conjugate gradient method, etc. (“Optimization”, Iwanami Kogaku Informatics-19,
Iwanami Shoten, 1982). According to the method described above, it is possible to detect a motion parameter in consideration of the reliability of a motion vector detected from a moving image.

【0031】次に、検出された運動パラメータを用いた
移動物体検出処理について述べる。基本的な考え方は次
のとおりである。運動パラメータが決定されれば、その
運動によって生じうるオプティカルフローが分かる。こ
のオプティカルフローは、カメラは静止環境を運動して
いるという仮定の下に計算された結果であるので、もし
そのオプティカルフローで表せない移動をしている部分
があれば、その部分は静止環境に対し移動している物体
であると考えられる。式12に示されているεi 2 は、
移動ベクトルの信頼性を考慮して理論的に計算される移
動ベクトルvi=(ui ,vi )と実際に検出された移
動ベクトルvd i =(ud i ,vd i )との差を計算し
た結果であるので、移動ベクトルが信頼性高く検出でき
ているにも関わらず、理論的に計算される移動ベクトル
と合わない時に大きな値をとる。従って、上述の移動物
体の領域は、εi 2 が大きな値を示している部分を検出
することによって求めることができる。
Next, a moving object detection process using the detected motion parameters will be described. The basic idea is as follows. Once the motion parameters are determined, the optical flows that can be caused by the motion are known. Since this optical flow is a result calculated under the assumption that the camera is moving in a stationary environment, if there is a moving part that can not be represented by the optical flow, that part is moved to a stationary environment. On the other hand, it is considered that the object is moving. Ε i 2 shown in Equation 12 is
Calculate the difference between the theoretically calculated motion vector v i = (u i , v i ) and the actually detected motion vector v di = (u di , v di ) in consideration of the reliability of the motion vector. As a result, a large value is taken when the movement vector does not match the theoretically calculated movement vector even though the movement vector has been detected with high reliability. Therefore, the region of the moving object described above can be obtained by detecting a portion where ε i 2 shows a large value.

【0032】[0032]

【実施例】前述のごとく、移動ベクトルの信頼性を考慮
して運動パラメータを求めるために解くべき問題は制約
なしの非線形最適化問題であり、様々な非線形最適化手
法を用いて解くことができる。しかしこの問題では、変
数を(Ω1 ,Ω2 ,ω3 ),ti および(xe ,ye
の3つのグループに分けると、それぞれのグループで
は、Pを最小にする値を解析的に求めることができると
いう特徴があるので、この特徴を生かした効率的なアル
ゴリズムを構成することができる。すなわち最初に(Ω
1 ,Ω2 ,ω3 )以外の変数を固定して、Pを最小にす
る(Ω1 ,Ω2,ω3 )を求める。次に(xe ,ye
について同じことを行い、さらにti について行う。こ
れらの処理を1サイクルとして、解が収束するまでこの
処理を繰り返す。まず、(xe ,ye )について、Pを
最小にする値(xe 0 ,ye 0 )の計算法について述べ
る。求めるべき値は、Pのxe ,ye に対する偏微分を
計算し、それぞれを0と置くことにより得られる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS As described above, a problem to be solved for obtaining a motion parameter in consideration of the reliability of a motion vector is an unconstrained nonlinear optimization problem, which can be solved by using various nonlinear optimization techniques. . However, in this problem, the variables are (Ω 1 , Ω 2 , ω 3 ), t i and (x e , y e )
In each of the three groups, since each group has a feature that a value that minimizes P can be analytically obtained, an efficient algorithm utilizing this feature can be configured. That is, first (Ω
1, Omega 2, by fixing the omega 3) other than the variable, to minimize P (Ω 1, Ω 2, obtaining the omega 3). Then (x e , y e )
And the same for t i . With these processes as one cycle, this process is repeated until the solution converges. First, we describe calculation method of (x e, y e) for the value that minimizes the P (x e 0, y e 0). The value to be obtained can be obtained by calculating partial derivatives of P with respect to x e and y e and setting each of them to 0.

【0033】[0033]

【数7】 (Equation 7)

【0034】ここでr1 x i ,r1 y i および
2 x i ,r2 y i は、それぞれ信頼性を表すベクトル
1 i ,r2 i のxおよびy成分である。また、
r i ,vr i は式8により計算される。次に、Pを最
小にするti についても同様にして、Pをtiで偏微分
し、0と置くことにより得られる。求めるべき値をt
i 0 と表記する。
Here, r 1 xi and r 1 yi and r 2 xi and r 2 yi are x and y components of the vectors r 1 i and r 2 i representing reliability, respectively. Also,
u ri and v ri are calculated by Expression 8. Next, similarly, t i that minimizes P is obtained by partially differentiating P with t i and setting it to 0. The value to be found is t
Notated as i 0 .

【0035】[0035]

【数8】 (Equation 8)

【0036】ここに、ai ,bi ,hi は式20、u
r i ,vr i は式8で計算される。同様にして、Pを最
小にするΩ1 ,Ω2 ,ω3 をΩ1 0 ,Ω2 0 ,ω3 0
すれば、これらの値は次式で与えられる。
Here, a i , b i , and h i are given by Equation 20, u
ri and vri are calculated by Expression 8. Similarly, Omega 1 to minimize P, Ω 2, ω 3 of the Ω 1 0, Ω 2 0, if omega 3 0, these values are given by the following equation.

【0037】[0037]

【数9】 (Equation 9)

【0038】[0038]

【数10】 (Equation 10)

【0039】[0039]

【数11】 [Equation 11]

【0040】上式において、ai ,bi ,hi は式2
0、ut i ,vt i は式10を用いて計算される。これ
らの結果より、運動パラメータを求めるためのアルゴリ
ズムは図1に示すものになる。まず、ステップ1で各パ
ラメータに初期値を与える。初期値は実際の値に近い方
が望ましいので、たとえば、進行方向を向いたカメラか
ら得られた画像に対しては、Ω1 =Ω2 =ω3 =0,t
i =0とし、xe ,ye は画像の中心とする。次にステ
ップ2で現在のエネルギーPを計算し、変数Pb に設定
するとともに、繰り返し回数を保持する変数kに1をセ
ットする。ステップ3では(Ω1 ,Ω2 ,ω3 )に関す
る最適化を行う。すなわち、式22を用いて(Ω1 0
Ω2 0 ,ω3 0 )を計算し、これを新たな(Ω1
Ω2 ,ω3 )とする。ステップ4に於いて、式21を用
いてti 0 を計算して新たなti とし、ステップ5に於
いて、式17を用いて(xe 0 ,ye 0 )を計算しこれ
を新たな(xe ,ye )とする。次に、ステップ6に於
いて収束の判定を行う。すなわち、この段階でのエネル
ギーPを計算し、1サイクル前のエネルギーPb と比較
する。エネルギーの減少量がPe に等しいかより小さい
場合反復を終了する。また、反復回転kがke に等しい
場合にも反復を終了する。ここに、Pe は収束判定用の
定数であり、ke は最大の反復回数である。反復の終了
条件が満たされない場合はステップ7に進み、ステップ
6で計算したエネルギーPをPb に代入し、反復回数k
に1を加えてステップ3に戻る。このように、ステップ
3,4,5,6,7によって反復演算の1サイクルが構
成される。ここでは、収束の判定をエネルギーPの減少
量で行ったが、簡単には反復回数kのみで行うこともで
きる。以上のアルゴリズムで運動パラメータ(xe ,y
e ),ωとti をが求まる。
In the above equation, a i , b i , and h i are given by Equation 2.
0, u ti and v ti are calculated using Equation 10. From these results, the algorithm for determining the motion parameters is as shown in FIG. First, in step 1, an initial value is given to each parameter. Since it is desirable that the initial value be closer to the actual value, for example, for an image obtained from a camera facing the traveling direction, Ω 1 = Ω 2 = ω 3 = 0, t
Let i = 0, and let x e and y e be the center of the image. Then calculate the current energy P in step 2, and sets the variable P b, which sets a variable k to hold the number of repetitions. In step 3, optimization regarding (Ω 1 , Ω 2 , ω 3 ) is performed. That is, using Equation 22, (Ω 10 ,
Ω 20 , ω 30 ) and calculate this as a new (Ω 1 ,
Ω 2 , ω 3 ). In step 4, t i 0 is calculated by using equation 21 to obtain a new t i, and in step 5, (x e 0 , y e 0 ) is calculated by using equation 17, and this is newly calculated. (X e , y e ). Next, in step 6, convergence is determined. That is, the energy P at this stage was calculated and compared with the previous cycle energy P b. Reduction in energy finishes repeated if less than or equal to P e. Further, repeated rotation k is also terminated the iteration is equal to k e. Here, Pe is a convergence determination constant, and ke is the maximum number of iterations. If the end condition of the repetition is not satisfied, the process proceeds to step 7, where the energy P calculated in step 6 is substituted for P b ,
And returns to step 3. Thus, steps 3, 4, 5, 6, and 7 constitute one cycle of the iterative operation. Here, the convergence is determined based on the decrease amount of the energy P, but can be simply determined only by the number of repetitions k. The motion parameters (x e , y
e ), ω and t i are obtained.

【0041】以上の議論では完全な回転運動を扱った
が、一般に移動ロボットや自動車などの地上を移動する
物体は地平面に束縛されているので、カメラの光軸を地
平面と平行に設置すれば、Z軸回りの回転運動は小さい
と仮定できる。また、カメラに画角が小さいもの(望遠
レンズに近いもの)を使えば、物体の撮像面上の位置
(x,y)は焦点距離fに較べて十分小さいと仮定でき
る。これらの仮定を行うと、運動パラメータの計算をあ
る程度単純化できる。これらの仮定を数式で表すと次の
ようになる。
Although the above discussion has dealt with complete rotational movement, objects moving on the ground, such as mobile robots and automobiles, are generally bound to the ground plane, so that the optical axis of the camera should be installed parallel to the ground plane. For example, it can be assumed that the rotation about the Z axis is small. If a camera having a small angle of view (close to a telephoto lens) is used, it can be assumed that the position (x, y) of the object on the imaging surface is sufficiently smaller than the focal length f. Making these assumptions can simplify the calculation of the motion parameters to some extent. These assumptions can be expressed as follows.

【0042】[0042]

【数12】 (Equation 12)

【0043】この条件を用いて式8を形成すると次式と
なる。
When Expression 8 is formed using these conditions, the following expression is obtained.

【0044】 ur ≒Ω1 xy−Ω2 2 (24) vr ≒Ω1 2 −Ω2 xy また、ur の式Ω1 xyはvr の式Ω1 2 に対し無視
でき、vr の式のΩ2 xyはur の式Ω2 2 に対して
無視できるので、式24はさらに次式のように変形でき
る。
[0044] u r ≒ Ω 1 xy-Ω 2 f 2 (24) v r ≒ Ω 1 f 2 -Ω 2 xy In addition, the formula Ω 1 xy of u r can be ignored with respect to formula Ω 1 f 2 of v r since v formula Omega 2 xy of r it can be ignored with respect to formula Omega 2 f 2 of u r, equation 24 can be further modified as follows.

【0045】 ur ≒−Ω2 2 (25) vr ≒ Ω12 すなわち、(ur ,vr )は画像上の位置によらず一定
値になる。運動パラメータを計算するには図1に示した
アルゴリズムに次の変更を加えれば良い。ステップ4お
よび5で使用する計算式、式21,17に含まれるu
r i ,vr i を定数ur ,vr に置き換える。ステップ
3の(Ω1 ,Ω2 ,ω3 )に関する最適化は(ur ,v
r )に関する最適化になり、次の式で計算される。次式
に於いて(ur 0 ,vr 0 )がPを最小にする(ur
r )であり、ステップ3に於いて、この値を新たな
(ur ,vr )として設定する。
[0045] u r ≒ -Ω 2 f 2 ( 25) v r ≒ Ω 1 f 2 In other words, a constant value regardless of the position on the (u r, v r) is the image. To calculate the motion parameters, the following changes may be made to the algorithm shown in FIG. Equations used in steps 4 and 5, u included in equations 21 and 17
replace ri, the v ri constant u r, to v r. Step 3 (Ω 1, Ω 2, ω 3) is optimized regarding (u r, v
r ), which is calculated by the following equation. In the following equation (u r 0, v r 0 ) is to minimize the P (u r,
v r) and is, in step 3, this value is set as a new (u r, v r).

【0046】[0046]

【数13】 (Equation 13)

【0047】このアルゴリズムからはPを最小にするx
e ,ye ,ti およびur ,vr が計算されるが、必要
な場合には、式25によってΩ1 ,Ω2 へ変換される。
From this algorithm, x that minimizes P
e, y e, t i and u r, but v r is computed, if necessary, Omega 1 by Equation 25, it is converted into Omega 2.

【0048】さて次に、上述の方法で検出された運動パ
ラメータを用いて移動物体を検出する処理について述べ
る。運動パラメータ(Ω1 ,Ω2 ,ω3 )及び(xe
e)とti が与えられているので、式6,8,10、
または式6,10,25を用いて任意の画像上の点(x
i ,yi )で、オプティカルフローを構成する移動ベク
トルvi =(ui ,vi )を計算する。次に実際に検出
された移動ベクトルvd i =(ud i ,vd i )とその
信頼性を表すベクトルr1 i =(r1 i ,r1i )およ
びr2 i =(r2 i ,r2 i )を用いて、式12により
εi 2 を計算する。このεi 2 があるしきい値よりも大
きい部分を移動物体領域として検出する。また、移動物
体の写っている領域がある程度大きいと期待できる場合
には、しきい値処理を行う前に画像上で平滑化処理を行
うことが有効である。以上では、運動パラメータ検出処
理に本特許で述べた方法を用いるとしたが、その他の方
法によって検出された運動パラメータを使用することも
可能である。この場合には、一般にti が与えられない
ので、式21を用いてti を求めてからεi 2 を計算す
る。
Next, a process of detecting a moving object using the motion parameters detected by the above method will be described. The motion parameters (Ω 1 , Ω 2 , ω 3 ) and (x e ,
y e ) and t i are given, equations (6), (8), (10),
Alternatively, a point (x
i, with y i), the movement vector v i = (u i constituting the optical flow, v i) is calculated. Next, the actually detected movement vector v di = (u di , v di ) and its reliability vector r 1 i = (r 1 i , r 1i ) and r 2 i = (r 2 i , r 2) Using i ), ε i 2 is calculated by Expression 12. A portion where ε i 2 is larger than a certain threshold is detected as a moving object region. In addition, if it can be expected that the area where the moving object appears is somewhat large, it is effective to perform smoothing processing on the image before performing threshold processing. In the above description, the method described in the present patent is used for the motion parameter detection processing, but it is also possible to use the motion parameter detected by another method. In this case, since t i is not generally given, 21 i 2 is calculated after obtaining t i using Equation 21.

【0049】[0049]

【発明の効果】本発明により、動画像から検出された移
動ベクトルの信頼性を有効に使用して、カメラの運動パ
ラメータを精度良く計算すること、また、環境中を移動
する物体を精度良く検出することが可能になる。
According to the present invention, the motion parameters of a camera can be accurately calculated by effectively using the reliability of a motion vector detected from a moving image, and an object moving in an environment can be accurately detected. It becomes possible to do.

【図面の簡単な説明】[Brief description of the drawings]

【図1】運動パラメータの計算方法を示す図FIG. 1 is a diagram showing a method for calculating a motion parameter.

【図2】一般的な運動パラメータ検出処理の構成を示す
FIG. 2 is a diagram showing a configuration of a general motion parameter detection process;

【図3】カメラの撮像系と撮影される物体との関係を示
す図
FIG. 3 is a diagram illustrating a relationship between an imaging system of a camera and an object to be imaged.

【符号の説明】[Explanation of symbols]

21 移動ベクトル検出処理 22 運動パラメータ計算処理 21 Motion vector detection processing 22 Motion parameter calculation processing

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 環境に対して相対運動をするカメラによ
って撮影された動画像上の各点での移動ベクトルを用い
て、該カメラの運動パラメータを検出する動画像解析方
法に於いて、前記動画像から検出された移動ベクトルv
d i と、ある運動パラメータから理論的に計算された移
動ベクトルvi との差異εi 2 を、前記動画像から検出
された移動ベクトルの信頼性を表すベクトルr1 i ,r
2 i を εi 2 =((vd i −vi )・r1 i 2 +((vd i −vi )・r2 i 2 とし、該差異の各移動ベクトルに関する合計 【数1】 を最小にする運動パラメータを実際のカメラの運動パラ
メータとして検出する動画像解析方法。
In a moving image analysis method for detecting a movement parameter of a camera using a movement vector at each point on a moving image captured by a camera moving relative to an environment, the moving image Movement vector v detected from image
di and is the difference epsilon i 2 from motion parameters theoretically calculated moving vector v i, the vector r 1 which represents the reliability of the detected motion vector from the moving image i, r
The 2 i ε i 2 = (( v di -v i) · r 1 i) 2 + ((v di -v i) · r 2 i) 2 and then, a total of [number 1] for each movement vector of the difference A moving image analysis method for detecting a motion parameter that minimizes a motion as a motion parameter of an actual camera.
【請求項2】 運動パラメータから理論的に計算される
移動ベクトルvi =(ui ,vi )を、回転運動を表す
パラメータ(Ω1 ,Ω2 ,ω3 )および並進運動を表す
パラメータ(xe ,ye )から、式 ui =(xi −xe )ti +Ω1 i i −Ω2 (xi 2 +f2 )+ω3 i i =(yi −ye )ti +Ω1 (yi 2 −f2 )−Ω2 i i −ω3 i によって計算することを特徴とする請求項1記載の動画
像解析方法。
2. A movement vector v i = (u i , v i ) theoretically calculated from a movement parameter is converted into a parameter (Ω 1 , Ω 2 , ω 3 ) representing a rotational motion and a parameter (Ω 1 , ω 2 , ω 3 ) representing a translational motion x e, from y e), the formula u i = (x i -x e ) t i + Ω 1 x i y i -Ω 2 (x i 2 + f 2) + ω 3 y i v i = (y i -y e ) t i + Ω 1 (y i 2 -f 2) -Ω 2 x i y i -ω 3 moving image analyzing method according to claim 1, wherein the calculating the x i.
【請求項3】 運動パラメータから理論的に計算される
移動ベクトルvi =(ui ,vi )を、回転運動を表す
パラメータ(ur ,vr )および並進運動を表すパラメ
ータ(xe ,ye )から、式 ui =(xi −xe )ti +uri =(yi −ye )ti +vr によって計算することを特徴とする請求項1記載の動画
像解析方法。
Movement vector v 3. is calculated from the motion parameters theoretically i = (u i, v i ) a parameter indicative of the rotational movement (u r, v r) and represents the translational motion parameters (x e, from y e), wherein u i = (x i -x e ) t i + u r v i = (y i -y e) t i + v moving picture according to claim 1, wherein the calculating the r analysis Method.
【請求項4】 動画像から検出された移動ベクトルと運
動パラメータから理論的に計算される移動ベクトルとの
全体の差異Pを最小にする運動パラメータを、回転運動
を表すパラメータ(Ω1 ,Ω2 ,ω3 )、ti および並
進運動を表すパラメータ(xe ,ye )の各々に関する
最適化を順次、繰り返して行うことにより求めることを
特徴とする請求項2記載の動画像解析方法。
4. A motion parameter for minimizing an overall difference P between a motion vector detected from a moving image and a motion vector theoretically calculated from a motion parameter is defined as a parameter (Ω 1 , Ω 2) representing a rotational motion. , Ω 3 ), t i, and parameters (x e , y e ) representing translational motion are obtained by sequentially and repeatedly performing optimization.
【請求項5】 動画像から検出された移動ベクトルと運
動パラメータから理論的に計算される移動ベクトルとの
全体の差異Pを最小にする運動パラメータを、回転運動
を表すパラメータ(ur ,vr ),ti および並進運動
を表すパラメータ(xe ,ye )の各々に関する最適化
を順次、繰り返して行うことにより求めることを特徴と
する請求項3記載の動画像解析方法。
5. The motion parameters for the entire difference P to minimize the movement vector from the movement vector and the motion parameter detected from the moving image is theoretically calculated, representing the rotational motion parameters (u r, v r ), t i and translation represent the parameters (x e, y e) optimization for each successive moving picture analysis method according to claim 3, wherein the determination by performing repeated.
【請求項6】 環境に対して相対運動をするカメラによ
って撮影された動画像上の各点での移動ベクトルと、該
カメラの運動パラメータを用いて、環境に対して移動し
ている物体を検出する動画像解析方法に於いて、前記動
画像から検出された移動ベクトルvd i と、前記運動パ
ラメータから理論的に計算された移動ベクトルvi との
差異εi 2 を、前記動画像から検出された移動ベクトル
の信頼性を表すベクトルr1 i ,r2 i を用いて、式 εi 2 =((vd i −vi )・r1 i 2 +((vd i −vi )・r2 i 2 によって計算し、該差異の値を用いて前記移動している
物体を検出することを特徴とする動画像解析方法。
6. An object that is moving with respect to the environment is detected using a motion vector at each point on a moving image captured by a camera that moves relative to the environment and a motion parameter of the camera. In the moving image analysis method, the difference ε i 2 between the moving vector v di detected from the moving image and the moving vector vi theoretically calculated from the motion parameters is detected from the moving image. vector r 1 i representing the reliability of the movement vector, with r 2 i, wherein ε i 2 = ((v di -v i) · r 1 i) 2 + ((v di -v i) · r 2 i ) A moving image analysis method, wherein the moving object is detected by calculating according to 2 and using the value of the difference.
【請求項7】 カメラの運動パラメータを、請求項4記
載の動画像解析方法によって求めることを特徴とする請
求項6記載の動画像解析方法。
7. The moving image analysis method according to claim 6, wherein the motion parameters of the camera are obtained by the moving image analysis method according to claim 4.
【請求項8】 カメラの運動パラメータを、請求項5記
載の動画像解析方法によって求めることを特徴とする請
求項6記載の動画像解析方法。
8. The moving image analysis method according to claim 6, wherein the motion parameters of the camera are obtained by the moving image analysis method according to claim 5.
JP3308623A 1991-11-25 1991-11-25 Video analysis method Expired - Fee Related JP2882136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3308623A JP2882136B2 (en) 1991-11-25 1991-11-25 Video analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3308623A JP2882136B2 (en) 1991-11-25 1991-11-25 Video analysis method

Publications (2)

Publication Number Publication Date
JPH05233813A JPH05233813A (en) 1993-09-10
JP2882136B2 true JP2882136B2 (en) 1999-04-12

Family

ID=17983280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3308623A Expired - Fee Related JP2882136B2 (en) 1991-11-25 1991-11-25 Video analysis method

Country Status (1)

Country Link
JP (1) JP2882136B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222341A (en) * 2010-04-16 2011-10-19 东软集团股份有限公司 Method and device for detecting motion characteristic point and method and device for detecting motion target

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
JP4649712B2 (en) * 2000-07-28 2011-03-16 ソニー株式会社 Information processing apparatus and method, information processing system, and recording medium
JP2003150941A (en) * 2001-11-19 2003-05-23 Daihatsu Motor Co Ltd Recognizing device and recognizing method for moving object
US7266220B2 (en) 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP4919116B2 (en) * 2008-12-05 2012-04-18 トヨタ自動車株式会社 Travel direction vector reliability determination method and reliability determination apparatus
JP5665458B2 (en) * 2010-09-27 2015-02-04 京セラ株式会社 Driving support device and display method of driving support display
JP5731801B2 (en) * 2010-11-19 2015-06-10 東芝アルパイン・オートモティブテクノロジー株式会社 Image processing apparatus for vehicle and image processing method for vehicle
JP5588332B2 (en) * 2010-12-10 2014-09-10 東芝アルパイン・オートモティブテクノロジー株式会社 Image processing apparatus for vehicle and image processing method for vehicle
JP5894413B2 (en) * 2011-10-27 2016-03-30 東芝アルパイン・オートモティブテクノロジー株式会社 Collision judgment method and collision judgment program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222341A (en) * 2010-04-16 2011-10-19 东软集团股份有限公司 Method and device for detecting motion characteristic point and method and device for detecting motion target
CN102222341B (en) * 2010-04-16 2016-09-14 东软集团股份有限公司 Motion characteristic point detection method and device, moving target detecting method and device

Also Published As

Publication number Publication date
JPH05233813A (en) 1993-09-10

Similar Documents

Publication Publication Date Title
Scaramuzza et al. Visual-inertial odometry of aerial robots
Tian et al. Comparison of approaches to egomotion computation
Wang et al. 3D relative position and orientation estimation using Kalman filter for robot control
Assa et al. A robust vision-based sensor fusion approach for real-time pose estimation
US20060222238A1 (en) Image processing apparatus and image processing method
JP2882136B2 (en) Video analysis method
Crétual et al. Visual servoing based on image motion
Scaramuzza et al. Aerial robots, visual-inertial odometry of
Lippiello et al. Position and orientation estimation based on Kalman filtering of stereo images
Choset et al. Sensor based planning for a planar rod robot
Yu et al. Tightly-coupled fusion of VINS and motion constraint for autonomous vehicle
Klein et al. Tightly Integrated Sensor Fusion for Robust Visual Tracking.
Viéville et al. Experimenting with 3D vision on a robotic head
JPH0719818A (en) Three-dimensional movement predicting device
Kröse et al. Heading direction of a mobile robot from the optical flow
JP2003085685A (en) Vehicle traveling track observing device and method using a plurality of video cameras
Jugade et al. Improved positioning precision using a multi-rate multi-sensor in industrial motion control systems
Jiang et al. A 6-DOF camera motion correction method using IMU sensors for photogrammetry and optical measurements
Schmitt et al. Recognition of dynamic environments for robotic assembly on moving workpieces
JPH08129025A (en) Three-dimensional image processing flow velocity measuring method
JPH07244735A (en) Method and device for three-dimensional shape restoration
Huber et al. Quantitative interpretation of image velocities in real time
Saeed et al. Real time, dynamic target tracking using image motion
Berthouze et al. Calibration of a foveated wide-angle lens on an active vision head
Sridhar et al. Vision‐based obstacle detection for rotorcraft flight

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990105

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080205

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090205

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees