JP2007272461A - Motion estimating device, method, and program - Google Patents

Motion estimating device, method, and program Download PDF

Info

Publication number
JP2007272461A
JP2007272461A JP2006095859A JP2006095859A JP2007272461A JP 2007272461 A JP2007272461 A JP 2007272461A JP 2006095859 A JP2006095859 A JP 2006095859A JP 2006095859 A JP2006095859 A JP 2006095859A JP 2007272461 A JP2007272461 A JP 2007272461A
Authority
JP
Japan
Prior art keywords
image
time
momentum
virtual
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006095859A
Other languages
Japanese (ja)
Inventor
Yoshikatsu Kimura
好克 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2006095859A priority Critical patent/JP2007272461A/en
Publication of JP2007272461A publication Critical patent/JP2007272461A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To estimate an accurate motion state from an image without a cost. <P>SOLUTION: A camera 10 photographs an image I<SB>0</SB>at a time T and an image I<SB>1</SB>at a time (T+ΔT). An operation circuit 20 generates a virtual image I'<SB>0</SB>at the time T on the basis of the image I<SB>1</SB>at the time (T+ΔT), a rotation component R, and a translation component T. The operation circuit 20 three-dimensionally moves the virtual image I'<SB>0</SB>minutely while changing the rotation component R and the translation component T and calculates an evaluation value SS showing the amount of deviation between the image I<SB>0</SB>at the time T and the virtual image I'<SB>0</SB>. In the calculation of the evaluation value SS, a weight of the amount of deviation is increased in the case of the presence of a vertical edge. The operation circuit 20 estimates the rotation component R and the translation component T, which minimize the evaluation value SS, as a momentum at the time T. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、運動推定装置、方法及びプログラムに係り、特に、画像の変化から運動状態を推定する運動推定装置に関する。   The present invention relates to a motion estimation device, method, and program, and more particularly to a motion estimation device that estimates a motion state from a change in an image.

自動車の安全運転の運転者支援や自律移動車の自動運転を実現するために、車載ステレオカメラにより、道路平面領域並びに、先行車、対向車、駐車車輌、歩行者など道路上に存在する全ての障害物を検出する技術が開示されている。   In order to realize driver assistance for safe driving of automobiles and automatic driving of autonomous mobile vehicles, vehicle-mounted stereo cameras can be used for all road areas such as road plane areas, preceding cars, oncoming cars, parked vehicles, and pedestrians. A technique for detecting an obstacle is disclosed.

特許文献1では、道路に沿って移動する輸送手段のエゴモーション(セルフモーション)に関する予測を生成するためのエゴモーション判定システムにおいて、前記輸送手段が道路に沿って移動するときに記録される、一連の少なくとも2つのイメージに関連するイメージ情報を受け取るように構成されたイメージ情報レシーバと、前記イメージ情報レシーバによって受け取られたイメージ情報を処理し、前記輸送手段のエゴモーション予測を生成するように構成されたプロセッサと、を含むシステムが開示されている。この特許文献1の技術は、イメージ情報により表される路面領域を領域毎に分割し、領域毎に重みを設定することにより自車の運動を推定する。領域重み付けとしては、道路の投影とみなされる重みα、勾配強度の重みβ、路面でない重みλが用いられている。   In Patent Document 1, in an egomotion determination system for generating a prediction regarding egomotion (self-motion) of a transportation means moving along a road, a series of records recorded when the transportation means moves along a road. An image information receiver configured to receive image information associated with the at least two images, and configured to process the image information received by the image information receiver and generate an egomotion prediction of the vehicle And a processor including the same processor. In the technique of Patent Document 1, the road surface area represented by the image information is divided for each area, and the motion of the host vehicle is estimated by setting a weight for each area. As the area weighting, a weight α regarded as a road projection, a gradient strength weight β, and a non-road weight λ are used.

特許文献2では、カメラで周辺領域を撮影した画像に映った物体を画像処理により認識する方法が開示されている。具体的には、特許文献2の技術は、一台のカメラにより移動しながら撮影された一連の画像列を取得するステップと、前記画像に映った物体候補を特定し、特定した物体候補を前記一連の画像列中で追跡し、追跡により得られた物体候補画像の変化情報から物体に関する3次元情報を求める認識処理ステップと、を含んでいる。   Patent Document 2 discloses a method for recognizing an object reflected in an image obtained by photographing a peripheral area with a camera by image processing. Specifically, the technique of Patent Document 2 acquires a series of image sequences captured while moving by a single camera, identifies object candidates reflected in the image, and identifies the identified object candidates as described above. A recognition processing step of tracking in a series of image sequences and obtaining three-dimensional information about the object from change information of the object candidate image obtained by the tracking.

特許文献3では、自動車に搭載される撮像手段によって撮影された、基準画像と参照画像から構成されるステレオ動画像のみを利用して、走行可能な道路平面領域及び道路面上に存在する全ての障害物を検出できるようにしたステレオ画像を用いた道路平面領域並びに障害物検出方法が開示されている。具体的には、特許文献3の技術は、道路面に対する射影変換行列を動的に推定する第1のステップと、第1のステップで求まった前記射影変換行列を用いて、走行可能な平面領域を抽出する第2のステップと、第1のステップで求まった前記射影変換行列を分解することにより道路面の傾きを算出する第3のステップと、第3のステップで算出された前記道路面の傾きを基に道路面を上方から見た仮想投影面画像を生成する第4のステップと、第4のステップで生成された前記仮想投影面画像の上で、前記走行可能な平面領域と自車輌の位置と方向を算出する第5のステップと、を有している。
特表2003−515827号公報(式(19)) 特開2001−266160号公報 特開2005−217883号公報
In Patent Document 3, using only a stereo moving image composed of a base image and a reference image, which is taken by an imaging means mounted on an automobile, all the road plane regions and road surfaces that can be traveled are used. A road plane area and an obstacle detection method using a stereo image that can detect an obstacle are disclosed. Specifically, the technique of Patent Document 3 uses a first step of dynamically estimating a projection transformation matrix for a road surface, and a plane area that can be traveled using the projection transformation matrix obtained in the first step. A second step of extracting the road surface, a third step of calculating a slope of the road surface by decomposing the projective transformation matrix obtained in the first step, and a step of calculating the road surface of the road surface calculated in the third step A fourth step of generating a virtual projection plane image when the road surface is viewed from above on the basis of the inclination; and the plane area on which the vehicle can travel and the vehicle on the virtual projection plane image generated in the fourth step A fifth step of calculating the position and direction of
Japanese translation of PCT publication No. 2003-515827 (formula (19)) JP 2001-266160 A JP-A-2005-217883

しかし、特許文献1の技術は、上述した3つのパラメータのうちαのみが領域の濃度値の変化を利用したものであるが、道路の投影判断のみに使用されているに過ぎず、車両の運動状態を具体的に推定することができない。特許文献2の技術は、2枚の画像からオプティカルフローを計算しているが、自車の運動については車両センサ情報を利用しており、画像から運動状態を推定していない。また、特許文献3の技術は、2つのカメラを用いてステレオ画像を生成しているので、車両に搭載する際にコストがかかってしまい、さらにスペースを大きくとるという問題がある。   However, in the technique of Patent Document 1, only α out of the three parameters described above uses the change in the density value of the region, but is only used for road projection determination, and the vehicle motion The state cannot be estimated specifically. The technique of Patent Document 2 calculates an optical flow from two images, but uses vehicle sensor information for the motion of the host vehicle, and does not estimate the motion state from the images. Moreover, since the technique of patent document 3 produces | generates a stereo image using two cameras, when mounting in a vehicle, there exists a problem of taking cost and taking a space further.

本発明は、上述した課題を解決するために提案されたものであり、コストをかけることなく、画像から正確な運動状態を推定する運動推定装置、方法及びプログラムを提供することを目的とする。   The present invention has been proposed to solve the above-described problems, and an object thereof is to provide a motion estimation device, method, and program for estimating an accurate motion state from an image without cost.

本発明に係る運動推定装置は、第1の時刻における第1の画像と、第1の時刻から所定時間経過後の第2の画像を入力する画像入力手段と、前記画像入力手段により入力された第2の画像と、前記第1の時刻における仮想運動量を表す運動量パラメータと、に基づいて、前記第1の時刻における仮想画像を生成する仮想画像生成手段と、所定の分割領域毎に、前記画像入力手段により入力された第1の画像と前記仮想画像生成手段により生成された仮想画像の濃度差を算出し、かつ前記濃度差の大きさに応じた重み付け及び濃度差の方向に応じた重み付けを行うことによって、前記第1の画像と前記仮想画像とのずれ量を表す評価値を算出する評価値算出手段と、前記運動量パラメータを変えながら、評価値算出手段により算出された評価値が最も小さくなるときの前記運動量パラメータが示す仮想運動量を、第1の時刻における運動量として推定する運動量推定手段と、を備えている。   The motion estimation apparatus according to the present invention is input by the image input means for inputting the first image at the first time, the second image after a predetermined time has elapsed from the first time, and the image input means. Virtual image generation means for generating a virtual image at the first time based on a second image and a momentum parameter representing the virtual momentum at the first time, and the image for each predetermined divided region The density difference between the first image input by the input unit and the virtual image generated by the virtual image generation unit is calculated, and the weighting according to the magnitude of the density difference and the weighting according to the direction of the density difference are performed. An evaluation value calculating means for calculating an evaluation value representing a deviation amount between the first image and the virtual image, and an evaluation value calculated by the evaluation value calculating means while changing the momentum parameter. The smallest virtual momentum the indicating momentum parameter when made, and includes a motion estimation means for estimating a motion amount in the first time, the.

画像入力手段は、第1の時刻における第1の画像と、第1の時刻から所定時間経過後の第2の画像を入力する。第1及び第2の画像は、撮像手段によってリアルタイムに撮像されたものでもよいし、予め用意された画像であってもよい。   The image input means inputs the first image at the first time and the second image after a predetermined time has elapsed from the first time. The first and second images may be captured in real time by the imaging unit, or may be images prepared in advance.

仮想画像生成手段は、第2の画像と、前記第1の時刻における仮想運動量を表す運動量パラメータと、に基づいて、第1の時刻における仮想画像を生成する。すなわち、仮想画像生成手段は、運動量パラメータを用いて、第2の画像から所定時間遡った仮想画像を生成する。   The virtual image generation means generates a virtual image at the first time based on the second image and the momentum parameter representing the virtual momentum at the first time. That is, the virtual image generation unit generates a virtual image that is traced back from the second image for a predetermined time by using the momentum parameter.

評価値算出手段は、画像の所定の分割領域毎に、第1の画像と前記仮想画像とのずれ量を評価する評価値を算出する。このとき、評価値には、第1の画像と前記仮想画像との濃度差の大きさに応じた重み付け、濃度差の方向に応じた重み付けが施されている。濃度差の方向に応じた重み付けを行うのは、濃度差の方向と運動方向に関連があり、所定の濃度差の方向に運動量が反映されるからである。   The evaluation value calculation means calculates an evaluation value for evaluating a deviation amount between the first image and the virtual image for each predetermined divided region of the image. At this time, the evaluation value is weighted according to the magnitude of the density difference between the first image and the virtual image, and weighted according to the direction of the density difference. The reason why the weighting according to the direction of the density difference is performed is that there is a relation between the direction of the density difference and the direction of movement, and the momentum is reflected in the direction of the predetermined density difference.

運動量推定手段は、運動量パラメータを変えながら、評価値が最も小さくなるとき、すなわち第1の画像と前記仮想画像とが最も近づいたときの運動量パラメータが示す仮想運動量を、第1の時刻における運動量として推定する。   The momentum estimation means changes, as the momentum at the first time, the virtual momentum indicated by the momentum parameter when the evaluation value is smallest while changing the momentum parameter, that is, when the first image and the virtual image are closest to each other. presume.

したがって、上記運動推定装置は、第1の画像と仮想画像の濃度差を用いて濃度差の大きさに応じた重み付け及び濃度差の方向に応じた重み付けを行うことによって評価値を算出し、その評価値が最も小さくなるときの運動量パラメータが示す仮想運動量を第1の時刻における運動量として推定することにより、画像から正確に運動状態を推定することができる。なお、本発明は、運動推定方法及びプログラムにも適用可能である。   Therefore, the motion estimation device calculates the evaluation value by performing weighting according to the magnitude of the density difference and weighting according to the direction of the density difference using the density difference between the first image and the virtual image. By estimating the virtual momentum indicated by the momentum parameter when the evaluation value is the smallest as the momentum at the first time, the exercise state can be accurately estimated from the image. The present invention is also applicable to a motion estimation method and program.

本発明に係る運動推定装置、方法及びプログラムは、コストをかけることなく、画像から正確な運動状態を推定することができる。   The motion estimation apparatus, method, and program according to the present invention can estimate an accurate motion state from an image without cost.

以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る車両運動推定装置の構成を示すブロック図である。車両運動推定装置は、例えば車両に搭載され、車両前方を撮影するカメラ10と、カメラ10により撮像された画像に基づいて車両の運動状態を推定する演算を行う演算回路20と、を備えている。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of the vehicle motion estimation apparatus according to the first embodiment of the present invention. The vehicle motion estimation device includes, for example, a camera 10 that is mounted on a vehicle and captures the front of the vehicle, and an arithmetic circuit 20 that performs an operation of estimating the motion state of the vehicle based on an image captured by the camera 10. .

カメラ10は、被写体からの撮像光に応じた画像を生成するCCDイメージセンサ11と、CCDイメージセンサ11により生成された画像をアナログ信号からディジタル信号に変換するA/D変換器12と、を備えている。演算回路20は、A/D変換器12から供給された画像に基づいて、車両の運動状態を推定する。   The camera 10 includes a CCD image sensor 11 that generates an image corresponding to imaging light from a subject, and an A / D converter 12 that converts the image generated by the CCD image sensor 11 from an analog signal to a digital signal. ing. The arithmetic circuit 20 estimates the motion state of the vehicle based on the image supplied from the A / D converter 12.

図2は、一般のカメラ座標系を示す図である。カメラ座標系は、運動量パラメータである並進成分T及び回転成分Rを有する座標系である。並進成分T(Tx、Ty、Tz)は、カメラ座標系のXc軸、Yc軸、Zc軸の移動量である。回転成分R(Wx、Wy、Wz)は、カメラ座標系のXc軸、Yc軸、Zc軸周りの回転量(ピッチ(pitch)、ヨー(yaw)、ロール(roll))である。ここで、路面方程式を式(1)とする。   FIG. 2 is a diagram showing a general camera coordinate system. The camera coordinate system is a coordinate system having a translation component T and a rotation component R which are momentum parameters. The translation component T (Tx, Ty, Tz) is the amount of movement of the Xc axis, Yc axis, and Zc axis of the camera coordinate system. The rotation component R (Wx, Wy, Wz) is a rotation amount (pitch, yaw, roll) around the Xc axis, Yc axis, and Zc axis of the camera coordinate system. Here, the road surface equation is defined as equation (1).

このとき、道路面の法線ベクトルNを(a、b、c)とすると、式(2)となる   At this time, when the normal vector N of the road surface is (a, b, c), the equation (2) is obtained.

ここで、x及びyは、画像座標である。また、カメラ10のレンズの焦点距離をfとすると、a=A/f、b=B/f、c=Cである。   Here, x and y are image coordinates. Further, when the focal length of the lens of the camera 10 is f, a = A / f, b = B / f, and c = C.

以上のように構成された車両運動推定装置の演算回路20は、次の運動推定ルーチンを実行する。図3は、演算回路20による運動推定ルーチンを示すフローチャートである。   The arithmetic circuit 20 of the vehicle motion estimation device configured as described above executes the following motion estimation routine. FIG. 3 is a flowchart showing a motion estimation routine by the arithmetic circuit 20.

ステップS1では、演算回路20は、カメラ10から時刻Tの画像I0を入力し、時間ΔT経過後、時刻(T+ΔT)の画像I1を入力して、ステップS2に進む。ここで、図4は、時刻Tの画像I0を示す図である。図5は、時刻(T+ΔT)の画像I1を示す図である。 In step S1, the arithmetic circuit 20 inputs the image I 0 at time T from the camera 10, inputs the image I 1 at time (T + ΔT) after the time ΔT has elapsed, and proceeds to step S2. Here, FIG. 4 is a diagram showing an image I 0 at time T. FIG. 5 is a diagram showing an image I 1 at time (T + ΔT).

ステップS2では、演算回路20は、時刻Tの仮想運動量を示す運動量パラメータである回転成分R、並進成分Tに対して、それぞれの初期値R0、T0を設定して、ステップS3に進む。 In step S2, the arithmetic circuit 20 sets initial values R 0 and T 0 for the rotation component R and the translation component T, which are momentum parameters indicating the virtual momentum at time T, and proceeds to step S3.

ステップS3では、演算回路20は、時刻(T+ΔT)における画像I1と、初期値R0、T0とに基づいて、時刻Tにおける仮想画像I’0を生成する。すなわち、演算回路20は、初期値R0、T0を用いて画像I1を変形して、時間ΔTだけ遡った仮想画像I’0を生成して、ステップS4に進む。 In step S3, the arithmetic circuit 20 generates a virtual image I ′ 0 at time T based on the image I 1 at time (T + ΔT) and the initial values R 0 and T 0 . That is, the arithmetic circuit 20, by modifying the image I 1 by using the initial value R 0, T 0, and generates a virtual image I '0 predated by the time [Delta] T, the process proceeds to step S4.

図6は、時刻Tの仮想画像I’0を示す図である。図4と図6とを比較すると、同じ時刻Tの画像であっても、少し異なっているのが分かる。以下これらの画像を比較する。 FIG. 6 is a diagram showing a virtual image I ′ 0 at time T. Comparing FIG. 4 and FIG. 6, it can be seen that even images at the same time T are slightly different. These images are compared below.

ステップS4では、演算回路20は、画像I0と仮想画像I’0の下側中央部の領域を複数の分割領域に分割して、ステップS5に進む。 In step S4, the arithmetic circuit 20 divides the area at the lower center of the image I 0 and the virtual image I ′ 0 into a plurality of divided areas, and proceeds to step S5.

図7は、分割対象領域を複数の分割領域に分割した状態を示す図である。ここでは、後述の残差演算を考慮して、画像I0と仮想画像I’0との差分画像に分割領域が表示されている。ここで、分割対象領域として画像下側中央部の領域を用いたのは、その領域に最も変化が現れやすいためである。 FIG. 7 is a diagram illustrating a state in which the division target area is divided into a plurality of divided areas. Here, in consideration of the residual calculation described later, the divided areas are displayed in the difference image between the image I 0 and the virtual image I ′ 0 . Here, the reason why the lower central area of the image is used as the division target area is that the change is most likely to appear in the area.

ステップS5では、演算回路20は、画像I0と仮想画像I’0のずれ量を表す評価値を計算する。具体的には、次の評価ルーチンが実行される。 In step S5, the arithmetic circuit 20 calculates an evaluation value that represents the amount of deviation between the image I 0 and the virtual image I ′ 0 . Specifically, the following evaluation routine is executed.

図8は、評価ルーチンを示すフローチャートである。すなわち、ステップS5では、次のステップS11以降の処理が実行される。   FIG. 8 is a flowchart showing the evaluation routine. That is, in step S5, the processing after the next step S11 is executed.

ステップS11では、演算回路20は、初期値R0、T0を設定し、初期値カウント値を0に設定して(Count=0)、ステップS12に進む。ここで、カウント値とは、評価値がほぼ最小になったと考えられる回数である。 In step S11, the arithmetic circuit 20 sets initial values R 0 and T 0 , sets an initial value count value to 0 (Count = 0), and proceeds to step S12. Here, the count value is the number of times that the evaluation value is considered to be almost the minimum.

ステップS12では、演算回路20は、分割領域番号i=0、残差積算値SS=0に設定して、ステップS13に進む。   In step S12, the arithmetic circuit 20 sets the division area number i = 0 and the residual integrated value SS = 0, and proceeds to step S13.

ステップS13では、演算回路20は、分割領域番号iの分割領域における画像I0と仮想画像I’0の残差Siを計算する。具体的には、次の式(3)を計算する。 In step S13, the arithmetic circuit 20 calculates a residual Si between the image I 0 and the virtual image I ′ 0 in the divided area with the divided area number i. Specifically, the following equation (3) is calculated.

fは画像I0の座標(x、y)における濃度値(輝度値)であり、gは仮想画像I’0の座標(x、y)における濃度値である。そして、演算回路20は、式(3)を計算して、ステップS14に進む。 f is the concentration value at the coordinates of the image I 0 (x, y) (the luminance value), g is the density value in the virtual image I '0 of the coordinate (x, y). And the arithmetic circuit 20 calculates Formula (3), and progresses to step S14.

ステップS14では、演算回路20は、分割領域番号iにおける残差Siを積算して評価値SSを算出すべく、式(4)を計算する。   In step S14, the arithmetic circuit 20 calculates Equation (4) in order to calculate the evaluation value SS by integrating the residual Si in the divided region number i.

式(4)は、評価値を算出するための評価関数である。αiは、濃度値の変化の強度(大きさ)に応じた重み付け係数である。βiは、濃度勾配の方向に応じた重み付け係数である。   Expression (4) is an evaluation function for calculating an evaluation value. αi is a weighting coefficient corresponding to the intensity (magnitude) of change in density value. βi is a weighting coefficient corresponding to the direction of the density gradient.

αiは、例えば、画像I0と仮想画像I’0との濃度値の差が大きくなるに従って大きな値になり、その差が小さくなるに従って小さな値になる。 For example, αi increases as the difference in density value between the image I 0 and the virtual image I ′ 0 increases, and decreases as the difference decreases.

βiは、進行方向に垂直な垂直エッジ(横エッジ)が存在するとき(横方向に比べて縦方向の濃度値変化が大きいとき)に大きな値になり、垂直エッジが存在しないときに小さな値になる。すなわち、βiは、分割領域に垂直エッジが存在するときは、画像I0と仮想画像I’ 0のずれ量の重みを大きくしている。その理由は、垂直エッジは、車両進行方向に垂直なエッジであるため、進行方向のずれ量を検出しやすいからである。 βi takes a large value when there is a vertical edge (horizontal edge) perpendicular to the traveling direction (when the change in density value in the vertical direction is larger than the horizontal direction), and a small value when there is no vertical edge. Become. That is, βi increases the weight of the shift amount between the image I 0 and the virtual image I ′ 0 when a vertical edge exists in the divided area. The reason is that the vertical edge is an edge perpendicular to the vehicle traveling direction, and thus it is easy to detect the amount of deviation in the traveling direction.

図9は、αiの算出方法の一例を示す図である。演算回路20は、例えば、分割領域内の各点における残差の合計値に応じてαiを算出してもよいし、分割領域内の標準偏差を使用してαiを算出してもよい。また、また、エッジフィルタでSobelやCannyにおけるエッジ強度を使用してもよい。また、βiは、例えば次のように求められる。   FIG. 9 is a diagram illustrating an example of a method of calculating αi. For example, the arithmetic circuit 20 may calculate αi according to the total value of the residuals at each point in the divided area, or may calculate αi using the standard deviation in the divided area. Further, the edge strength in Sobel or Canny may be used in the edge filter. Further, βi is obtained as follows, for example.

図10は、走行路上にある垂直エッジを示す図である。走行路には、走行レーンに直交する方向に影による垂直エッジが生じることがある。この垂直エッジを検出するために、演算回路20は次の処理を行う。   FIG. 10 is a diagram illustrating a vertical edge on a traveling path. On the travel path, a vertical edge caused by a shadow may occur in a direction perpendicular to the travel lane. In order to detect this vertical edge, the arithmetic circuit 20 performs the following processing.

図11は、βiの算出方法の一例を示す図である。x方向(横方向)の濃度値の強度(変化の大きさ)をdx、y方向(縦方向)の濃度値の強度をdy、x方向に対する強度方向のなす角をθとする。このとき、演算回路20は、dy/dx(=tanθ)を演算する。   FIG. 11 is a diagram illustrating an example of a βi calculation method. The intensity (magnitude of change) in the x direction (horizontal direction) is dx, the intensity in the y direction (vertical direction) is dy, and the angle formed by the intensity direction with respect to the x direction is θ. At this time, the arithmetic circuit 20 calculates dy / dx (= tan θ).

ここで、垂直エッジの場合、x方向の変化に比べてy方向の変化が大きくなる。また、進行方向に平行な進行方向エッジ(縦エッジ)の場合、その逆になる。よって、垂直エッジの場合はtanθの値は大きくなり、進行方向エッジの場合はtanθの値は小さくなる。   Here, in the case of a vertical edge, the change in the y direction is larger than the change in the x direction. In the case of a traveling direction edge (vertical edge) parallel to the traveling direction, the opposite is true. Therefore, the value of tanθ is large for a vertical edge, and the value of tanθ is small for a traveling edge.

図12は、xy平面上におけるβiの区分を示す図である。tanθの値は、図12のxy平面における傾きを表している。領域(a)は、x方向の変化に比べてy方向の変化が大きいので、垂直エッジを示している。逆に、領域(b)は、垂直エッジ以外の領域を示している。また、領域(a)のβiは、領域(b)のβiに比べて例えば10倍の値に設定されている。そこで、演算回路20は、tanθの値が領域(a)、(b)のいずれに属するかを判定し、その判定結果に基づいてβiを決定する。   FIG. 12 is a diagram illustrating the division of βi on the xy plane. The value of tan θ represents the inclination in the xy plane of FIG. Region (a) shows a vertical edge because the change in the y direction is larger than the change in the x direction. Conversely, the area (b) shows an area other than the vertical edge. Further, βi of the region (a) is set to a value that is, for example, 10 times that of βi of the region (b). Therefore, the arithmetic circuit 20 determines whether the value of tan θ belongs to the region (a) or (b), and determines βi based on the determination result.

ステップS15では、演算回路20は、最後の分割領域について処理をしたか否か、すなわち分割領域番号iが最後の番号であるか否かを判定し、肯定判定のときはステップS17に進み、否定判定のときはステップS16に進む。   In step S15, the arithmetic circuit 20 determines whether or not processing has been performed on the last divided area, that is, whether or not the divided area number i is the last number. If the determination is affirmative, the process proceeds to step S17. If it is determined, the process proceeds to step S16.

ステップS16では、演算回路20は、次の分割領域のデータを読み込んで(i=i+1)、ステップS13に戻る。これにより、演算回路20は、再びステップS13からステップS16の処理を繰り返し行って、すべての分割領域について処理を実行した後、ステップS17に進む。   In step S16, the arithmetic circuit 20 reads data of the next divided area (i = i + 1), and returns to step S13. As a result, the arithmetic circuit 20 repeats the processing from step S13 to step S16 again to execute the processing for all the divided areas, and then proceeds to step S17.

ステップS17では、演算回路20は、回転成分R及び並進成分Tはそれぞれ初期値R0、T0であるか否かを判定し、肯定判定のときはステップS22に進み、否定判定の時はステップS18に進む。 In step S17, the arithmetic circuit 20 determines whether or not the rotation component R and the translation component T are the initial values R 0 and T 0 , respectively. If the determination is affirmative, the operation proceeds to step S22. Proceed to S18.

ステップS18では、演算回路20は、今回算出した評価値SSと前回算出した評価値prevSSとの差の絶対値ΔSSを算出し(ΔSS=|SS−prevSS|)、ステップS19に進む。   In step S18, the arithmetic circuit 20 calculates the absolute value ΔSS of the difference between the currently calculated evaluation value SS and the previously calculated evaluation value prevSS (ΔSS = | SS−prevSS |), and proceeds to step S19.

ステップS19では、演算回路20は、ΔSSが予め設定された閾値A以下であるか否かを判定し、肯定判定のときはステップS20に進み、否定判定のときはステップS21に進む。ここで、閾値Aは十分小さい値である。よって、ΔSSが閾値A以下であるときは、評価関数により得られる評価値がほぼ最小値になった状態である。   In step S19, the arithmetic circuit 20 determines whether or not ΔSS is equal to or less than a preset threshold value A. If the determination is affirmative, the process proceeds to step S20. If the determination is negative, the process proceeds to step S21. Here, the threshold A is a sufficiently small value. Therefore, when ΔSS is equal to or less than the threshold value A, the evaluation value obtained by the evaluation function is almost at the minimum value.

ステップS20では、演算回路20は、カウント値を1つ上げるようにカウント値を更新して(Count=Count+1)、ステップS21に進む。   In step S20, the arithmetic circuit 20 updates the count value so as to increase the count value by 1 (Count = Count + 1), and proceeds to step S21.

ステップS21では、演算回路20は、カウント値が設定値B以上であるか否かを判定し、肯定判定のときは本ルーチンの処理を終了して、図4に示すステップS6に進み、否定判定のときはステップS22に進む。カウント値が設定値B以上になったときは、評価値が収束してほぼ最小値に達したと考えられるので、処理を終了する。   In step S21, the arithmetic circuit 20 determines whether or not the count value is equal to or greater than the set value B. If the determination is affirmative, the processing of this routine is terminated, and the process proceeds to step S6 shown in FIG. In this case, the process proceeds to step S22. When the count value is equal to or greater than the set value B, it is considered that the evaluation value has converged to reach a substantially minimum value, and thus the process is terminated.

ステップS22では、演算回路20は、回転成分Rに微小変化ΔRを、並進成分Tに微小変化ΔTを与える(R→R+ΔR、T→T+ΔT)。そして、演算回路20は、新たな回転成分R及び並進成分Tを用いて新たな仮想画像I’0を生成する。つまり、仮想画像I’0を3次元微小移動させる。さらに、演算回路20は、評価値SSを前回の評価値を示しパラメータであるprevSSに代入して、ステップS12に戻る。 In step S22, the arithmetic circuit 20 gives a minute change ΔR to the rotation component R and a minute change ΔT to the translation component T (R → R + ΔR, T → T + ΔT). Then, the arithmetic circuit 20 generates a new virtual image I ′ 0 using the new rotation component R and translation component T. That is, the virtual image I ′ 0 is three-dimensionally moved. Further, the arithmetic circuit 20 assigns the evaluation value SS to the prevSS that indicates the previous evaluation value and is a parameter, and returns to step S12.

以上のように、演算回路20は、回転成分R及び並進成分Tを変えながら仮想画像I’0を3次元微小移動させて、画像I0と仮想画像I’0とのずれ量を示す評価値SSを算出し、評価値SSが最小値となる状態を検出する。 As described above, the arithmetic circuit 20 three-dimensionally moves the virtual image I ′ 0 while changing the rotation component R and the translation component T, and the evaluation value indicating the shift amount between the image I 0 and the virtual image I ′ 0. SS is calculated, and a state where the evaluation value SS is the minimum value is detected.

一方、図4に示すステップS6では、演算回路20は、評価値SSが最小値となるときの回転成分R及び並進成分Tを抽出し、この回転成分R及び並進成分Tを自車の時刻Tにおける運動量と推定して、本ルーチンを終了する。   On the other hand, in step S6 shown in FIG. 4, the arithmetic circuit 20 extracts the rotation component R and the translation component T when the evaluation value SS becomes the minimum value, and uses the rotation component R and the translation component T as the time T of the own vehicle. This routine is terminated by estimating the momentum at.

図13は、カメラ10によって生成された画像I0及びその分割領域の一例を示す図である。この画像I0には、進行方向に平行な白線、進行方向に垂直な影などが存在する。 FIG. 13 is a diagram illustrating an example of the image I 0 generated by the camera 10 and its divided areas. This image I 0 includes a white line parallel to the traveling direction, a shadow perpendicular to the traveling direction, and the like.

図14は、従来の手法を用いて分割領域に重み付けを行った状態を示す図である。図15は、本実施形態に係る車両運動推定装置が分割領域に重み付けを行った状態を示す図である。図14及び図15を比較すると、垂直エッジの存在する4つの分割領域の重みが大きくなったことが分かる。   FIG. 14 is a diagram illustrating a state in which the divided areas are weighted using a conventional method. FIG. 15 is a diagram illustrating a state in which the vehicle motion estimation device according to the present embodiment weights divided areas. Comparing FIG. 14 and FIG. 15, it can be seen that the weights of the four divided regions where the vertical edges exist are increased.

以上のように、第1の実施形態に係る車両運動推定装置は、時刻(T+ΔT)の画像I1と、時刻Tの仮想運動量である回転成分R及び並進成分Tとに基づいて、時刻Tの仮想画像I’ 0を生成する。そして、車両運動推定装置は、回転成分R及び並進成分Tを変えながら仮想画像I’0を3次元微小移動させて、時刻Tの画像I0と仮想画像I’0とのずれ量を示す評価値SSを算出し、評価値SSが最小値となる状態の回転成分R及び並進成分Tを時刻Tの運動量として推定する。 As described above, the vehicle motion estimation apparatus according to the first embodiment is based on the image I 1 at time (T + ΔT) and the rotation component R and the translation component T that are virtual momentums at time T. A virtual image I ′ 0 is generated. Then, the vehicle motion estimation device performs the three-dimensional minute movement of the virtual image I ′ 0 while changing the rotation component R and the translation component T, and evaluates the shift amount between the image I 0 and the virtual image I ′ 0 at time T. The value SS is calculated, and the rotation component R and the translation component T in a state where the evaluation value SS is the minimum value are estimated as the momentum at the time T.

特に、車両運動推定装置は、垂直エッジがある場合には上記ずれ量の重み付けを重くして評価値SSを算出することにより、車両進行方向のずれ量をよく反映して、正確な運動量を推定することができる。   In particular, when there is a vertical edge, the vehicle motion estimation device estimates the accurate amount of motion by accurately reflecting the amount of displacement in the vehicle traveling direction by calculating the evaluation value SS by weighting the amount of displacement above. can do.

[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。また、第2の実施形態に係る車両運動推定装置は、第1の実施形態と同様に、図1に示すように構成されている。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In addition, the same code | symbol is attached | subjected to the site | part same as 1st Embodiment, and the overlapping description is abbreviate | omitted. Moreover, the vehicle motion estimation apparatus according to the second embodiment is configured as shown in FIG. 1 as in the first embodiment.

図2に示したカメラ座標系は、パラメータの数が多い。このため、第2の実施形態では、パラメータの数を減らして演算負荷を低減させる。   The camera coordinate system shown in FIG. 2 has a large number of parameters. For this reason, in the second embodiment, the number of parameters is reduced to reduce the calculation load.

図16は、第2の実施形態のカメラ座標系を示す図である。このカメラ座標系では、道路面とカメラ10の光軸とが直交するように、カメラ10が設置されている。すなわち、道路面の法線ベクトルNとカメラ10の光軸とが直交している。これにより、並進成分の(Tx、Ty)は(0、0)となり、回転成分(Wz)は(0)となる。また、道路面の法線ベクトルNは(0、b、0)となる。すなわち、運動量パラメータとして、Wx、Wy、Tzのみを用いることができる。このように、カメラと路面の拘束条件によって、パラメータを削減できる。   FIG. 16 is a diagram illustrating a camera coordinate system according to the second embodiment. In this camera coordinate system, the camera 10 is installed so that the road surface and the optical axis of the camera 10 are orthogonal to each other. That is, the normal vector N of the road surface is orthogonal to the optical axis of the camera 10. As a result, the translation component (Tx, Ty) becomes (0, 0), and the rotation component (Wz) becomes (0). The normal vector N of the road surface is (0, b, 0). That is, only Wx, Wy, and Tz can be used as the momentum parameters. Thus, the parameters can be reduced depending on the constraint conditions between the camera and the road surface.

すなわち、車両運動推定装置の演算回路20は、上記の3つの運動量パラメータを用いて、図3に示す運動推定ルーチンを実行する。よって、回転成分Rの初期値R0は(0、0、Wz)、並進成分Tの初期値T0は(Tx、Ty、0)となる。ただし、図3のステップS5では、次の評価ルーチンが実行される。 That is, the arithmetic circuit 20 of the vehicle motion estimation device executes the motion estimation routine shown in FIG. 3 using the above three motion amount parameters. Therefore, the initial value R 0 of the rotation component R is (0, 0, Wz), and the initial value T 0 of the translation component T is (Tx, Ty, 0). However, in step S5 of FIG. 3, the following evaluation routine is executed.

図17及び図18は、第2の実施形態に係る評価ルーチンを示すフローチャートである。ここでは、主に図8と異なるステップのみ説明する。以下では、図17を第1ルーチン、図18を第2ルーチンという。   17 and 18 are flowcharts showing an evaluation routine according to the second embodiment. Here, only steps different from FIG. 8 will be mainly described. Hereinafter, FIG. 17 is referred to as a first routine, and FIG. 18 is referred to as a second routine.

第1ルーチンは、図12に示す領域(a)に属する分割領域の重みを0、領域(b)に属する分割領域の重みを1に設定して、評価値が最小値になるときのWx、Wyを求める。   The first routine sets the weight of the divided region belonging to the region (a) shown in FIG. 12 to 0, the weight of the divided region belonging to the region (b) to 1, and Wx when the evaluation value becomes the minimum value, Find Wy.

具体的には、図17のステップS31〜S42は、図8のステップS11〜S22にほぼ対応している。但し、図17のステップS31では、演算回路20は、回転成分R、並進成分Tの初期値R0、T0として、Wx、Wy、Tzをそれぞれ設定し、カウント値を0に設定する。 Specifically, steps S31 to S42 in FIG. 17 substantially correspond to steps S11 to S22 in FIG. However, in step S31 of FIG. 17, the arithmetic circuit 20 sets Wx, Wy, and Tz as initial values R 0 and T 0 of the rotation component R and translation component T, respectively, and sets the count value to zero.

ステップS33では、演算回路20は、上述した式(3)に従って、垂直エッジの存在しない(進行方向エッジを含む。)分割領域間の残差Siを計算する。   In step S33, the arithmetic circuit 20 calculates the residual Si between the divided areas in which no vertical edge exists (including the traveling direction edge) according to the above-described equation (3).

また、ステップS42では、演算回路20は、回転成分RのWxに微小変化ΔWxを、Wyに微小変化ΔWyを与える(Wx→Wx+ΔWx、Wy→Wy+ΔWy)。そして、演算回路20は、新たな回転成分Rを用いて新たな仮想画像I’0を生成する。さらに、演算回路20は、評価値SSを前回の評価値を示しパラメータであるprevSSに代入する。 In step S42, the arithmetic circuit 20 gives the minute change ΔWx to Wx of the rotation component R and gives the minute change ΔWy to Wy (Wx → Wx + ΔWx, Wy → Wy + ΔWy). Then, the arithmetic circuit 20 generates a new virtual image I ′ 0 using the new rotation component R. Further, the arithmetic circuit 20 substitutes the evaluation value SS for the previous evaluation value, which is a parameter, prevSS.

図19は、第1ルーチンで使用された各分割領域の重みを示す図である。ここでは、濃度変化の大きい分割領域の重みが大きくなり、濃度変化の小さい領域の重みが小さくなっている。   FIG. 19 is a diagram showing the weight of each divided region used in the first routine. Here, the weight of the divided region having a large density change is increased, and the weight of the region having a small density change is decreased.

次に、第2ルーチンは、第1ルーチンで求められたWx、Wyを固定して、図12に示す領域(a)に属する分割領域の重みを1、領域(b)に属する分割領域の重みを0に設定して、評価値が最小となるときのTzを求める。このときは、図12の領域(a)に属する領域を用いて評価値SSが最小値になるようにしてTzを求める。   Next, the second routine fixes Wx and Wy obtained in the first routine, sets the weight of the divided area belonging to the area (a) shown in FIG. 12 to 1, and the weight of the divided area belonging to the area (b). Is set to 0, and Tz when the evaluation value is minimized is obtained. At this time, Tz is obtained by using the region belonging to the region (a) in FIG. 12 so that the evaluation value SS becomes the minimum value.

具体的には、図18のステップS51〜S62は、図8のステップS11〜S22にほぼ対応している。但し、図18のステップS51では、演算回路20は、回転成分R、並進成分Tの初期値R0、T0として、第1ルーチンで決定されたWx及びWyを設定し、さらに所定のTzを設定し、カウント値を0に設定する。 Specifically, steps S51 to S62 in FIG. 18 substantially correspond to steps S11 to S22 in FIG. However, in step S51 in FIG. 18, the arithmetic circuit 20 sets Wx and Wy determined in the first routine as initial values R 0 and T 0 of the rotation component R and translation component T, and further sets a predetermined Tz. Set the count value to 0.

ステップS53では、演算回路20は、上述した式(3)に従って、垂直エッジが存在する分割領域間及び垂直エッジの存在しない分割領域間の残差Siを計算する。   In step S53, the arithmetic circuit 20 calculates the residual Si between the divided regions where the vertical edge exists and between the divided regions where the vertical edge does not exist according to the above-described equation (3).

また、ステップS62では、演算回路20は、並進成分TのTzに微小変化ΔTzを与える(Tz→Tz+ΔTz)。そして、演算回路20は、新たな並進成分Tを用いて新たな仮想画像I’0を生成する。さらに、演算回路20は、評価値SSを前回の評価値を示しパラメータであるprevSSに代入する。 Further, in step S62, the arithmetic circuit 20 gives a minute change ΔTz to Tz of the translation component T (Tz → Tz + ΔTz). Then, the arithmetic circuit 20 generates a new virtual image I ′ 0 using the new translation component T. Further, the arithmetic circuit 20 substitutes the evaluation value SS for the previous evaluation value, which is a parameter, prevSS.

図20は、第2ルーチンで使用された各分割領域の重みを示す図である。ここでは、垂直エッジの存在する分割領域の重みが大きくなり、垂直エッジの存在しない分割領域の重みが小さくなっている。   FIG. 20 is a diagram showing the weight of each divided region used in the second routine. Here, the weight of the divided area where the vertical edge exists is increased, and the weight of the divided area where the vertical edge does not exist is decreased.

そして、演算回路20は、第1及び第2ルーチンを終了すると、図3に示すステップS6を実行する。なお、第2の実施形態では、演算回路20は、第1ルーチンの後に第2ルーチンを実行したが、先に第2ルーチンを実行し、その後第1ルーチンを実行してもよい。   And the arithmetic circuit 20 will perform step S6 shown in FIG. 3, after complete | finishing a 1st and 2nd routine. In the second embodiment, the arithmetic circuit 20 executes the second routine after the first routine. However, the arithmetic circuit 20 may execute the second routine first and then execute the first routine.

以上のように、第2の実施形態に係る車両運動推定装置は、道路面とカメラ10の光軸とが直交するようにカメラ座標系を設定することにより、3つの運動量パラメータWx、Wy、Tzのみを用いることができるので、演算負荷を大幅に低減することができる。   As described above, the vehicle motion estimation apparatus according to the second embodiment sets the camera coordinate system so that the road surface and the optical axis of the camera 10 are orthogonal to each other, so that the three momentum parameters Wx, Wy, Tz are set. Therefore, the calculation load can be greatly reduced.

なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention can also be applied to a design modified within the scope of the claims.

例えば上述した実施形態では、βiは垂直エッジが存在するか否かの2段階に分けられていたが、本発明はこれに限定されるものではない。βiは、例えば、エッジの方向が車両進行方向(縦方向)に近づくに従って大きな値になり、エッジの方向が車両進行方向に垂直な方向に近づくに従って小さな値になってもよい。   For example, in the above-described embodiment, βi is divided into two stages whether or not a vertical edge exists, but the present invention is not limited to this. For example, βi may increase as the edge direction approaches the vehicle traveling direction (vertical direction), and may decrease as the edge direction approaches a direction perpendicular to the vehicle traveling direction.

また、上述した実施形態では、車両に搭載される車両運動推定装置を例に挙げて説明したが、本発明は車両に限らず他の移動体の運動状態を推定することができるのは勿論である。   In the above-described embodiment, the vehicle motion estimation device mounted on the vehicle has been described as an example. However, the present invention is not limited to the vehicle, and can naturally estimate the motion state of other moving objects. is there.

本発明の第1の実施形態に係る車両運動推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle motion estimation apparatus which concerns on the 1st Embodiment of this invention. 一般のカメラ座標系を示す図である。It is a figure which shows a general camera coordinate system. 演算回路による運動推定ルーチンを示すフローチャートである。It is a flowchart which shows the exercise | movement estimation routine by an arithmetic circuit. 時刻Tの画像I0を示す図である。Is a diagram showing an image I 0 at time T. 時刻(T+ΔT)の画像I1を示す図である。Is a diagram illustrating an image I 1 at time (T + ΔT). 時刻Tの仮想画像I’0を示す図である。It is a diagram showing a virtual image I '0 time T. 分割対象領域を複数の分割領域に分割した状態を示す図である。It is a figure which shows the state which divided | segmented the division | segmentation object area | region into the several division area. 評価ルーチンを示すフローチャートである。It is a flowchart which shows an evaluation routine. αiの算出方法の一例を示す図である。It is a figure which shows an example of the calculation method of (alpha) i. 走行路上にある垂直エッジを示す図である。It is a figure which shows the vertical edge which exists on a travel path. βiの算出方法の一例を示す図である。It is a figure which shows an example of the calculation method of (beta) i. xy平面上におけるβiの区分を示す図である。It is a figure which shows the division of (beta) i on xy plane. カメラによって生成された画像I0及びその分割領域の一例を示す図である。It is a diagram illustrating an example of a generated image I 0 and the divided regions by the camera. 従来の手法を用いて分割領域に重み付けを行った状態を示す図である。It is a figure which shows the state which weighted the division area using the conventional method. 車両運動推定装置が分割領域に重み付けを行った状態を示す図である。It is a figure which shows the state which the vehicle motion estimation apparatus weighted the division area. 第2の実施形態のカメラ座標系を示す図である。It is a figure which shows the camera coordinate system of 2nd Embodiment. 第2の実施形態に係る評価ルーチンを示すフローチャートである。It is a flowchart which shows the evaluation routine which concerns on 2nd Embodiment. 評価ルーチンを示すフローチャートである。It is a flowchart which shows an evaluation routine. 第1ルーチンで使用された各分割領域の重みを示す図である。It is a figure which shows the weight of each division area used by the 1st routine. 第2ルーチンで使用された各分割領域の重みを示す図である。It is a figure which shows the weight of each division area used by the 2nd routine.

符号の説明Explanation of symbols

10 カメラ
11 CCDイメージセンサ
12 A/D変換器
20 演算回路
10 Camera 11 CCD Image Sensor 12 A / D Converter 20 Arithmetic Circuit

Claims (5)

第1の時刻における第1の画像と、第1の時刻から所定時間経過後の第2の画像を入力する画像入力手段と、
前記画像入力手段により入力された第2の画像と、前記第1の時刻における仮想運動量を表す運動量パラメータと、に基づいて、前記第1の時刻における仮想画像を生成する仮想画像生成手段と、
所定の分割領域毎に、前記画像入力手段により入力された第1の画像と前記仮想画像生成手段により生成された仮想画像の濃度差を算出し、かつ前記濃度差の大きさに応じた重み付け及び濃度差の方向に応じた重み付けを行うことによって、前記第1の画像と前記仮想画像とのずれ量を表す評価値を算出する評価値算出手段と、
前記運動量パラメータを変えながら、評価値算出手段により算出された評価値が最も小さくなるときの前記運動量パラメータが示す仮想運動量を、第1の時刻における運動量として推定する運動量推定手段と、
を備えた運動推定装置。
An image input means for inputting a first image at a first time and a second image after a predetermined time has elapsed from the first time;
Virtual image generation means for generating a virtual image at the first time based on the second image input by the image input means and the momentum parameter representing the virtual momentum at the first time;
For each predetermined divided region, a density difference between the first image input by the image input unit and the virtual image generated by the virtual image generation unit is calculated, and weighting according to the magnitude of the density difference is performed. An evaluation value calculating means for calculating an evaluation value representing a deviation amount between the first image and the virtual image by performing weighting according to a direction of density difference;
Momentum estimation means for estimating the virtual momentum indicated by the momentum parameter when the evaluation value calculated by the evaluation value calculation means is smallest while changing the momentum parameter, as the momentum at the first time;
A motion estimation device comprising:
前記濃度差の方向に応じた重み付けは、画像の縦方向に比べて画像の横方向の重みを重くする
請求項1に記載の運動推定装置。
The motion estimation apparatus according to claim 1, wherein the weighting according to the direction of the density difference increases the weight in the horizontal direction of the image compared to the vertical direction of the image.
前記運動量パラメータは、3次元方向の各々の移動量と、3次元方向の各々の回転軸周りの回転量と、である
請求項1または請求項2に記載の運動推定装置。
The motion estimation device according to claim 1, wherein the momentum parameters are a movement amount in each of the three-dimensional directions and a rotation amount around each rotation axis in the three-dimensional direction.
第1の時刻における第1の画像と、第1の時刻から所定時間経過後の第2の画像を入力し、
前記入力された第2の画像と、前記第1の時刻における仮想運動量を表す運動量パラメータと、に基づいて、前記第1の時刻における仮想画像を生成し、
所定の分割領域毎に、前記第1の画像と前記仮想画像の濃度差を算出し、かつ前記濃度差の大きさに応じた重み付け及び濃度差の方向に応じた重み付けを行うことによって、前記第1の画像と前記仮想画像とのずれ量を表す評価値を算出し、
前記運動量パラメータを変えながら、前記評価値が最も小さくなるときの前記運動量パラメータが示す仮想運動量を、第1の時刻における運動量として推定する
運動推定方法。
Input a first image at a first time and a second image after a predetermined time has elapsed from the first time,
Based on the input second image and a momentum parameter representing a virtual momentum at the first time, a virtual image at the first time is generated,
By calculating a density difference between the first image and the virtual image for each predetermined divided region, and performing weighting according to the magnitude of the density difference and weighting according to the direction of the density difference, Calculating an evaluation value representing the amount of deviation between the image of 1 and the virtual image;
A motion estimation method for estimating a virtual momentum indicated by the momentum parameter when the evaluation value is smallest while changing the momentum parameter as a momentum at a first time.
コンピュータに、
第1の時刻における第1の画像と、第1の時刻から所定時間経過後の第2の画像を入力させ、
前記入力された第2の画像と、前記第1の時刻における仮想運動量を表す運動量パラメータと、に基づいて、前記第1の時刻における仮想画像を生成させ、
所定の分割領域毎に、前記第1の画像と前記仮想画像の濃度差を算出し、かつ前記濃度差の大きさに応じた重み付け及び濃度差の方向に応じた重み付けを行うことによって、前記第1の画像と前記仮想画像とのずれ量を表す評価値を算出させ、
前記運動量パラメータを変えながら、前記評価値が最も小さくなるときの前記運動量パラメータが示す仮想運動量を、第1の時刻における運動量として推定させる
運動推定プログラム。
On the computer,
Input a first image at a first time and a second image after a predetermined time has elapsed from the first time;
Based on the input second image and a momentum parameter representing the virtual momentum at the first time, a virtual image at the first time is generated,
By calculating a density difference between the first image and the virtual image for each predetermined divided region, and performing weighting according to the magnitude of the density difference and weighting according to the direction of the density difference, An evaluation value representing the amount of deviation between the image of 1 and the virtual image is calculated;
A motion estimation program for estimating a virtual momentum indicated by the momentum parameter when the evaluation value is smallest while changing the momentum parameter as a momentum at a first time.
JP2006095859A 2006-03-30 2006-03-30 Motion estimating device, method, and program Pending JP2007272461A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006095859A JP2007272461A (en) 2006-03-30 2006-03-30 Motion estimating device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006095859A JP2007272461A (en) 2006-03-30 2006-03-30 Motion estimating device, method, and program

Publications (1)

Publication Number Publication Date
JP2007272461A true JP2007272461A (en) 2007-10-18

Family

ID=38675218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006095859A Pending JP2007272461A (en) 2006-03-30 2006-03-30 Motion estimating device, method, and program

Country Status (1)

Country Link
JP (1) JP2007272461A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013033312A (en) * 2011-08-01 2013-02-14 Hitachi Ltd Image processing device
JP2013065298A (en) * 2011-09-16 2013-04-11 Harman International (China) Holdings Company Ltd Egomotion approximation system and method
JP7431025B2 (en) 2019-04-02 2024-02-14 三星電子株式会社 Ego motion information estimation device and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013033312A (en) * 2011-08-01 2013-02-14 Hitachi Ltd Image processing device
US9165374B2 (en) 2011-08-01 2015-10-20 Hitachi, Ltd. Image processing device that performs tracking control
JP2013065298A (en) * 2011-09-16 2013-04-11 Harman International (China) Holdings Company Ltd Egomotion approximation system and method
JP7431025B2 (en) 2019-04-02 2024-02-14 三星電子株式会社 Ego motion information estimation device and method

Similar Documents

Publication Publication Date Title
CN111566441B (en) Vehicle environment modeling with camera
JP4899424B2 (en) Object detection device
JP4052650B2 (en) Obstacle detection device, method and program
JP5251800B2 (en) Object tracking device and program
US20190311485A1 (en) Method for Evaluating Image Data of a Vehicle Camera
JP5136504B2 (en) Object identification device
EP2602741A2 (en) Detection of the vertical contour of a road
JP5023186B2 (en) Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection
JP4962569B2 (en) Moving object detection device
JP2008186246A (en) Moving object recognizing device
JP2007300181A (en) Periphery monitoring apparatus and periphery monitoring method and program thereof
JP5834933B2 (en) Vehicle position calculation device
JP2000357233A (en) Body recognition device
JP2006071471A (en) Moving body height discrimination device
JP2015153295A (en) Environment recognition system, vehicle, and camera dirt detection method
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP3656056B2 (en) Interrupting vehicle detection device and method
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
JP3633469B2 (en) Inter-vehicle distance setting device
JP2007272461A (en) Motion estimating device, method, and program
JP7003972B2 (en) Distance estimation device, distance estimation method and computer program for distance estimation
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP2005170290A (en) Obstacle detecting device
JP5891802B2 (en) Vehicle position calculation device
JP2017102832A (en) Vehicle pitch angle estimation device