JP7007649B2 - Optical flow estimator, optical flow estimation method, optical flow estimation system, and optical flow estimation program, as well as yaw rate estimator, yaw rate estimation method, yaw rate estimation system, and yaw rate estimation program. - Google Patents

Optical flow estimator, optical flow estimation method, optical flow estimation system, and optical flow estimation program, as well as yaw rate estimator, yaw rate estimation method, yaw rate estimation system, and yaw rate estimation program. Download PDF

Info

Publication number
JP7007649B2
JP7007649B2 JP2018100265A JP2018100265A JP7007649B2 JP 7007649 B2 JP7007649 B2 JP 7007649B2 JP 2018100265 A JP2018100265 A JP 2018100265A JP 2018100265 A JP2018100265 A JP 2018100265A JP 7007649 B2 JP7007649 B2 JP 7007649B2
Authority
JP
Japan
Prior art keywords
optical flow
estimation
yaw rate
rotation parameter
initially estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018100265A
Other languages
Japanese (ja)
Other versions
JP2019204390A (en
Inventor
雄介 関川
孝介 原
義満 青木
惇 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Denso IT Laboratory Inc
Original Assignee
Keio University
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University, Denso IT Laboratory Inc filed Critical Keio University
Priority to JP2018100265A priority Critical patent/JP7007649B2/en
Publication of JP2019204390A publication Critical patent/JP2019204390A/en
Application granted granted Critical
Publication of JP7007649B2 publication Critical patent/JP7007649B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラからのデータに基づいてオプティカルフローを推定するオプティカルフロー推定装置、オプティカルフロー推定方法、オプティカルフロー推定システム、及びオプティカルフロー推定プログラム、並びにそれらを用いたーレート推定装置、ヨーレート推定方法、ヨーレート推定システム、及びヨーレート推定プログラムに関する。 The present invention relates to an optical flow estimation device that estimates an optical flow based on data from a camera, an optical flow estimation method, an optical flow estimation system, and an optical flow estimation program, and a rate estimation device and a yaw rate estimation method using them. Regarding the yaw rate estimation system and the yaw rate estimation program.

車両の自動運転や運転支援をするシステムでは、車両前方の移動体の検知や自車両の進路推定を行う。このために、システムは、車載カメラの画像から、画素値の移動ベクトルであるオプティカルフローを推定する。車載カメラの画像における静止物体のオプティカルフローを推定することで自車両の進路推定が可能となり、移動物体のオプティカルフローを推定することで移動物体の自車両に対する相対的な移動ベクトルを推定できる。 In a system that automatically drives a vehicle and supports driving, it detects moving objects in front of the vehicle and estimates the course of the own vehicle. To this end, the system estimates an optical flow, which is a movement vector of pixel values, from an image of an in-vehicle camera. By estimating the optical flow of a stationary object in the image of the in-vehicle camera, it is possible to estimate the course of the own vehicle, and by estimating the optical flow of the moving object, it is possible to estimate the relative movement vector of the moving object with respect to the own vehicle.

しかしながら、特に、移動体や静止物体が相対的に速い速度で移動する場合や、車載カメラに入射する光量が足りない場合(例えば、暗闇で運転している場合)や、逆に車載カメラに入射する光量が大きすぎる場合(例えば、逆光で運転している場合)には、オプティカルフローを有効に算出できる画像が得られないことがある。 However, in particular, when a moving object or a stationary object moves at a relatively high speed, or when the amount of light incident on the in-vehicle camera is insufficient (for example, when driving in the dark), or conversely, it is incident on the in-vehicle camera. If the amount of light emitted is too large (for example, when driving against backlight), an image that can effectively calculate the optical flow may not be obtained.

上記の問題に鑑みて、車載カメラとして、イベントカメラを採用することが提案されている。従来のカメラが輝度をフレームで取得するのに対して、イベントカメラは、人間の知覚システムを模倣したカメラであり、輝度の変化のみを捉える。イベントカメラの出力は、輝度が所定の閾値以上に変化した場合の時刻、画素の位置、極性(輝度が小さくなったか大きくなったか)を表す非同期のデータ列である。 In view of the above problems, it has been proposed to adopt an event camera as an in-vehicle camera. While conventional cameras acquire brightness in frames, event cameras are cameras that imitate the human perception system and capture only changes in brightness. The output of the event camera is an asynchronous data string representing the time, the position of the pixel, and the polarity (whether the brightness is reduced or increased) when the brightness changes to a predetermined threshold value or more.

よって、イベントカメラの出力は、従来のカメラの出力と比較して、空間的に非常にスパース(疎)であり、データ量が非常に少ない。また、イベントカメラは、従来のカメラと比較して、時間解像度が非常に高く(例えば、マイクロミリ秒オーダ)、ダイナミックレンジが高いという特性がある。すなわち、イベントカメラは、従来のカメラと比較して、少データ量、高時間解像度、ハイダイナミックレンジ(HDR)という特性を有している。これらの特性は、瞬時ないしリアルタイムに画像処理をして移動体を検知する必要がある車載カメラにとって非常に重要である。 Therefore, the output of the event camera is spatially very sparse as compared with the output of the conventional camera, and the amount of data is very small. Further, the event camera has characteristics that the time resolution is very high (for example, in the order of micromilliseconds) and the dynamic range is high as compared with the conventional camera. That is, the event camera has the characteristics of a small amount of data, high time resolution, and high dynamic range (HDR) as compared with the conventional camera. These characteristics are very important for in-vehicle cameras that need to perform image processing in an instant or in real time to detect a moving object.

非特許文献1には、イベントカメラの出力(イベントデータ)からオプティカルフローを推定する方法が開示されている。非特許文献1の方法では、イベントデータに関するコスト関数を定義して、当該コスト関数を最適化することでオプティカルフローを推定する。 Non-Patent Document 1 discloses a method of estimating an optical flow from an output (event data) of an event camera. In the method of Non-Patent Document 1, an optical flow is estimated by defining a cost function related to event data and optimizing the cost function.

この方法では、ある一定の時間幅内のイベントデータのみから輝度とオプティカルフローを同時に推定する。コスト関数は、輝度とオプティカルフローに対してイベントカメラの仕組み、オプティカルフローと輝度との整合性、空間的及び時間的な滑らかさに関する項で構成されている。 In this method, the brightness and the optical flow are estimated at the same time only from the event data within a certain time width. The cost function consists of sections related to the mechanism of the event camera for brightness and optical flow, the consistency between optical flow and brightness, and the spatial and temporal smoothness.

非特許文献1の方法によって、移動体の動きが速く、かつ、ダイナミックレンジが高いシーンにおいても、瞬時ないしリアルタイムに、輝度の復元及びオプティカルフローの推定が可能となる。 The method of Non-Patent Document 1 makes it possible to restore brightness and estimate optical flow in an instant or in real time even in a scene where a moving body moves quickly and has a high dynamic range.

P. Bardow, A. J. Davison, and S. Leutenegger. Simultaneous Optical Flow and Intensity Estimation From an Event Camera. The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 884-892, 2016.P. Bardow, A. J. Davison, and S. Leutenegger. Simultaneous Optical Flow and Intensity Optimization From an Event Camera. The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 884-892, 2016.

しかしながら、非特許文献1の方法では、スパースなイベントデータから輝度を復元し、その輝度を用いてオプティカルフローを計算するため、正確なオプティカルフローを得ることは難しく、ノイズも多くなる。輝度は主にイベントが発生した個所において復元され、他の個所は滑らかにすることによって復元されることから、オプティカルフローは正確に正しい方向を向いていないことが多く、より正しい向きを示すオプティカルフローを得るためには改善の余地がある。 However, in the method of Non-Patent Document 1, since the brightness is restored from the sparse event data and the optical flow is calculated using the brightness, it is difficult to obtain an accurate optical flow and noise increases. Since the brightness is restored mainly at the place where the event occurred and the other parts are restored by smoothing, the optical flow often does not point in the correct direction, and the optical flow shows the correct direction. There is room for improvement in order to obtain.

本発明は、移動体に固定されたカメラで得られたデータに基づくオプティカルフローの推定の精度を向上すること目的とする。 An object of the present invention is to improve the accuracy of optical flow estimation based on data obtained by a camera fixed to a moving body.

本発明の一態様は、移動体に固定されたカメラからのデータに基づいてオプティカルフローを推定するオプティカルフロー推定装置であって、このオプティカルフロー推定装置は、前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部と、初期推定された前記オプティカルフローに基づいて回転パラメータを推定する回転パラメータ推定部と、初期推定された前記回転パラメータに基づいて、初期推定された前記オプティカルフローをFOEに従うように修正することにより、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部とを備えた構成を有している。 One aspect of the present invention is an optical flow estimation device that estimates an optical flow based on data from a camera fixed to a moving body, and this optical flow estimation device is an initial estimation of the optical flow based on the data. The optical flow initial estimation unit that performs the initial estimation, the rotation parameter estimation unit that estimates the rotation parameter based on the initially estimated optical flow, and the FOE of the initially estimated optical flow based on the initially estimated rotation parameter. It has a configuration including an optical flow regularization unit that regularizes the initially estimated optical flow by modifying it so as to comply with.

この構成により、従来の方法によって初期推定されたオプティカルフローがFOEに従うように正則化されるので、オプティカルフロー推定の精度を向上できる。 With this configuration, the optical flow initially estimated by the conventional method is regularized so as to follow the FOE, so that the accuracy of the optical flow estimation can be improved.

上記のオプティカルフロー推定装置において、前記オプティカルフロー正則化部は、初期推定された前記オプティカルフローから前記回転パラメータの回転成分を除いたオプティカルフローとFOEから放射状に延びるオプティカルフローとに基づいて前記修正を行ってよい。 In the above-mentioned optical flow estimation device, the optical flow regularization unit makes the above modification based on the optical flow obtained by removing the rotation component of the rotation parameter from the initially estimated optical flow and the optical flow extending radially from the FOE. You may go.

上記のオプティカルフロー推定装置において、前記オプティカルフロー正則化部は、初期推定された前記オプティカルフローから前記回転パラメータの回転成分を除いたオプティカルフローとFOEから放射状に延びるオプティカルフローとに基づいて第2のオプティカルフローを求めることにより前記修正を行い、さらに前記第2のオプティカルフローに前記回転成分を戻してよい。 In the above-mentioned optical flow estimation device, the optical flow regularization unit is based on the optical flow obtained by removing the rotation component of the rotation parameter from the initially estimated optical flow and the optical flow extending radially from the FOE. The modification may be performed by obtaining the optical flow, and the rotational component may be further returned to the second optical flow.

上記のオプティカルフロー推定装置において、前記カメラはイベントカメラであってよく、前記データはイベントデータであってよい。 In the above optical flow estimation device, the camera may be an event camera, and the data may be event data.

上記のオプティカルフロー推定装置において、前記回転パラメータ推定部は、初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定してよい。 In the above-mentioned optical flow estimation device, the rotation parameter estimation unit may estimate the yaw rate as a rotation parameter by setting the pitch rate and the roll rate to 0 based on the initially estimated optical flow.

上記のオプティカルフロー推定装置において、前記オプティカルフロー正則化部は、オプティカルフローの向きをFOEに従って修正してよい。 In the above-mentioned optical flow estimation device, the optical flow regularization unit may correct the direction of the optical flow according to the FOE.

従来の方法によるオプティカルフローの初期推定では、向きについて誤差が生じやすいところ、この構成によれば、FOEに従ってオプティカルフローの向きが修正されるので、オプティカルフロー推定の精度を向上できる。 In the initial estimation of the optical flow by the conventional method, an error is likely to occur in the direction. However, according to this configuration, the direction of the optical flow is corrected according to the FOE, so that the accuracy of the optical flow estimation can be improved.

上記のオプティカルフロー推定装置において、前記回転パラメータ推定部は、前記カメラの視野の上部分のイベントデータを用いて前記回転パラメータを推定してよい。 In the above optical flow estimation device, the rotation parameter estimation unit may estimate the rotation parameter using event data in the upper part of the field of view of the camera.

この構成により、ヨーレートの変化が大きい上部分を用いてヨーレートが推定されるので、ヨーレートの推定の精度を向上できる。 With this configuration, the yaw rate is estimated using the upper portion where the change in yaw rate is large, so that the accuracy of yaw rate estimation can be improved.

上記のオプティカルフロー推定装置において、前記回転パラメータ推定部は、ヨーレートに車両の運動モデルを適用して前記回転パラメータを推定してよい。 In the above optical flow estimation device, the rotation parameter estimation unit may estimate the rotation parameter by applying a vehicle motion model to the yaw rate.

この構成により、車両としてあり得ないヨーレートの変化等を排除することができ、ヨーレートの推定精度を向上できる。 With this configuration, it is possible to eliminate changes in the yaw rate that are impossible for the vehicle, and it is possible to improve the estimation accuracy of the yaw rate.

上記のオプティカルフロー推定装置において、前記回転パラメータ推定部は、ヨーレートをカルマンフィルタ又はパーティクルフィルタにかけることで前記運動モデルを適用してよい。 In the above optical flow estimation device, the rotation parameter estimation unit may apply the motion model by applying a yaw rate to a Kalman filter or a particle filter.

本発明の他の態様は、移動体に固定されたカメラからのデータに基づいてオプティカルフローを推定するオプティカルフロー推定方法であって、このオプティカルフロー推定方法は、前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定ステップと、初期推定された前記オプティカルフローに基づいて回転パラメータを推定する回転パラメータ推定ステップと、初期推定された前記回転パラメータに基づいて、初期推定された前記オプティカルフローをFOEに従うように修正することにより、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化ステップとを備えた構成を有している。 Another aspect of the present invention is an optical flow estimation method that estimates an optical flow based on data from a camera fixed to a moving body, and this optical flow estimation method is an initial stage of optical flow based on the data. An optical flow initial estimation step for estimation, a rotation parameter estimation step for estimating a rotation parameter based on the initially estimated optical flow, and an initially estimated optical flow based on the initially estimated rotation parameter. It has a configuration including an optical flow regularization step that normalizes the initially estimated optical flow by modifying it to comply with the FOE.

本発明のさらに他の態様は、オプティカルフロー推定システムであって、移動体に固定され、データを出力するカメラと、前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部と、初期推定された前記オプティカルフローに基づいて回転パラメータを推定する回転パラメータ推定部と、初期推定された前記回転パラメータに基づいて、初期推定された前記オプティカルフローをFOEに従うように修正することにより、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部とを備えた構成を有している。 Yet another aspect of the present invention is an optical flow estimation system, which is a camera fixed to a moving body and outputs data, an optical flow initial estimation unit that performs initial estimation of optical flow based on the data, and an initial stage. Initial estimation by a rotation parameter estimation unit that estimates rotation parameters based on the estimated optical flow, and by modifying the initially estimated optical flow to follow FOE based on the initially estimated rotation parameters. It has a configuration including an optical flow regularization unit for regularizing the optical flow.

本発明のさらに他の態様は、移動体に固定されたカメラからのデータが入力される装置にて実行されるオプティカルフロー推定プログラムであって、オプティカルフロー推定プログラムは、前記装置を、前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部、初期推定された前記オプティカルフローに基づいて回転パラメータを推定する回転パラメータ推定部、及び初期推定された前記回転パラメータに基づいて、初期推定された前記オプティカルフローをFOEに従うように修正することにより、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部として機能させる構成を有している。 Yet another aspect of the present invention is an optical flow estimation program executed by an apparatus in which data from a camera fixed to a moving body is input, wherein the optical flow estimation program converts the apparatus into the data. An optical flow initial estimation unit that performs initial estimation of optical flow based on the above, a rotation parameter estimation unit that estimates rotation parameters based on the initially estimated optical flow, and an initial estimation based on the initially estimated rotation parameters. By modifying the optical flow so as to comply with the FOE, it has a configuration that functions as an optical flow regularization unit that regularizes the initially estimated optical flow.

本発明のさらに他の態様は、移動体に固定されたカメラからのデータに基づいて前記車両のヨーレートを推定するヨーレート推定装置であって、このヨーレート推定装置は、前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部と、初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する回転パラメータ推定部と、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部とを備えた構成を有している。 Yet another aspect of the present invention is a yaw rate estimation device that estimates the yaw rate of the vehicle based on data from a camera fixed to a moving body, and the yaw rate estimation device is an optical flow based on the data. Initial estimation is performed by an optical flow initial estimation unit that performs initial estimation, and a rotation parameter estimation unit that estimates yaw rate as a rotation parameter by setting the pitch rate and roll rate to 0 based on the initially estimated optical flow. It has a configuration including an optical flow regularization unit for regularizing the optical flow.

本発明のさらに他の態様は、移動体に固定されたカメラからのデータに基づいて前記車両のヨーレートを推定するヨーレート推定方法であって、このヨーレート推定方法は、前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定ステップと、初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する回転パラメータ推定ステップと、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化ステップとを含む構成を有している。 Yet another aspect of the present invention is a yaw rate estimation method for estimating the yaw rate of the vehicle based on data from a camera fixed to a moving body, and the yaw rate estimation method is based on the data for optical flow. Initial estimation is performed with an optical flow initial estimation step for initial estimation, and a rotation parameter estimation step for estimating yaw rate as a rotation parameter by setting the pitch rate and roll rate to 0 based on the initially estimated optical flow. It has a configuration including an optical flow regularization step for regularizing the optical flow.

本発明のさらに他の態様は、ヨーレート推定システムであって、このヨーレート推定システムは、移動体に固定され、データを出力するカメラと、前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部と、初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する回転パラメータ推定部と、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部とを備えた構成を有している。 Yet another aspect of the present invention is a yaw rate estimation system, which is a camera fixed to a moving body and outputs data, and an initial optical flow estimation based on the data. By setting the pitch rate and roll rate to 0 based on the estimation unit and the initially estimated optical flow, the rotation parameter estimation unit that estimates the yaw rate as a rotation parameter and the initially estimated optical flow are normalized. It has a configuration including an optical flow regularization unit.

本発明のさらに他の態様は、移動体に固定されたカメラからのデータが入力される装置にて実行されるヨーレート推定プログラムであって、このヨーレート推定プログラムは、前記装置を、前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部、初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する回転パラメータ推定部、及び初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部として機能させる構成を有している。 Yet another aspect of the present invention is a yaw rate estimation program executed by a device in which data from a camera fixed to a moving body is input, and the yaw rate estimation program uses the device based on the data. An optical flow initial estimation unit that estimates the initial estimation of the optical flow, a rotation parameter estimation unit that estimates the yaw rate as a rotation parameter by setting the pitch rate and roll rate to 0 based on the initially estimated optical flow, and a rotation parameter estimation unit. It has a configuration that functions as an optical flow regularization unit that regularizes the initially estimated optical flow.

本発明によれば、従来の方法によって初期推定されたオプティカルフローがFOEに従うように正則化されるので、オプティカルフロー推定の精度を向上できる。 According to the present invention, since the optical flow initially estimated by the conventional method is regularized so as to follow the FOE, the accuracy of the optical flow estimation can be improved.

図1は、本発明の実施の形態のオプティカルフロー推定システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of an optical flow estimation system according to an embodiment of the present invention. 図2は、タイムウィンドウを示す図である。FIG. 2 is a diagram showing a time window. 図3は、コスト関数を項ごとに図解した図である。FIG. 3 is a diagram illustrating the cost function for each term. 図4は、FOEの定義を説明する図である。FIG. 4 is a diagram illustrating the definition of FOE. 図5は、車載カメラの運動モデルを示す図である。FIG. 5 is a diagram showing a motion model of an in-vehicle camera. 図6は、FOEの性質を説明する図である。FIG. 6 is a diagram illustrating the properties of FOE. 図7は、視野内においてイベントが発生した個所の例を示す図である。FIG. 7 is a diagram showing an example of a location where an event occurs in the field of view. 図8は、回転運動と並進運動を説明する図である。FIG. 8 is a diagram illustrating rotational motion and translational motion. 図9は、FOEによる正則化を説明する図である。FIG. 9 is a diagram illustrating regularization by FOE. 図10は、本発明の実施の形態のオプティカルフロー推定方法のフローチャートである。FIG. 10 is a flowchart of the optical flow estimation method according to the embodiment of the present invention.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiments described below show an example of the case where the present invention is carried out, and the present invention is not limited to the specific configuration described below. In carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted.

本実施の形態のオプティカルフロー推定システムは、イベントカメラで得られたイベントデータに基づいてオプティカルフローを推定するにあたって、イベントデータに基づくオプティカルフロー推定の不完全さを補うために、車載カメラの運動の特徴と、FOE(Focus Of Expansion:拡張焦点)の性質を利用した新規な正則化を行う。従来の方法では、イベントデータから一様な方向を向くオプティカルフローや明らかに誤った方向を向いているオプティカルフローが推定され得るが、本実施の形態のオプティカルフロー推定システムは、オプティカルフローからカメラの回転パラメータを推定し、オプティカルフローの回転成分を考慮してFOEの性質を利用した正則化を行うことで、正しい向きを持つオプティカルフローを推定する。 In the optical flow estimation system of the present embodiment, in estimating the optical flow based on the event data obtained by the event camera, in order to compensate for the incompleteness of the optical flow estimation based on the event data, the motion of the in-vehicle camera A new regularization is performed using the characteristics and the properties of FOE (Focus Of Expansion). In the conventional method, an optical flow pointing in a uniform direction or an optical flow pointing in a clearly wrong direction can be estimated from the event data, but the optical flow estimation system of the present embodiment can estimate the optical flow of the camera from the optical flow. By estimating the rotation parameter and performing regularization using the properties of FOE in consideration of the rotation component of the optical flow, the optical flow having the correct direction is estimated.

図1は、本発明の実施の形態のオプティカルフロー推定システムの構成を示す図である。オプティカルフロー推定システム100は、イベントカメラ10と、オプティカルフロー推定装置20とを備えている。オプティカルフロー推定装置20は、オプティカルフローを正則化するために回転パラメータであるヨーレートを推定するので、ヨーレート推定装置としても機能し、オプティカルフロー推定システム100はヨーレート推定システムとしても機能する。 FIG. 1 is a diagram showing a configuration of an optical flow estimation system according to an embodiment of the present invention. The optical flow estimation system 100 includes an event camera 10 and an optical flow estimation device 20. Since the optical flow estimation device 20 estimates the yaw rate, which is a rotation parameter, in order to regularize the optical flow, the optical flow estimation device 20 also functions as a yaw rate estimation device, and the optical flow estimation system 100 also functions as a yaw rate estimation system.

イベントカメラ10は、その光軸が車両の進行方向に向くように、車両に固定される車載カメラである。イベントカメラ10は、矩形の視野内に車両の直前の路面から遠方の風景までが含まれるように、車両に固定される。なお、車両の直前の路面(車両の前方部分を含んでもよい)は視野の下部分で捉えられ、遠方の物体や高い物体は視野の上部分で捉えられる。 The event camera 10 is an in-vehicle camera fixed to the vehicle so that its optical axis faces the traveling direction of the vehicle. The event camera 10 is fixed to the vehicle so that the rectangular field of view includes the road surface in front of the vehicle and the landscape in the distance. The road surface immediately in front of the vehicle (which may include the front portion of the vehicle) is captured in the lower part of the field of view, and distant objects and tall objects are captured in the upper part of the field of view.

イベントカメラ10は、二次元配列された画素ごとに輝度の変化を検知する。すなわち、イベントカメラ10は、生体から発想を得たカメラであって、標準的なフレームベースのカメラとは全く異なるカメラである。フレームベースのカメラでは、ある一定の時間間隔(例えば、約30m秒間隔)で全画素の輝度値をフレーム画像として出力する。 The event camera 10 detects a change in brightness for each pixel arranged two-dimensionally. That is, the event camera 10 is a camera inspired by a living body and is completely different from a standard frame-based camera. A frame-based camera outputs the luminance values of all pixels as a frame image at a fixed time interval (for example, at intervals of about 30 ms).

これに対して、イベントカメラ10は、フレームという概念を持たず、輝度値が所定の閾値以上に変化したときに、その変化した時刻のタイムスタンプ、変化した画素の位置、変化の極性(正負のいずれに変化したか)の情報を出力する。すなわち、イベントカメラ10の出力は、非同期のデータ列である。 On the other hand, the event camera 10 does not have the concept of a frame, and when the luminance value changes to a predetermined threshold value or more, the time stamp of the changed time, the position of the changed pixel, and the polarity of the change (positive or negative). The information of (which changed) is output. That is, the output of the event camera 10 is an asynchronous data string.

イベントカメラ10のタイムスタンプはマイクロ秒のオーダであり、検出可能なイベントの最小時間間隔は12μs程度である。このように、イベントカメラ10は、時間解像度が極めて高いという特性を有している。また、イベントカメラ10では、変化がない時刻及び変化がない画素についてはイベントを発生しないので、イベントデータには冗長なデータがなく、イベントデータのデータ量は小さく抑えられる。 The time stamp of the event camera 10 is on the order of microseconds, and the minimum time interval of detectable events is about 12 μs. As described above, the event camera 10 has a characteristic that the time resolution is extremely high. Further, in the event camera 10, since the event is not generated for the time when there is no change and the pixel where there is no change, there is no redundant data in the event data, and the data amount of the event data can be suppressed to a small size.

さらに、イベントカメラ10は、logのオーダで輝度の変化を捉えるため、ダイナミックレンジが非常に大きいという特性を有する。標準的なフレームベースのカメラのダイナミックレンジが50dB程度であるのに対して、イベントカメラのダイナミックレンジは120dB程度である。 Further, the event camera 10 has a characteristic that the dynamic range is very large because it captures the change in brightness on the order of log. The dynamic range of a standard frame-based camera is about 50 dB, while the dynamic range of an event camera is about 120 dB.

このように、イベントカメラ10は、標準的なフレームベースのカメラと比較して、時間解像度が高く、データ量が少なく、ダイナミックレンジが大きいという特性を有している。これらの特性は、車載カメラとして用いられる場合に極めて有効である。しかしながら、イベントカメラ10の出力は、フレームベースのカメラとは出力の形が大きく異なっているため、イベントカメラ10の出力を従来のコンピュータビジョンのアルゴリズムをそのまま適用することはできない。本実施の形態では、イベントカメラの出力からオプティカルフローを推定するが、この場合にもフレームベースのカメラの出力からオプティカルフローを推定する場合とは異なった工夫が必要である。 As described above, the event camera 10 has the characteristics that the time resolution is high, the amount of data is small, and the dynamic range is large as compared with the standard frame-based camera. These characteristics are extremely effective when used as an in-vehicle camera. However, since the output of the event camera 10 is significantly different from that of the frame-based camera, the output of the event camera 10 cannot be directly applied to the conventional computer vision algorithm. In the present embodiment, the optical flow is estimated from the output of the event camera, but in this case as well, a device different from the case of estimating the optical flow from the output of the frame-based camera is required.

オプティカルフロー推定装置20は、オプティカルフロー初期推定部21と、回転パラメータ推定部22と、オプティカルフロー正則化部23とを備えている。これらの各構成要素は、1つまたは複数のプロセッサが本実施の形態のオプティカルフロー推定プログラムを実行することで実現される。このために、オプティカルフロー推定装置20は、情報処理装置として、1つまたは複数のプロセッサを備える。オプティカルフロー推定プログラムは、オプティカルフロー推定装置20の記憶装置に記憶され、プロセッサによって読み出されて実行されてもよいし、可搬型の記憶媒体に記憶されてプロセッサによって読み出されて実行されてもよい。 The optical flow estimation device 20 includes an optical flow initial estimation unit 21, a rotation parameter estimation unit 22, and an optical flow regularization unit 23. Each of these components is realized by one or more processors executing the optical flow estimation program of the present embodiment. For this purpose, the optical flow estimation device 20 includes one or a plurality of processors as an information processing device. The optical flow estimation program may be stored in the storage device of the optical flow estimation device 20 and read and executed by the processor, or may be stored in a portable storage medium and read and executed by the processor. good.

オプティカルフロー初期推定部21は、非特許文献1の方法に従って、イベントカメラ10の出力に基づいてオプティカルフローを推定する。ここでのオプティカルフローの推定は初期推定であって、後述するように、最終的にはオプティカルフロー正則化部23による正則化によってオプティカルフローが推定される。 The optical flow initial estimation unit 21 estimates the optical flow based on the output of the event camera 10 according to the method of Non-Patent Document 1. The estimation of the optical flow here is an initial estimation, and as will be described later, the optical flow is finally estimated by the regularization by the optical flow regularization unit 23.

オプティカルフロー初期推定部21は、所定の時間幅のタイムウィンドウを定義して、タイムウィンドウ内で、輝度とオプティカルフローとイベントとの関係について設計されたコスト関数を最適化することで、イベントデータのみから輝度とオプティカルフローとを同時に推定する。 The optical flow initial estimation unit 21 defines a time window having a predetermined time width, and optimizes a cost function designed for the relationship between brightness, optical flow, and events in the time window, so that only event data can be obtained. Luminance and optical flow are estimated at the same time from.

この方法により、イベントカメラが車両に搭載される場合のような、イベントカメラと対象物の両方が動いている複雑な環境において、リアルタイムでオプティカルフローを推定することができる。 By this method, it is possible to estimate the optical flow in real time in a complicated environment in which both the event camera and the object are moving, such as when the event camera is mounted on a vehicle.

図2は、本発明の実施の形態のタイムウィンドウを示す図である。タイムウィンドウの空間的なサイズをIとし、全時間幅をTとし、全時間幅Tを、δの幅をもつK個のセルに分ける。コスト関数は式(1)のように定義される。

Figure 0007007649000001
FIG. 2 is a diagram showing a time window according to an embodiment of the present invention. Let I be the spatial size of the time window, let T be the total time width, and divide the total time width T into K cells with a width of δ t . The cost function is defined as in equation (1).
Figure 0007007649000001

ここで、Lは輝度であり、uはオプティカルフローであり、添え字xは空間微分を表しており、添え字tは時間微分を表している。また、tは前回イベントが発生した時刻であり、φ(x)は位置xでのタイムウィンドウ内のイベントの数であり、iは各イベントのインデクスを表している。さらに、θはイベントカメラ10でイベントを発生させるための輝度変化の閾値であり、ρはインデクスiのイベントの極性を表している。 Here, L is the luminance, u is the optical flow, the subscript x represents the spatial derivative, and the subscript t represents the time derivative. Further, t p is the time when the previous event occurred, φ (x) is the number of events in the time window at the position x, and i represents the index of each event. Further, θ is the threshold value of the luminance change for generating an event in the event camera 10, and ρ i represents the polarity of the event of the index i.

第5項の関数hθは、式(2)で定義される。

Figure 0007007649000002
第5項以外の項はすべてL1ノルムが使用されており、エッジを保存して最適化を行うことができる。 The function h θ of the fifth term is defined by the equation (2).
Figure 0007007649000002
The L1 norm is used for all terms other than the fifth term, and the edges can be preserved for optimization.

図3は、本発明の実施の形態のコスト関数を項ごとに図解した図である。図3に示すように、第1項は、オプティカルフローの空間微分のL1ノルムであり、微分が大きい箇所(即ち、変化が激しい箇所)のコストが大きくなる。したがって、第1項は、推定したオプティカルフローの空間的な滑らかさを評価する項である。 FIG. 3 is a diagram illustrating the cost function of the embodiment of the present invention for each term. As shown in FIG. 3, the first term is the L1 norm of the spatial derivative of the optical flow, and the cost of the place where the derivative is large (that is, the place where the change is drastic) increases. Therefore, the first term is a term for evaluating the spatial smoothness of the estimated optical flow.

第2項は、オプティカルフローの時間微分のL1ノルムであり、微分が大きい時刻(即ち、変化が激しい時刻)のコストが大きくなる。したがって、第2項は、推定したオプティカルフローの時間的な滑らかさを評価する項である。第3項は、画像の空間微分のL1ノルムであり、推定した輝度画像の空間的な滑らかさを評価する項である。 The second term is the L1 norm of the time derivative of the optical flow, and the cost at the time when the derivative is large (that is, the time when the change is drastic) becomes large. Therefore, the second term is a term for evaluating the temporal smoothness of the estimated optical flow. The third term is the L1 norm of the spatial derivative of the image, and is a term for evaluating the spatial smoothness of the estimated luminance image.

第4項について説明する前に、オプティカルフローの定義を説明する。オプティカルフローは、フレーム間の画素の移動ベクトルとして定義される。いま、時刻tにおける位置(x,y)の輝度値をI(x,y,t)とし、その画素がΔtという微小時間経過した後にΔx,Δyだけ移動するとする。このとき、移動する前と移動した後とでは輝度値が同じになることから、下式(3)の定義式が得られる。

Figure 0007007649000003
Before explaining the fourth item, the definition of optical flow will be described. Optical flow is defined as a pixel movement vector between frames. Now, let the luminance value at the position (x, y) at time t be I (x, y, t), and assume that the pixel moves by Δx, Δy after a minute time of Δt has elapsed. At this time, since the luminance value is the same before and after the movement, the definition formula of the following formula (3) can be obtained.
Figure 0007007649000003

この式(3)の左辺をテイラー展開して、2次以降の項を切り捨てると、下式(4)が得られる。

Figure 0007007649000004
By Taylor-expanding the left side of this equation (3) and truncating the terms after the second order, the following equation (4) is obtained.
Figure 0007007649000004

式(4)が成り立つためには、右辺の第2項以降が0になる必要がある。よって、下式(5)のオプティカルフローの拘束式が得られる。なお、このとき、両辺をΔtで割っている。

Figure 0007007649000005
In order for equation (4) to hold, the second and subsequent terms on the right side must be zero. Therefore, the constraint equation of the optical flow of the following equation (5) can be obtained. At this time, both sides are divided by Δt.
Figure 0007007649000005

また、画素の単位時間あたりの移動量がオプティカルフローになることから、u=Δx/Δt、v=Δy/Δtとおき、I=∂I/∂x、I=∂I/∂y、∂I/∂t=Iとおくと、拘束式は下式(6)のように表される。

Figure 0007007649000006
In addition, since the amount of movement of the pixel per unit time is an optical flow, u = Δx / Δt, v = Δy / Δt, and I x = ∂I / ∂x, I y = ∂I / ∂y, If ∂I / ∂t = It, the constraint equation is expressed as the following equation (6).
Figure 0007007649000006

また、u=(u,v)、I=(I,I)として、内積の形で表すと、拘束式は下式(7)となり、式(1)のコスト関数の第4項の表記と同様になる。

Figure 0007007649000007
Further, when expressed in the form of an inner product with u = (u, v) and I x = (I x , I y ), the constraint equation becomes the following equation (7), and the fourth term of the cost function of the equation (1). It becomes the same as the notation of.
Figure 0007007649000007

第4項は、式(7)の左辺のL1ノルムとなっており、輝度とオプティカルフローが整合していれば0に近づく。よって、この第4項は、輝度とオプティカルフローとの整合性を評価する項である。 The fourth term is the L1 norm on the left side of the equation (7), and approaches 0 if the luminance and the optical flow match. Therefore, this fourth term is a term for evaluating the consistency between the luminance and the optical flow.

第5項及び第6項は、イベントカメラに関するデータ項である。イベントが発生する仕組みに基づいて、タイムウィンドウ内のイベントがあった箇所の輝度値の整合性とイベントがない箇所の輝度の不変性という2つ性質に関して、以下に説明するようにコストを設計することで、輝度画像が再構成される。 The fifth and sixth terms are data terms relating to the event camera. Based on the mechanism by which the event occurs, the cost is designed as described below with respect to the two properties of the consistency of the brightness value at the location where the event occurred and the invariance of the brightness at the location where the event does not occur in the time window. As a result, the luminance image is reconstructed.

第5項は、輝度値にθ以上の変化があったときに、その超えた分をコストとし、輝度値にθ以上の変化がなかったときに、コストを0とする項である。すなわち、イベントが発生した場合には、輝度値にθ以上の変化があったときであり、同じ画素でイベントが発生した場合には、前のイベントが発生したときの輝度値からθを超えて離れている分がこの第5項のコストとなる。前にイベントが変化してから次にイベントが発生するまでは閾値θ以上の変化はないので、この間は第5項は0となり何もコストに加えられない。 The fifth term is a term in which when there is a change of θ or more in the luminance value, the excess is taken as the cost, and when there is no change of θ or more in the luminance value, the cost is set to 0. That is, when an event occurs, it is when there is a change of θ or more in the luminance value, and when an event occurs in the same pixel, it exceeds θ from the luminance value when the previous event occurred. The distance is the cost of this fifth item. Since there is no change of the threshold value θ or more from the change of the previous event to the next occurrence of the event, the fifth term becomes 0 during this period and nothing is added to the cost.

オプティカルフロー初期推定部21は、このコスト関数(式(1))をタイムウィンドウ内で最適化することで、輝度とオプティカルフローを推定する。オプティカルフロー初期推定部21は、1フレーム分の最適化を終えると、タイムウィンドウを1セル分スライドさせて、タイムウィンドウをオーバーラップさせながら最適化を行うことで、輝度とオプティカルフローを推定していく。 The optical flow initial estimation unit 21 estimates the luminance and the optical flow by optimizing this cost function (Equation (1)) in the time window. After the optimization for one frame is completed, the optical flow initial estimation unit 21 slides the time window by one cell and performs optimization while overlapping the time windows to estimate the brightness and the optical flow. go.

回転パラメータ推定部22及びオプティカルフロー正則化部23の説明に先立って、FOEの概念と、車載カメラとしてのイベントカメラ10のFOEの特性を利用した運動解析とを説明する。 Prior to the explanation of the rotation parameter estimation unit 22 and the optical flow regularization unit 23, the concept of FOE and the motion analysis using the FOE characteristics of the event camera 10 as an in-vehicle camera will be described.

図4は、FOEの定義を説明する図である。一般に、カメラが並進運動のみを行う場合には、図4に示すように、FOEは、カメラの微小時間における移動ベクトルの向きの並進軸と画像平面との交点と定義される。 FIG. 4 is a diagram illustrating the definition of FOE. Generally, when the camera performs only translational motion, FOE is defined as the intersection of the translational axis of the direction of the movement vector and the image plane in a minute time of the camera, as shown in FIG.

ここで、図4の大文字のX,Y,Zはカメラ座標系、小文字のx,yは画像座標系を表している。FOEの画像座標系における位置を(x,y)とし、並進ベクトルをTとすると、単純にカメラ座標系と画像座標系の関係から焦点距離fを使って下式(8)を導くことができる。

Figure 0007007649000008
Here, the uppercase letters X, Y, and Z in FIG. 4 represent the camera coordinate system, and the lowercase letters x, y represent the image coordinate system. Assuming that the position of the FOE in the image coordinate system is (x 0 , y 0 ) and the translation vector is T, the following equation (8) is simply derived from the relationship between the camera coordinate system and the image coordinate system using the focal length f. Can be done.
Figure 0007007649000008

よって、この式(8)から、FOEの座標は下式(9)で表される。

Figure 0007007649000009
Therefore, from this equation (8), the coordinates of the FOE are expressed by the following equation (9).
Figure 0007007649000009

車載カメラとしてのイベントカメラ10には、イベントカメラ10が車両に固定されているという特徴と、横方向の並進運動成分が進行方向の並進運動成分に比べて非常に小さい、即ち、T<<T、T<<Tであるという特徴がある。したがって、車載カメラとしてのイベントカメラ10には、FOEが一定であり、その位置がほぼ視野の中心になるという性質がある。イベントカメラ10の光軸と車の進行方向とが完全に一致していればFOEは視野の中心になるが、ずれていれば進行方向以外の並進運動が生じるため、FOEは視野の中心ではなくなる。 The event camera 10 as an in-vehicle camera has a feature that the event camera 10 is fixed to the vehicle, and the translational motion component in the lateral direction is very small as compared with the translational motion component in the traveling direction, that is, T x << It is characterized by T z and T y << T z . Therefore, the event camera 10 as an in-vehicle camera has a property that the FOE is constant and the position thereof is substantially the center of the field of view. If the optical axis of the event camera 10 and the traveling direction of the vehicle are completely aligned, the FOE will be the center of the field of view, but if it is deviated, translational motion other than the traveling direction will occur, so the FOE will not be the center of the field of view. ..

このイベントカメラ10が車載カメラであることによるFOEの特性を用いることで、オプティカルフローの推定、イベントカメラ10の回転パラメータの推定を容易に行うことができる。 By using the characteristics of FOE due to the fact that the event camera 10 is an in-vehicle camera, it is possible to easily estimate the optical flow and the rotation parameter of the event camera 10.

図5は、車載カメラの運動モデルを示す図である。図5に示すように、イベントカメラ10が並進運動T=(T,T,T、回転運動Ω=(Ω,Ω,Ωで表される運動をしたときのカメラ座標系における点P(X,Y,Z)から点P´(Xn+1,Yn+1,Zn+1)への移動を考える。 FIG. 5 is a diagram showing a motion model of an in-vehicle camera. As shown in FIG. 5, when the event camera 10 makes a translational motion T = (T x , T y , T z ) T and a rotational motion Ω = (Ω x , Ω y , Ω z ) T. Consider the movement from the point P (X n , Y n , Z n ) in the camera coordinate system of to the point P'(X n + 1 , Y n + 1 , Z n + 1 ).

このとき、点Pのイベントカメラ10に対する相対移動ベクトルはT´=-T、Ω´=-Ωとなることから、点Pと点P´との関係は、下式(10)で表現される。

Figure 0007007649000010
At this time, since the relative movement vectors of the point P with respect to the event camera 10 are T'=-T and Ω'=-Ω, the relationship between the point P and the point P'is expressed by the following equation (10). ..
Figure 0007007649000010

このとき、Rは点Pの相対回転行列であり、回転角が小さい場合には、正弦及び余弦のテイラー展開の2次以上の項を省略できるため、各軸の回転パラメータを用いて下式(11)のように表される。

Figure 0007007649000011
At this time, R is a relative rotation matrix of the point P, and when the rotation angle is small, the second-order or higher term of the Taylor expansion of the sine and cosine can be omitted. It is expressed as 11).
Figure 0007007649000011

式(11)を式(10)に代入すると、下式(12)が導かれる。

Figure 0007007649000012
Substituting equation (11) into equation (10) leads to equation (12) below.
Figure 0007007649000012

各方向の変化量は下式(13)で表される。

Figure 0007007649000013
The amount of change in each direction is expressed by the following equation (13).
Figure 0007007649000013

次に、点Pから点P´に移動する場合の画像上の点p(x,y)から点p´(xn+1,yn+1)への移動を考える。画像上の点p(x,y)は投影変換式から、カメラ座標系の点P(X,Y,Z)を用いて下式(14)で表現される。

Figure 0007007649000014
Next, consider the movement from the point p (x n , y n ) on the image to the point p'(x n + 1 , y n + 1 ) when moving from the point P to the point P'. The point p (x n , y n ) on the image is expressed by the following equation (14) from the projection transformation equation using the point P (X n , Y n , Zn ) in the camera coordinate system.
Figure 0007007649000014

画面上の点pの移動速度をv=(v,v)とすると、式(14)を微分することで下式(15)が導かれる。

Figure 0007007649000015
Assuming that the moving speed of the point p on the screen is v = (v x , vy ), the following equation (15) is derived by differentiating the equation (14).
Figure 0007007649000015

ここで、サンプリング間隔が十分に小さい場合は、フレーム間の画像上の対応点の関係は下式(16)のようになる。

Figure 0007007649000016
Here, when the sampling interval is sufficiently small, the relationship between the corresponding points on the image between the frames is as shown in the following equation (16).
Figure 0007007649000016

式(16)に自車両の運動を考慮した式(13)とFOEを定義した式(9)を代入し、T/Z≠0を仮定して整理することで、下式(17)が得られる。

Figure 0007007649000017
By substituting the equation (13) considering the motion of the own vehicle and the equation (9) defining the FOE into the equation (16) and arranging them assuming TZ / Z n ≠ 0, the following equation (17) is used. Is obtained.
Figure 0007007649000017

この式(17)は、FOEの座標と、対応点の座標と、回転パラメータの3つの要素で構成されている。すなわち、FOEをあらかじめ求めておき、対応点を見つけることで回転パラメータを推定することができる。 This equation (17) is composed of three elements: the coordinates of the FOE, the coordinates of the corresponding points, and the rotation parameter. That is, the rotation parameter can be estimated by obtaining the FOE in advance and finding the corresponding point.

本実施の形態の回転パラメータ推定部22は、さらに、得られたヨーレートに車両の運動モデルを適用することで最終的なヨーレートを推定する。本実施の形態で得られるイベントデータは、車載のイベントカメラ10によって得られるものであるので、極端にヨー角が変化することはないと想定できる。よって、そのような極端なヨー角の変化を排除するように、フィルタリングを行うことで、推定するヨーレートの精度を向上できる。具体的には、回転パラメータ推定部22は、ヨーレートをカルマンフィルタ又はパーティクルフィルタにかけることで最終的な推定ヨーレートを得る。 The rotation parameter estimation unit 22 of the present embodiment further estimates the final yaw rate by applying the motion model of the vehicle to the obtained yaw rate. Since the event data obtained in this embodiment is obtained by the in-vehicle event camera 10, it can be assumed that the yaw angle does not change extremely. Therefore, the accuracy of the estimated yaw rate can be improved by performing filtering so as to eliminate such an extreme change in yaw angle. Specifically, the rotation parameter estimation unit 22 obtains the final estimated yaw rate by applying the yaw rate to a Kalman filter or a particle filter.

図6は、FOEの性質を説明する図である。対応点の移動ベクトルはオプティカルフローそのものであり、Ωを含む項はオプティカルフローの回転成分である。図6に示すように、オプティカルフローから回転による成分を除くことで、オプティカルフローはFOEから放射状に延びることになる。 FIG. 6 is a diagram illustrating the properties of FOE. The movement vector of the corresponding point is the optical flow itself, and the term containing Ω is the rotation component of the optical flow. As shown in FIG. 6, by removing the component due to rotation from the optical flow, the optical flow extends radially from the FOE.

本実施の形態では、このようなFOEの性質を利用して正則化を行う。イベントカメラ10を用いて推定されたオプティカルフローは、イベントデータというスパースなデータから推定されていることから、不完全なものであり、特に正確な向きが得られないことがある。そこで、本実施の形態では、FOEを用いた正則化を加えることで向きの推定精度を向上する。 In the present embodiment, regularization is performed by utilizing such a property of FOE. Since the optical flow estimated by using the event camera 10 is estimated from sparse data called event data, it is incomplete and a particularly accurate orientation may not be obtained. Therefore, in the present embodiment, the orientation estimation accuracy is improved by adding regularization using FOE.

回転パラメータ推定部22は、初期推定されたオプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する。すなわち、回転パラメータ推定部22は、イベントカメラ10が車両に搭載されることを踏まえて、カーブにおいて発生するハンドル操作によるY軸周りの回転(ヨーレート)Ωのみを考え、X軸周りの回転(ピッチレート)Ω及びZ軸周りの回転(ロールレート)Ωはないものとする。Ω=Ω=0を式(17)に代入すると下式(18)が得られる。

Figure 0007007649000018
The rotation parameter estimation unit 22 estimates the yaw rate as a rotation parameter by setting the pitch rate and the roll rate to 0 based on the initially estimated optical flow. That is, the rotation parameter estimation unit 22 considers only the rotation (yaw rate) Ω Y around the Y axis due to the handle operation generated in the curve, considering that the event camera 10 is mounted on the vehicle, and rotates around the X axis (rotation around the X axis). Pitch rate) Ω X and rotation around the Z axis (roll rate) Ω Z shall not exist. Substituting Ω X = Ω Z = 0 into equation (17) gives equation (18) below.
Figure 0007007649000018

自車両の運動により仮定した画像上の点pと点p´を、推定した輝度画像から決める対応点p=(x,y)と点p´=(x´,y´)に置き換えて整理をすると下式(19)が得られる。

Figure 0007007649000019
The points p and p'on the image assumed by the movement of the own vehicle are replaced with the corresponding points p = (x, y) and the points p'= (x', y') determined from the estimated luminance image. Then, the following equation (19) is obtained.
Figure 0007007649000019

よって、1つの対応点p(x,y)とp´(x´,y´)が分かれば、対応点とFOEの座標から回転パラメータΩを算出できる。ここで、対応点とは、フレーム間の画素の移動を考えたときの同一画素を示す点の組のことであり、上述のオプティカルフローと同義である。本実施の形態では、全画素分の密なオプティカルフローを推定しているので、式(19)は、初期推定したオプティカルフローu=(u,u)を用いて下式(20)のように書き直すことができる。

Figure 0007007649000020
Therefore, if one corresponding point p (x, y) and p'(x', y') are known, the rotation parameter Ω Y can be calculated from the coordinates of the corresponding point and the FOE. Here, the corresponding point is a set of points indicating the same pixel when the movement of the pixel between frames is considered, and is synonymous with the above-mentioned optical flow. In the present embodiment, since the dense optical flow for all pixels is estimated, the equation (19) uses the initially estimated optical flow u = (ux, yy ) to formulate the following equation (20). Can be rewritten as follows.
Figure 0007007649000020

この式(20)から全画素分のΩを求めることができる。このなかから推定値Ω^を求めるために、イベントを利用した投票を行う。図7は、視野内においてイベントが発生した個所の例を示す図である。式(20)によって全画素のΩを求めた後に、Δの幅で離散化して、図7に示す視野(全画素)の上部分におけるイベント発生個所での最頻値をΩ^とする。イベントが発生した個所のみで投票を行う理由は、輝度復元とオプティカルフローの仕組みにある。 From this equation (20), Ω Y for all pixels can be obtained. In order to obtain the estimated value Ω ^ Y from this, a vote using the event is performed. FIG. 7 is a diagram showing an example of a location where an event occurs in the field of view. After obtaining Ω Y of all pixels by the equation (20), it is discretized by the width of Δ, and the mode value at the event occurrence point in the upper part of the field of view (all pixels) shown in FIG. 7 is Ω ^ Y. .. The reason for voting only at the place where the event occurred is the mechanism of brightness restoration and optical flow.

すなわち、オプティカルフローはコスト関数の第4項のオプティカルフローに関する項によって、復元された輝度に整合するように推定される。この輝度値は、コスト関数の第6項のイベントカメラに関する項によって、イベントが発生したときのイベントと輝度とが整合するように推定される。すなわち、入力であるイベントデータが最も反映されるイベント発生個所は信頼度が高いといえる。 That is, the optical flow is estimated to match the restored luminance by the fourth term of the cost function relating to the optical flow. This luminance value is estimated so that the event when the event occurs and the luminance match, according to the term of the event camera in the sixth term of the cost function. That is, it can be said that the place where the event occurs where the input event data is most reflected has high reliability.

これに対して、イベント発生個所以外の個所は、コスト関数の第1項から第3項までの滑らかさの項によって周りの値から推定されるので信頼性は低いといえる。したがって、視野の上部分のみで投票ことで、回転成分を正確に捉えることができる。なお、上部分は、例えば視野を中央の高さで分けた上半分の部分として定義してよい。 On the other hand, the points other than the event occurrence points are estimated from the surrounding values by the smoothness terms from the first term to the third term of the cost function, so that it can be said that the reliability is low. Therefore, by voting only in the upper part of the field of view, the rotational component can be accurately captured. The upper portion may be defined as, for example, the upper half portion of the visual field divided by the height at the center.

図8は、回転運動と並進運動を説明する図である。図8の例では、車両は左にカーブしている。視野の下部分はイベントカメラ10に近い部分であり、白線や道路脇の塀などの個所のオプティカルフローは、イベントカメラ10の並進運動による影響が比較的大きくなり、回転による成分が顕著には現れない。 FIG. 8 is a diagram illustrating rotational motion and translational motion. In the example of FIG. 8, the vehicle is curved to the left. The lower part of the field of view is close to the event camera 10, and the optical flow at places such as the white line and the wall on the side of the road is relatively greatly affected by the translational motion of the event camera 10, and the component due to rotation appears remarkably. do not have.

これに対して、視野の上部分はイベントカメラ10から遠い部分であり、ビルなどの個所のオプティカルフローは、イベントカメラ10の回転運動による影響が比較的大きくなり、回転による成分が顕著に現れる。このように、回転パラメータを正確に求めるためには視野の上部分を用いることが有効であり、よって、回転パラメータ推定部22は、視野の上部分に限定して投票を行う。 On the other hand, the upper part of the field of view is a part far from the event camera 10, and the optical flow of a place such as a building is relatively greatly affected by the rotational movement of the event camera 10, and the component due to the rotation appears remarkably. As described above, it is effective to use the upper part of the visual field in order to accurately obtain the rotation parameter. Therefore, the rotation parameter estimation unit 22 votes only in the upper part of the visual field.

オプティカルフロー正則化部23は、回転パラメータ推定部22と同様に、式(18)において対応点をオプティカルフローuに置き換える。また、式(18)の回転パラメータΩを含む項は、オプティカルフローの回転成分を表している。オプティカルフローの回転成分を下式(21)のようにuΩ=(u Ω,u Ω)と置くと、下式(22)が得られる。

Figure 0007007649000021
Figure 0007007649000022
Similar to the rotation parameter estimation unit 22, the optical flow regularization unit 23 replaces the corresponding point with the optical flow u in the equation (18). Further, the term including the rotation parameter Ω Y in the equation (18) represents the rotation component of the optical flow. When the rotational component of the optical flow is set as u Ω = (ux Ω , yy Ω ) as in the following equation (21), the following equation (22) is obtained.
Figure 0007007649000021
Figure 0007007649000022

式(22)では、上述のFOEの性質が簡潔に表されている。回転を除いたフローu´を下式(23)で表す。

Figure 0007007649000023
In the formula (22), the above-mentioned property of FOE is simply expressed. The flow u'excluding rotation is expressed by the following equation (23).
Figure 0007007649000023

ここで、FOEから放射状に各座標に延ばした矢印をufoeとし、下式(24)のようにu´と長さを同じにしたものをu´foeとする。

Figure 0007007649000024
Here, the arrow extending radially from the FOE to each coordinate is referred to as ufoe , and the arrow having the same length as u'as shown in the following equation (24) is referred to as u'foe .
Figure 0007007649000024

このu´foeとu´に対して、αで表される比で下式(25)のようにu^´を決定する。

Figure 0007007649000025
For these u'foe and u', u ^'is determined by the ratio represented by α as shown in the following equation (25).
Figure 0007007649000025

オプティカルフロー正則化部23は、このu´foeとu´の2乗誤差を目的関数として最適化を行うことで、回転成分を除いたオプティカルフローをFOEに従うように修正(正則化)する。この最適化後に、オプティカルフロー正則化部23は、下式(26)のようにu^´に回転成分uΩを戻して、u^を得る。

Figure 0007007649000026
The optical flow regularization unit 23 corrects (regularizes) the optical flow excluding the rotation component so as to follow the FOE by optimizing the u'foe and u'square error as an objective function. After this optimization, the optical flow regularization unit 23 returns the rotation component u Ω to u ^'as in the following equation (26) to obtain u ^.
Figure 0007007649000026

図9は、FOEによる正則化を説明する図である。オプティカルフロー正則化部23による正則化により、図9に示すようにオプティカルフローはFOEに従うように修正され、よりよいものになると考えられる。このように、オプティカルフローの初期推定、及びその後の回転パラメータの推定及び正則化を、タイムウィンドウをスライドさせて繰り返すことで、より正しい向きにオプティカルフローを正則することができ、それに伴って推定する回転パラメータΩ^の精度も向上する。 FIG. 9 is a diagram illustrating regularization by FOE. It is considered that the regularization by the optical flow regularization unit 23 modifies the optical flow to follow the FOE as shown in FIG. 9 and makes it better. In this way, by repeating the initial estimation of the optical flow and the subsequent estimation and regularization of the rotation parameters by sliding the time window, the optical flow can be regularized in a more correct direction, and the estimation is performed accordingly. The accuracy of the rotation parameter Ω ^ Y is also improved.

図10は、本発明の実施の形態のオプティカルフロー推定方法のフローチャートである。オプティカルフロー推定方法は、オプティカルフロー推定装置20において実行される。まず、オプティカルフロー初期推定部21は、指定されたタイムウィンドウについて、オプティカルフローの初期推定を行う(ステップS101)。次に、回転パラメータ推定部22が、初期推定されたオプティカルフローに基づいて、イベントカメラ10(即ち、車両)の回転パラメータ(ヨーレート)を推定する(ステップS102)。 FIG. 10 is a flowchart of the optical flow estimation method according to the embodiment of the present invention. The optical flow estimation method is executed in the optical flow estimation device 20. First, the optical flow initial estimation unit 21 performs initial estimation of the optical flow for the designated time window (step S101). Next, the rotation parameter estimation unit 22 estimates the rotation parameter (yaw rate) of the event camera 10 (that is, the vehicle) based on the initially estimated optical flow (step S102).

オプティカルフロー正則化部23は、初期推定されたオプティカルフローをFOEを用いて正則化する(ステップS103)。オプティカルフロー推定装置20は、処理すべきタイムウィンドウをスライドさせ(ステップS104)、ステップS101~ステップS103を繰り返す。 The optical flow regularization unit 23 regularizes the initially estimated optical flow using FOE (step S103). The optical flow estimation device 20 slides the time window to be processed (step S104), and repeats steps S101 to S103.

以上のように、本実施の形態のオプティカルフロー推定システム100によれば、イベントカメラが車両の進行方向を向いて固定される場合にはヨーレートで補正したFOEが固定であるという性質を利用して、イベントデータに基づいて初期推定したオプティカルフローを正則化して最終的なオプティカルフローを推定する。すなわち、まず、FOEによる正則なしの問題(凸問題)を解いた(初期推定)後に、それを初期値として正則化ありの問題(非凸問題)を解く(最終推定)という構成によって、オプティカルフローの推定精度を向上させる。 As described above, according to the optical flow estimation system 100 of the present embodiment, when the event camera is fixed facing the traveling direction of the vehicle, the FOE corrected by the yaw rate is fixed. , The final optical flow is estimated by regularizing the initially estimated optical flow based on the event data. That is, the optical flow is constructed by first solving a problem without regularity (convex problem) by FOE (initial estimation) and then solving a problem with regularization (non-convex problem) using it as an initial value (final estimation). Improve the estimation accuracy of.

また、初期推定されたオプティカルフローをFOEに従って修正する際に、オプティカルフローの向きを用いる構成を採用している。これにより、ノイズの影響を受けやすい向きの推定の精度を向上できる。 Further, when the initially estimated optical flow is corrected according to the FOE, a configuration using the direction of the optical flow is adopted. This makes it possible to improve the accuracy of estimating the orientation that is susceptible to noise.

さらに、全画素について得られたヨーレートの最頻値を採用することでヨーレートを推定するが、その際には、イベントカメラ10の視野の上部分のみで投票を行う。これにより、ヨーレートが反映されたオプティカルフローが出現しやすい部分のみを用いてヨーレートを推定するので、ヨーレート推定の精度を向上できる。 Further, the yaw rate is estimated by adopting the mode value of the yaw rate obtained for all the pixels, and in that case, voting is performed only in the upper part of the field of view of the event camera 10. As a result, the yaw rate is estimated using only the portion where the optical flow reflecting the yaw rate is likely to appear, so that the accuracy of the yaw rate estimation can be improved.

なお、上記の実施の形態では、車両に搭載されたイベントカメラにてイベントデータが生成され、当該イベントデータからオプティカルフローを推定するオプティカルフロー推定装置を説明したが、本発明のオプティカルフロー推定装置は、これに限られない。すなわち、オプティカルフローの推定に用いるデータはイベントデータに限られず、通常のカメラで得られた通常の画像データであってもよい。このように通常のカメラで得られる画像データの場合にも、初期推定された回転パラメータに基づいて初期推定されたオプティカルフローをFOEに従うように修正を行って、初期推定されたオプティカルフローを正則化することで、オプティカルフローの推定の精度を向上できる。 In the above embodiment, the optical flow estimation device in which event data is generated by an event camera mounted on the vehicle and the optical flow is estimated from the event data has been described, but the optical flow estimation device of the present invention is described. , Not limited to this. That is, the data used for estimating the optical flow is not limited to the event data, but may be normal image data obtained by a normal camera. In this way, even in the case of image data obtained with a normal camera, the initially estimated optical flow is modified to follow the FOE based on the initially estimated rotation parameters, and the initially estimated optical flow is made regular. By doing so, the accuracy of optical flow estimation can be improved.

また、カメラは車両に搭載されるものに限られず、車両以外の移動体に備えられるものであってよい。さらに、上記の実施の形態では、カメラが車両に搭載されることを前提として、回転パラメータ推定部22が、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定するオプティカルフロー推定装置を説明したが、移動体の種類によっては、回転パラメータ推定部22は、回転パラメータとして、ピッチレート又はロールレートを推定してもよい。 Further, the camera is not limited to the one mounted on the vehicle, and may be provided on a moving body other than the vehicle. Further, in the above embodiment, assuming that the camera is mounted on the vehicle, the rotation parameter estimation unit 22 sets the pitch rate and the roll rate to 0, so that the optical flow estimation estimates the yaw rate as the rotation parameter. Although the device has been described, the rotation parameter estimation unit 22 may estimate the pitch rate or the roll rate as the rotation parameter depending on the type of the moving body.

本発明は、オプティカルフロー推定の精度を向上でき、カメラからのデータに基づいてオプティカルフローを推定するオプティカルフロー推定装置等として有用である。 INDUSTRIAL APPLICABILITY The present invention can improve the accuracy of optical flow estimation, and is useful as an optical flow estimation device or the like that estimates optical flow based on data from a camera.

10 イベントカメラ
20 オプティカルフロー推定装置(ヨーレート推定装置)
21 オプティカルフロー初期推定部
22 回転パラメータ推定部
23 オプティカルフロー正則化部
100 オプティカルフロー推定システム(ヨーレート推定システム)
10 Event camera 20 Optical flow estimator (yaw rate estimator)
21 Optical flow initial estimation unit 22 Rotation parameter estimation unit 23 Optical flow regularization unit 100 Optical flow estimation system (yaw rate estimation system)

Claims (16)

移動体に固定されたカメラからのデータに基づいてオプティカルフローを推定するオプティカルフロー推定装置であって、
前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部と、
初期推定された前記オプティカルフローに基づいて回転パラメータを推定する回転パラメータ推定部と、
初期推定された前記回転パラメータに基づいて、初期推定された前記オプティカルフローをFOEに従うように修正することにより、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部と、
を備えた、オプティカルフロー推定装置。
An optical flow estimator that estimates optical flow based on data from a camera fixed to a moving object.
An optical flow initial estimation unit that performs initial estimation of optical flow based on the above data, and an optical flow initial estimation unit.
A rotation parameter estimation unit that estimates rotation parameters based on the initially estimated optical flow, and a rotation parameter estimation unit.
An optical flow regularization unit that regularizes the initially estimated optical flow by modifying the initially estimated optical flow to follow the FOE based on the initially estimated rotation parameter.
An optical flow estimator equipped with.
前記オプティカルフロー正則化部は、初期推定された前記オプティカルフローから前記回転パラメータの回転成分を除いたオプティカルフローとFOEから放射状に延びるオプティカルフローとに基づいて前記修正を行う、請求項1に記載のオプティカルフロー推定装置。 The modification according to claim 1, wherein the optical flow regularization unit makes the modification based on the optical flow obtained by removing the rotation component of the rotation parameter from the initially estimated optical flow and the optical flow extending radially from the FOE. Optical flow estimator. 前記オプティカルフロー正則化部は、初期推定された前記オプティカルフローから前記回転パラメータの回転成分を除いたオプティカルフローとFOEから放射状に延びるオプティカルフローとに基づいて第2のオプティカルフローを求めることにより前記修正を行い、さらに前記第2のオプティカルフローに前記回転成分を戻す、請求項2に記載のオプティカルフロー推定装置。 The optical flow regularization unit obtains the second optical flow based on the optical flow obtained by removing the rotation component of the rotation parameter from the initially estimated optical flow and the optical flow extending radially from the FOE. The optical flow estimation device according to claim 2, wherein the rotation component is returned to the second optical flow. 前記カメラはイベントカメラであり、前記データはイベントデータである、請求項1~3のいずれかに記載のオプティカルフロー推定装置。 The optical flow estimation device according to any one of claims 1 to 3, wherein the camera is an event camera and the data is event data. 前記回転パラメータ推定部は、初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する、請求項1~4のいずれかに記載のオプティカルフロー推定装置。 The optical according to any one of claims 1 to 4, wherein the rotation parameter estimation unit estimates the yaw rate as a rotation parameter by setting the pitch rate and the roll rate to 0 based on the initially estimated optical flow. Flow estimator. 前記オプティカルフロー正則化部は、オプティカルフローの向きをFOEに従って修正する、請求項1~5のいずれかに記載のオプティカルフロー推定装置。 The optical flow estimation device according to any one of claims 1 to 5, wherein the optical flow regularization unit corrects the direction of the optical flow according to the FOE. 前記回転パラメータ推定部は、前記カメラの視野の上部分のイベントデータを用いて前記回転パラメータを推定する、請求項1~6のいずれかに記載のオプティカルフロー推定装置。 The optical flow estimation device according to any one of claims 1 to 6, wherein the rotation parameter estimation unit estimates the rotation parameter using event data in the upper part of the field of view of the camera. 前記回転パラメータ推定部は、ヨーレートに車両の運動モデルを適用して前記回転パラメータを推定する、請求項5に記載のオプティカルフロー推定装置。 The optical flow estimation device according to claim 5, wherein the rotation parameter estimation unit estimates the rotation parameters by applying a vehicle motion model to the yaw rate. 前記回転パラメータ推定部は、ヨーレートをカルマンフィルタ又はパーティクルフィルタにかけることで前記運動モデルを適用する、請求項8に記載のオプティカルフロー推定装置。 The optical flow estimation device according to claim 8, wherein the rotation parameter estimation unit applies the motion model by applying a yaw rate to a Kalman filter or a particle filter. 移動体に固定されたカメラからのデータに基づいてオプティカルフローを推定するオプティカルフロー推定方法であって、
前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定ステップと、
初期推定された前記オプティカルフローに基づいて回転パラメータを推定する回転パラメータ推定ステップと、
初期推定された前記回転パラメータに基づいて、初期推定された前記オプティカルフローをFOEに従うように修正することにより、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化ステップと、
を備えた、オプティカルフロー推定方法。
An optical flow estimation method that estimates optical flow based on data from a camera fixed to a moving object.
An optical flow initial estimation step for initial estimation of optical flow based on the above data, and an optical flow initial estimation step.
A rotation parameter estimation step that estimates rotation parameters based on the initially estimated optical flow, and
An optical flow regularization step that regularizes the initially estimated optical flow by modifying the initially estimated optical flow to follow the FOE based on the initially estimated rotation parameter.
An optical flow estimation method.
移動体に固定され、データを出力するカメラと、
前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部と、
初期推定された前記オプティカルフローに基づいて回転パラメータを推定する回転パラメータ推定部と、
初期推定された前記回転パラメータに基づいて、初期推定された前記オプティカルフローをFOEに従うように修正することにより、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部と、
を備えた、オプティカルフロー推定システム。
A camera that is fixed to a moving object and outputs data,
An optical flow initial estimation unit that performs initial estimation of optical flow based on the above data, and an optical flow initial estimation unit.
A rotation parameter estimation unit that estimates rotation parameters based on the initially estimated optical flow, and a rotation parameter estimation unit.
An optical flow regularization unit that regularizes the initially estimated optical flow by modifying the initially estimated optical flow to follow the FOE based on the initially estimated rotation parameter.
An optical flow estimation system equipped with.
移動体に固定されたカメラからのデータが入力される装置にて実行されるオプティカルフロー推定プログラムであって、前記装置を、
前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部、
初期推定された前記オプティカルフローに基づいて回転パラメータを推定する回転パラメータ推定部、及び
初期推定された前記回転パラメータに基づいて、初期推定された前記オプティカルフローをFOEに従うように修正することにより、初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部、
として機能させる、オプティカルフロー推定プログラム。
An optical flow estimation program executed by a device for inputting data from a camera fixed to a moving body, wherein the device is used.
Optical flow initial estimation unit, which performs initial estimation of optical flow based on the above data.
The rotation parameter estimation unit that estimates the rotation parameter based on the initially estimated optical flow, and the initial estimated optical flow based on the initially estimated rotation parameter are modified to follow the FOE. An optical flow regularization unit that regularizes the estimated optical flow,
An optical flow estimation program that functions as.
移動体に固定されたカメラからのデータに基づいて前記車両のヨーレートを推定するヨーレート推定装置であって、
前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部と、
初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する回転パラメータ推定部と、
初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部と、
を備えた、ヨーレート推定装置。
A yaw rate estimation device that estimates the yaw rate of the vehicle based on data from a camera fixed to a moving body.
An optical flow initial estimation unit that performs initial estimation of optical flow based on the above data, and an optical flow initial estimation unit.
A rotation parameter estimation unit that estimates the yaw rate as a rotation parameter by setting the pitch rate and roll rate to 0 based on the initially estimated optical flow.
An optical flow regularization unit that regularizes the initially estimated optical flow,
Equipped with a yaw rate estimator.
移動体に固定されたカメラからのデータに基づいて前記車両のヨーレートを推定するヨーレート推定方法であって、
前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定ステップと、
初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する回転パラメータ推定ステップと、
初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化ステップと、
を含む、ヨーレート推定方法。
It is a yaw rate estimation method that estimates the yaw rate of the vehicle based on the data from the camera fixed to the moving body.
An optical flow initial estimation step for initial estimation of optical flow based on the above data, and an optical flow initial estimation step.
A rotation parameter estimation step that estimates the yaw rate as a rotation parameter by setting the pitch rate and roll rate to 0 based on the initially estimated optical flow.
An optical flow regularization step that regularizes the initially estimated optical flow, and
Yaw rate estimation method, including.
移動体に固定され、データを出力するカメラと、
前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部と、
初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する回転パラメータ推定部と、
初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部と、
を備えた、ヨーレート推定システム。
A camera that is fixed to a moving object and outputs data,
An optical flow initial estimation unit that performs initial estimation of optical flow based on the above data, and an optical flow initial estimation unit.
A rotation parameter estimation unit that estimates the yaw rate as a rotation parameter by setting the pitch rate and roll rate to 0 based on the initially estimated optical flow.
An optical flow regularization unit that regularizes the initially estimated optical flow,
Equipped with a yaw rate estimation system.
移動体に固定されたカメラからのデータが入力される装置にて実行されるヨーレート推定プログラムであって、前記装置を、
前記データに基づいてオプティカルフローの初期推定を行うオプティカルフロー初期推定部、
初期推定された前記オプティカルフローに基づいて、ピッチレート及びロールレートを0とすることで、回転パラメータとしてヨーレートを推定する回転パラメータ推定部、及び
初期推定された前記オプティカルフローを正則化するオプティカルフロー正則化部、
として機能させる、ヨーレート推定プログラム。

A yaw rate estimation program executed by a device for inputting data from a camera fixed to a moving body, wherein the device is used.
Optical flow initial estimation unit, which performs initial estimation of optical flow based on the above data.
A rotation parameter estimation unit that estimates the yaw rate as a rotation parameter by setting the pitch rate and roll rate to 0 based on the initially estimated optical flow, and an optical flow regularization that regularizes the initially estimated optical flow. Kabu,
A yaw rate estimation program that functions as.

JP2018100265A 2018-05-25 2018-05-25 Optical flow estimator, optical flow estimation method, optical flow estimation system, and optical flow estimation program, as well as yaw rate estimator, yaw rate estimation method, yaw rate estimation system, and yaw rate estimation program. Active JP7007649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018100265A JP7007649B2 (en) 2018-05-25 2018-05-25 Optical flow estimator, optical flow estimation method, optical flow estimation system, and optical flow estimation program, as well as yaw rate estimator, yaw rate estimation method, yaw rate estimation system, and yaw rate estimation program.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018100265A JP7007649B2 (en) 2018-05-25 2018-05-25 Optical flow estimator, optical flow estimation method, optical flow estimation system, and optical flow estimation program, as well as yaw rate estimator, yaw rate estimation method, yaw rate estimation system, and yaw rate estimation program.

Publications (2)

Publication Number Publication Date
JP2019204390A JP2019204390A (en) 2019-11-28
JP7007649B2 true JP7007649B2 (en) 2022-02-10

Family

ID=68727064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018100265A Active JP7007649B2 (en) 2018-05-25 2018-05-25 Optical flow estimator, optical flow estimation method, optical flow estimation system, and optical flow estimation program, as well as yaw rate estimator, yaw rate estimation method, yaw rate estimation system, and yaw rate estimation program.

Country Status (1)

Country Link
JP (1) JP7007649B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116188533B (en) * 2023-04-23 2023-08-08 深圳时识科技有限公司 Feature point tracking method and device and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000168442A (en) 1998-12-11 2000-06-20 Mitsubishi Motors Corp Backward monitoring device for vehicle
JP2002197445A (en) 2000-12-26 2002-07-12 Railway Technical Res Inst Detector for abnormality in front of train utilizing optical flow

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000168442A (en) 1998-12-11 2000-06-20 Mitsubishi Motors Corp Backward monitoring device for vehicle
JP2002197445A (en) 2000-12-26 2002-07-12 Railway Technical Res Inst Detector for abnormality in front of train utilizing optical flow

Also Published As

Publication number Publication date
JP2019204390A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP6768156B2 (en) Virtually enhanced visual simultaneous positioning and mapping systems and methods
EP3304492B1 (en) Modelling a three-dimensional space
Hager et al. Efficient region tracking with parametric models of geometry and illumination
JP2021503134A (en) Unsupervised learning of image depth and egomotion prediction neural networks
Yu et al. 3d reconstruction from accidental motion
CN107251096B (en) Image capturing apparatus and method
CN104317391B (en) A kind of three-dimensional palm gesture recognition exchange method and system based on stereoscopic vision
Klein et al. Parallel tracking and mapping on a camera phone
CN109711304B (en) Face feature point positioning method and device
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
CN100527165C (en) Real time object identification method taking dynamic projection as background
CN105141807B (en) Video signal image treating method and apparatus
US20030228032A1 (en) System and method for mode-based multi-hypothesis tracking using parametric contours
US9299161B2 (en) Method and device for head tracking and computer-readable recording medium
JP2016516977A (en) Generating a 3D model of the environment
CN105809664B (en) Method and device for generating three-dimensional image
Srisamosorn et al. Human position and head direction tracking in fisheye camera using randomized ferns and fisheye histograms of oriented gradients
JP7007649B2 (en) Optical flow estimator, optical flow estimation method, optical flow estimation system, and optical flow estimation program, as well as yaw rate estimator, yaw rate estimation method, yaw rate estimation system, and yaw rate estimation program.
Keivan et al. Constant-time monocular self-calibration
CN110060295A (en) Object localization method and device, control device follow equipment and storage medium
Xue et al. Event-based non-rigid reconstruction from contours
Zhang Active robot vision: from state estimation to motion planning
KR101923405B1 (en) System for tracking and modeling human faces using AAM with geometric transformation and method therefor
KR20180019329A (en) Depth map acquisition device and depth map acquisition method
Gultekin et al. Feature detection performance based benchmarking of motion deblurring methods: applications to vision for legged robots

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211221

R150 Certificate of patent or registration of utility model

Ref document number: 7007649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150