JP2011248830A - Moving body behavior detection device and method - Google Patents

Moving body behavior detection device and method Download PDF

Info

Publication number
JP2011248830A
JP2011248830A JP2010124171A JP2010124171A JP2011248830A JP 2011248830 A JP2011248830 A JP 2011248830A JP 2010124171 A JP2010124171 A JP 2010124171A JP 2010124171 A JP2010124171 A JP 2010124171A JP 2011248830 A JP2011248830 A JP 2011248830A
Authority
JP
Japan
Prior art keywords
feature point
moving body
feature
moving
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010124171A
Other languages
Japanese (ja)
Other versions
JP5604987B2 (en
Inventor
Yasuhito Sano
泰仁 佐野
Toshiyuki Ando
敏之 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2010124171A priority Critical patent/JP5604987B2/en
Publication of JP2011248830A publication Critical patent/JP2011248830A/en
Application granted granted Critical
Publication of JP5604987B2 publication Critical patent/JP5604987B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving body behavior detection device, etc. that can distinguish moving body's behavior in the yaw direction from one in the lateral direction with a high degree of accuracy.SOLUTION: A moving body behavior detection device acquires images imaged by a frontward imaging camera and a backward imaging camera and measures a frontward feature point Pf included in the frontward direction of a vehicle 1 and a backward feature point Pb included in the backward direction different from the frontward direction. A comparison is made between the movement direction (Pf'→Pf) of the frontward feature point Pf included in the frontward direction of the vehicle 1 and the movement direction (Pb'→Pb) of the backward feature point Pb included in the backward direction of the vehicle. If the movement directions of these points are different, it is determined that the vehicle 1 is moving in the lateral direction; if the movement directions are the same, it is determined that the vehicle 1 is moving in the yaw direction.

Description

本発明は、移動体挙動検出装置及び方法に関する。   The present invention relates to a moving body behavior detection apparatus and method.

従来より、自車両の挙動の変化を検出する技術としては、下記の特許文献1に記載された車両挙動検出装置が知られている。   Conventionally, as a technique for detecting a change in behavior of the host vehicle, a vehicle behavior detection device described in Patent Document 1 below is known.

この車両挙動検出装置は、車両前方を撮像した画像を用いて、自車両から遠方に離れた特徴点を特徴点として検出する。この車両挙動検出装置は、当該遠方の特徴点の動きを監視して、自車両の挙動の変化を検出する。この車両挙動検出装置は、遠方の特徴点が、自車両の前進する方向における挙動変化の影響を受けないことを利用し、遠方特徴点の動きに基づいて自車両のヨー方向の挙動を検出している。   This vehicle behavior detection apparatus detects a feature point far away from the host vehicle as a feature point using an image obtained by imaging the front of the vehicle. This vehicle behavior detection device monitors the movement of the distant feature point and detects a change in the behavior of the host vehicle. This vehicle behavior detection device detects the behavior of the host vehicle in the yaw direction based on the movement of the remote feature point by utilizing the fact that the feature point in the distance is not affected by the behavior change in the forward direction of the host vehicle. ing.

特開2006−338272号公報JP 2006-338272 A

上述した車両挙動検出装置は、充分に遠方の特徴点が検出できない場合には、画像内の特徴点の全てが自車両の挙動の影響を受けて画像内で移動する。このため、上述した車両挙動検出装置は、自車両のヨー方向と横方向の挙動が区別できないという問題があった。   When the above-described vehicle behavior detection device cannot detect feature points far away, all the feature points in the image are affected by the behavior of the host vehicle and move in the image. For this reason, the vehicle behavior detection device described above has a problem that the behavior of the host vehicle in the yaw direction and the lateral direction cannot be distinguished.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、移動体のヨー方向と横方向の挙動を高い精度で区別できる移動体挙動検出装置及び方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and an object of the present invention is to provide a moving body behavior detection apparatus and method capable of distinguishing the behavior of a moving body in the yaw direction and the lateral direction with high accuracy. .

本発明は、移動体に対して異なる方向に含まれる第1特徴点及び第2特徴点の移動方向を比較して、当該双方の移動方向が異なる場合には移動体が横方向に移動している判別し、当該双方の移動方向が同じである場合には移動体がヨー方向に移動していると判別する。   The present invention compares the moving directions of the first feature point and the second feature point included in different directions with respect to the moving body, and when the moving directions of the both are different, the moving body moves in the lateral direction. If both moving directions are the same, it is determined that the moving body is moving in the yaw direction.

本発明によれば、移動体に対して異なる方向に含まれる特徴点の移動方向が異なるか同じかによって移動体の移動方向を判別できるので、移動体のヨー方向と横方向の挙動を高い精度で区別できる。   According to the present invention, the moving direction of the moving object can be determined based on whether the moving direction of the feature points included in different directions with respect to the moving object is different or the same. Can be distinguished.

本発明の第1実施形態として示す車両挙動検出システムにおいて、前方撮像カメラ及び後方撮像カメラの配置を示す上面図である。In the vehicle behavior detection system shown as 1st Embodiment of this invention, it is a top view which shows arrangement | positioning of a front imaging camera and a rear imaging camera. 本発明の第1実施形態として示す車両挙動検出システムの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the vehicle behavior detection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す車両挙動検出システムにおいて、移動体が横方向と回転方向に移動したときの特徴点の移動方向を示す図であり、(A)が移動体が横方向に移動したときにおける(a)前方特徴点、(b)後方特徴点の移動を示し、(B)が移動体が回転方向に移動したときにおける(a)前方特徴点、(b)後方特徴点の移動を示す。In the vehicle behavior detection system shown as 1st Embodiment of this invention, it is a figure which shows the moving direction of the feature point when a moving body moves to a horizontal direction and a rotation direction, (A) is a moving body moving to a horizontal direction. (A) Front feature point, (b) Movement of rear feature point, (B) (a) Front feature point, (b) Movement of rear feature point when moving body moves in rotation direction Indicates. 本発明の第1実施形態として示す車両挙動検出システムにおいて、移動体の挙動を推定する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which estimates the behavior of a moving body in the vehicle behavior detection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す車両挙動検出システムにおいて、特徴点の位置を推定する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which estimates the position of a feature point in the vehicle behavior detection system shown as 1st Embodiment of this invention. 本発明の第1実施形態として示す車両挙動検出システムにおいて、事前推定値と実際値とのズレについて説明する図である。In the vehicle behavior detection system shown as 1st Embodiment of this invention, it is a figure explaining the gap | deviation of a prior estimated value and an actual value. 本発明の第1実施形態として示す車両挙動検出システムにおいて、移動体に対する注目特徴点の位置関係を示す図である。In the vehicle behavior detection system shown as 1st Embodiment of this invention, it is a figure which shows the positional relationship of the attention feature point with respect to a moving body. 本発明の第1実施形態として示す車両挙動検出システムにおいて、注目特徴点がz軸方向となるよう座標変換した様子を示す図である。In the vehicle behavior detection system shown as 1st Embodiment of this invention, it is a figure which shows a mode that coordinate conversion was performed so that an attention feature point might become az axis direction. 本発明の第1実施形態として示す車両挙動検出システムにおいて、注目特徴点の反対方向に他の注目特徴点と設定した様子を示す図である。In the vehicle behavior detection system shown as 1st Embodiment of this invention, it is a figure which shows a mode that it set with another attention feature point in the opposite direction of a attention feature point. 本発明の第1実施形態として示す車両挙動検出システムにおいて、(A)が移動体が横方向に移動したときにおける(a)前方特徴点、(b)後方特徴点の移動を示し、(B)が移動体が回転方向に移動したときにおける(a)前方特徴点、(b)後方特徴点の移動を示す。In the vehicle behavior detection system shown as the first embodiment of the present invention, (A) shows (a) the front feature point and (b) the movement of the rear feature point when the moving body moves in the lateral direction, (B) (A) shows the movement of the front feature point and (b) the rear feature point when the moving body moves in the rotation direction. 本発明の第2実施形態として示す車両挙動検出システムにおいて、前方撮像カメラの撮像方向に対して、後方撮像カメラが90度の範囲の広がりで撮像することを説明する上面図である。In the vehicle behavior detection system shown as 2nd Embodiment of this invention, it is a top view explaining that a back imaging camera images with the breadth of the range of 90 degree | times with respect to the imaging direction of a front imaging camera.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
本発明の第1実施形態として示す車両挙動検出システムは、移動体の挙動を検出する。この車両挙動検出システムは、例えば、自車両の挙動を検出する。この車両挙動検出システムは、例えば、自車両の挙動に基づいて運転者に警告を行うために、自車両の挙動を検出する。
[First Embodiment]
The vehicle behavior detection system shown as the first embodiment of the present invention detects the behavior of a moving object. This vehicle behavior detection system detects the behavior of the host vehicle, for example. For example, the vehicle behavior detection system detects the behavior of the host vehicle in order to warn the driver based on the behavior of the host vehicle.

この車両挙動検出システムは、図1に示すように、自車両1の前方に設けられた前方撮像カメラ12と、自車両1の後方に設けられた後方撮像カメラ13とを有する。この車両挙動検出システムは、図2に示すように、演算装置11と、前方撮像カメラ12と、後方撮像カメラ13と、周囲特徴記憶部14とを含む。   As shown in FIG. 1, the vehicle behavior detection system includes a front imaging camera 12 provided in front of the host vehicle 1 and a rear imaging camera 13 provided in the rear of the host vehicle 1. As shown in FIG. 2, the vehicle behavior detection system includes a calculation device 11, a front imaging camera 12, a rear imaging camera 13, and a surrounding feature storage unit 14.

前方撮像カメラ12は、自車両1の前方を撮像方向として取り付けられている。前方撮像カメラ12は、所定の時間毎に時間的に連続する前方撮像画像を撮像して、演算装置11に供給する。前方撮像カメラ12は、自車両1に取り付けられ、時間的に連続的した第1画像を撮像する第1撮像手段に相当する。   The front imaging camera 12 is attached with the front of the host vehicle 1 as the imaging direction. The front imaging camera 12 captures front captured images that are temporally continuous every predetermined time and supplies the captured images to the arithmetic device 11. The front imaging camera 12 is attached to the host vehicle 1 and corresponds to first imaging means that captures a first image that is temporally continuous.

後方撮像カメラ13は、自車両1の後方を撮像方向として取り付けられている。後方撮像カメラ13は、所定の時間毎に時間的に連続する後方撮像画像を撮像して、演算装置11に供給する。後方撮像カメラ13は、第1撮像手段の撮像方向に対して反対の撮像方向となるよう自車両1に取り付けられ、時間的に連続的した第2画像を撮像する第2撮像手段に相当する。   The rear imaging camera 13 is attached with the rear of the host vehicle 1 as the imaging direction. The rear imaging camera 13 captures rear captured images that are temporally continuous at predetermined time intervals and supplies the captured images to the arithmetic device 11. The rear imaging camera 13 is attached to the host vehicle 1 so as to be in the imaging direction opposite to the imaging direction of the first imaging unit, and corresponds to a second imaging unit that captures a temporally continuous second image.

前方撮像カメラ12及び後方撮像カメラ13は、当該前方撮像カメラ12の光軸方向と、当該後方撮像カメラ13の光軸方向とが180度の角度を以て取り付けられている。   The front imaging camera 12 and the rear imaging camera 13 are attached with an angle of 180 degrees between the optical axis direction of the front imaging camera 12 and the optical axis direction of the rear imaging camera 13.

周囲特徴記憶部14は、自車両1周囲の特徴点と当該特徴点の位置情報とを対応付けて記憶している。この周囲特徴記憶部14は、例えば予め計測された特徴点と位置情報とが登録された地図データベースを備えている。特徴点としては、物体のエッジやコーナー等の周囲画像に対してエッジ検出処理をしてエッジが得られた部分画像等が挙げられる。周囲特徴記憶部14は、ハードディスク等の記録媒体に対して情報を記録再生ができる情報記録再生装置である。   The surrounding feature storage unit 14 stores a feature point around the host vehicle 1 and position information of the feature point in association with each other. The surrounding feature storage unit 14 includes, for example, a map database in which feature points and position information measured in advance are registered. The feature points include partial images obtained by performing edge detection processing on surrounding images such as edges and corners of an object. The surrounding feature storage unit 14 is an information recording / reproducing apparatus capable of recording / reproducing information on / from a recording medium such as a hard disk.

なお、周囲特徴記憶部14には、自車両1が移動中にMotion Stereoなどの既存手法によりオンラインで逐次的に特徴点及び位置情報を保存していく処理を行っても良い。   It should be noted that the surrounding feature storage unit 14 may perform processing for sequentially storing feature points and position information online using an existing method such as Motion Stereo while the host vehicle 1 is moving.

演算装置11は、前方特徴検出部21、前方位置取得部22、前方撮像範囲取得部23、前方特徴選択部24、前方移動計測部25、後方特徴検出部26、後方位置取得部27、後方撮像範囲取得部28、後方特徴選択部29、後方移動計測部30、及び、移動体挙動判定部31を備える。   The arithmetic device 11 includes a front feature detection unit 21, a front position acquisition unit 22, a front imaging range acquisition unit 23, a front feature selection unit 24, a forward movement measurement unit 25, a rear feature detection unit 26, a rear position acquisition unit 27, and a rear imaging. A range acquisition unit 28, a rear feature selection unit 29, a rear movement measurement unit 30, and a moving body behavior determination unit 31 are provided.

なお、演算装置11は、実際にはROM、RAM、CPU等にて構成されているが、当該CPUがROMに格納された車両挙動検出用のプログラムに従って処理をすることによって実現できる機能をブロックとして説明する。すなわち、以下では、演算装置11の物理的な構成は単一であるものの、プログラムによって演算装置11が実行できる処理内容に対応して、演算装置11の各機能部21〜31を説明する。   The arithmetic device 11 is actually composed of a ROM, a RAM, a CPU, and the like, but functions that can be realized by the CPU performing a process according to a vehicle behavior detection program stored in the ROM as a block. explain. That is, hereinafter, although the physical configuration of the arithmetic device 11 is single, the functional units 21 to 31 of the arithmetic device 11 will be described in accordance with the processing contents that can be executed by the arithmetic device 11 by a program.

前方特徴検出部21は、前方撮像カメラ12により撮像された前方撮像画像が供給される。前方特徴検出部21は、前方撮像画像に対してエッジ検出処理等を行って、前方撮像画像に含まれる前方特徴点を検出する。この前方特徴点としては、周囲特徴記憶部14に記憶されたエッジやコーナー等と同様に、実際の前方撮像画像から検出した部分画像である。   The front feature detection unit 21 is supplied with a front captured image captured by the front imaging camera 12. The front feature detection unit 21 performs an edge detection process or the like on the front captured image and detects a front feature point included in the front captured image. This forward feature point is a partial image detected from an actual forward captured image, like the edges and corners stored in the surrounding feature storage unit 14.

同様に、後方撮像範囲取得部28は、後方撮像カメラ13により撮像された後方撮像画像が供給される。後方撮像範囲取得部28は、後方撮像画像に対してエッジ検出処理等を行って、後方撮像画像に含まれる後方特徴点を検出する。この後方特徴点としては、周囲特徴記憶部14に記憶されたエッジやコーナー等と同様に、実際の後方撮像画像から検出した部分画像である。   Similarly, the rear imaging range acquisition unit 28 is supplied with a rear captured image captured by the rear imaging camera 13. The rear imaging range acquisition unit 28 performs edge detection processing or the like on the rear captured image and detects a rear feature point included in the rear captured image. The rear feature point is a partial image detected from the actual rear captured image, like the edges and corners stored in the surrounding feature storage unit 14.

前方位置取得部22は、前方撮像カメラ12により撮像される前方撮像画像内における前方特徴点の位置を推定する。   The front position acquisition unit 22 estimates the position of the front feature point in the front captured image captured by the front imaging camera 12.

同様に、後方位置取得部27は、後方撮像カメラ13により撮像される後方撮像画像内における後方特徴点の位置を推定する。   Similarly, the rear position acquisition unit 27 estimates the position of the rear feature point in the rear captured image captured by the rear imaging camera 13.

前方位置取得部22及び後方位置取得部27は、実際に前方撮像カメラ12及び後方撮像カメラ13によって撮像して特徴点を検出するよりも事前に、自車両1の位置を推定しておく。自車両1の位置の事前推定値は、様々な手法により取得することができる。例えば、GPS(Global Positioning System)等のインフラを利用して自車両1の位置を推定しても良く、自車両1の車輪の回転量から直接的に自車両1の位置を推定しても良い。   The front position acquisition unit 22 and the rear position acquisition unit 27 estimate the position of the host vehicle 1 in advance of actually capturing images with the front imaging camera 12 and the rear imaging camera 13 and detecting feature points. The prior estimated value of the position of the host vehicle 1 can be obtained by various methods. For example, the position of the host vehicle 1 may be estimated using an infrastructure such as GPS (Global Positioning System), or the position of the host vehicle 1 may be estimated directly from the rotation amount of the wheel of the host vehicle 1. .

前方撮像範囲取得部23、前方特徴選択部24及び前方移動計測部25は、前方特徴検出部21により検出された前方特徴点の移動方向を検出する。   The forward imaging range acquisition unit 23, the forward feature selection unit 24, and the forward movement measurement unit 25 detect the moving direction of the forward feature points detected by the forward feature detection unit 21.

前方撮像範囲取得部23は、前方位置取得部22により推定された自車両1の位置と、前方撮像カメラ12の取付位置とに基づいて、前方撮像カメラ12の前方撮像範囲を取得する。前方特徴選択部24は、周囲特徴記憶部14により取得された位置情報と前方撮像範囲とを比較して、当該前方撮像範囲に含まれる前方特徴点を選択する。前方移動計測部25は、前方撮像カメラ12により撮像された前方撮像画像に含まれる前方特徴点と、前方特徴選択部24により選択された前方特徴点とのズレから、前方特徴点の移動方向を算出する。   The front imaging range acquisition unit 23 acquires the front imaging range of the front imaging camera 12 based on the position of the host vehicle 1 estimated by the front position acquisition unit 22 and the attachment position of the front imaging camera 12. The front feature selection unit 24 compares the position information acquired by the surrounding feature storage unit 14 with the front imaging range, and selects a front feature point included in the front imaging range. The forward movement measuring unit 25 determines the moving direction of the forward feature point from the deviation between the forward feature point included in the forward captured image captured by the forward imaging camera 12 and the forward feature point selected by the forward feature selecting unit 24. calculate.

すなわち、前方移動計測部25は、周囲特徴記憶部14に記憶された特徴点のうち前方撮像カメラ12の撮像範囲に現れると推定される前方特徴点の位置と、当該推定された前方特徴点の位置に対する実際の前方特徴点の移動方向を計測する。   That is, the forward movement measuring unit 25 includes the position of the forward feature point estimated to appear in the imaging range of the front imaging camera 12 among the feature points stored in the surrounding feature storage unit 14, and the estimated forward feature point. The moving direction of the actual front feature point with respect to the position is measured.

同様に、後方撮像範囲取得部28、後方特徴選択部29及び後方移動計測部30は、後方特徴検出部26により検出された後方特徴点の移動方向を検出する。   Similarly, the rear imaging range acquisition unit 28, the rear feature selection unit 29, and the rear movement measurement unit 30 detect the movement direction of the rear feature point detected by the rear feature detection unit 26.

後方撮像範囲取得部28は、後方位置取得部27により推定された自車両1の位置と、後方撮像カメラ13の取付位置とに基づいて、後方撮像カメラ13の後方撮像範囲を取得する。後方特徴選択部29は、周囲特徴記憶部14により取得された位置情報と後方撮像範囲とを比較して、当該後方撮像範囲に含まれる後方特徴点を選択する。後方移動計測部30は、後方撮像カメラ13により撮像された後方撮像画像に含まれる後方特徴点と、後方特徴選択部29により選択された後方特徴点とのズレから、後方特徴点の移動方向を算出する。   The rear imaging range acquisition unit 28 acquires the rear imaging range of the rear imaging camera 13 based on the position of the host vehicle 1 estimated by the rear position acquisition unit 27 and the attachment position of the rear imaging camera 13. The rear feature selection unit 29 compares the position information acquired by the surrounding feature storage unit 14 with the rear imaging range, and selects a rear feature point included in the rear imaging range. The backward movement measuring unit 30 determines the moving direction of the backward feature point from the deviation between the backward feature point included in the backward captured image captured by the backward imaging camera 13 and the backward feature point selected by the backward feature selecting unit 29. calculate.

すなわち、後方移動計測部30は、周囲特徴記憶部14に記憶された特徴点のうち後方撮像カメラ13の撮像範囲に現れると推定される後方特徴点の位置と、当該推定された後方特徴点の位置に対する実際の後方特徴点の移動方向を計測する。   That is, the backward movement measuring unit 30 includes the position of the rear feature point estimated to appear in the imaging range of the rear imaging camera 13 among the feature points stored in the surrounding feature storage unit 14, and the estimated rear feature point. The moving direction of the actual rear feature point with respect to the position is measured.

前方撮像範囲取得部23及び後方撮像範囲取得部28が撮像範囲を取得するとき、前方位置取得部22及び後方位置取得部27により取得された自車両位置の事前推定値を用いる。これにより、前方撮像範囲取得部23及び後方撮像範囲取得部28は、前方撮像カメラ12及び後方撮像カメラ13から観測できる領域を計算する。このとき、前方撮像範囲取得部23及び後方撮像範囲取得部28は、予め周囲特徴記憶部14に記憶されている世界座標上での特徴点の位置と、前方撮像カメラ12及び後方撮像カメラ13の取り付け位置とに基づいて、前方撮像範囲及び後方撮像範囲内における特徴点の位置を推定する。また、前方撮像範囲取得部23及び後方撮像範囲取得部28は、前方撮像カメラ12及び後方撮像カメラ13の取り付け方向、カメラ内部パラメータ(画角、ゆがみ)も考慮して、より高い精度で前方撮像範囲及び後方撮像範囲内における特徴点の位置を推定することもできる。   When the front imaging range acquisition unit 23 and the rear imaging range acquisition unit 28 acquire an imaging range, the prior estimated value of the host vehicle position acquired by the front position acquisition unit 22 and the rear position acquisition unit 27 is used. Thereby, the front imaging range acquisition unit 23 and the rear imaging range acquisition unit 28 calculate an area that can be observed from the front imaging camera 12 and the rear imaging camera 13. At this time, the front imaging range acquisition unit 23 and the rear imaging range acquisition unit 28 determine the positions of the feature points on the world coordinates stored in the surrounding feature storage unit 14 in advance, and the front imaging camera 12 and the rear imaging camera 13. Based on the attachment position, the position of the feature point in the front imaging range and the rear imaging range is estimated. Further, the front imaging range acquisition unit 23 and the rear imaging range acquisition unit 28 consider the attachment direction of the front imaging camera 12 and the rear imaging camera 13 and camera internal parameters (view angle and distortion) with higher accuracy. It is also possible to estimate the position of the feature point within the range and the rear imaging range.

移動体挙動判定部31は、前方移動計測部25により計測された前方特徴点の移動方向と後方移動計測部30により計測された後方特徴点の移動方向とを比較する。移動体挙動判定部31は、当該双方の移動方向が異なる場合には、自車両1が横方向に移動していると判別する。移動体挙動判定部31は、当該双方の移動方向が同じである場合には、自車両1がヨー方向に移動していると判別する。   The moving body behavior determination unit 31 compares the moving direction of the forward feature point measured by the forward movement measuring unit 25 with the moving direction of the backward feature point measured by the backward movement measuring unit 30. The moving body behavior determination unit 31 determines that the host vehicle 1 is moving in the lateral direction when the two moving directions are different. The moving body behavior determination unit 31 determines that the host vehicle 1 is moving in the yaw direction when both of the movement directions are the same.

ここで、図3に示すように、自車両1のヨー方向における特徴点の挙動と、自車両1の横方向における特徴点の挙動は、前方特徴点の移動方向と後方特徴点の移動方向とが異なる動きとして現れる。   Here, as shown in FIG. 3, the behavior of the feature point in the yaw direction of the host vehicle 1 and the behavior of the feature point in the lateral direction of the host vehicle 1 are the movement direction of the front feature point and the movement direction of the rear feature point. Appear as different movements.

自車両1が横方向に移動したとき、図3(A)の(a)に示すように、前方撮像範囲40fにおける事前推定位置の特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。これに対し、自車両1が横方向に移動したとき、図3(A)の(b)に示すように、後方撮像範囲40bにおける事前推定位置の特徴点P’は、実際には右方向に移動した特徴点Pの位置に現れる。このように、自車両1が横方向に移動したとき、前方と後方とで“異なる”移動方向に特徴点Pがずれる。   When the host vehicle 1 moves in the lateral direction, as shown in FIG. 3A, the feature point P ′ of the pre-estimated position in the front imaging range 40f is actually a feature point that has moved in the left direction. Appears at position P. On the other hand, when the host vehicle 1 moves in the lateral direction, the feature point P ′ of the pre-estimated position in the rear imaging range 40b is actually in the right direction as shown in FIG. It appears at the position of the moved feature point P. In this way, when the host vehicle 1 moves in the lateral direction, the feature point P is shifted in the “different” movement direction between the front and the rear.

自車両1が回転方向に移動したとき、図3(B)の(a)に示すように、前方撮像範囲40fにおける事前推定位置の特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。これに対し、自車両1が回転方向に移動したとき、図3(A)の(b)に示すように、後方撮像範囲40bにおける事前推定位置の特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。このように、自車両1が回転方向に移動したとき、前方と後方とで“同じ”移動方向に特徴点がずれる。   When the host vehicle 1 moves in the rotational direction, as shown in FIG. 3B, the feature point P ′ of the pre-estimated position in the front imaging range 40f is actually a feature point that has moved in the left direction. Appears at position P. On the other hand, when the host vehicle 1 moves in the rotational direction, the feature point P ′ of the prior estimated position in the rear imaging range 40b is actually leftward as shown in FIG. It appears at the position of the moved feature point P. As described above, when the host vehicle 1 moves in the rotation direction, the characteristic points are shifted in the “same” movement direction between the front and the rear.

このことを利用して、車両挙動検出システムは、自車両1のヨー方向の挙動と自車両1の横方向の挙動とを判別することができる。   By utilizing this, the vehicle behavior detection system can discriminate between the behavior of the host vehicle 1 in the yaw direction and the behavior of the host vehicle 1 in the lateral direction.

つぎに、上述した車両挙動検出システムにおいて、自車両1の挙動を推定する処理手順について、図4及び図5のフローチャート等を参照して説明する。なお、車両挙動検出システムは、所定時間ごとにステップS1以降の処理を実行することによって、所定時間ごとに自車両1の挙動を推定する。   Next, a processing procedure for estimating the behavior of the host vehicle 1 in the vehicle behavior detection system described above will be described with reference to the flowcharts of FIGS. 4 and 5. Note that the vehicle behavior detection system estimates the behavior of the host vehicle 1 every predetermined time by executing the processes after step S1 every predetermined time.

先ず、ステップS1において、前方撮像カメラ12によって前方撮像画像を取得すると共に、ステップS4において、後方撮像カメラ13によって後方撮像範囲を取得する。ここで、前方撮像カメラ12による前方撮像画像の取得タイミングと、後方撮像カメラ13による後方撮像画像との取得タイミングとは同期している。   First, in step S1, a front captured image is acquired by the front imaging camera 12, and a rear imaging range is acquired by the rear imaging camera 13 in step S4. Here, the acquisition timing of the front captured image by the front imaging camera 12 and the acquisition timing of the rear captured image by the rear imaging camera 13 are synchronized.

次に、ステップS2において、前方特徴点の前方撮像画像内位置を推定すると共に、ステップS5において、後方特徴点の後方撮像画像内位置を推定する。   Next, in step S2, the position in the front captured image of the front feature point is estimated, and in step S5, the position in the rear captured image of the rear feature point is estimated.

このステップS2及びステップS5は、図5に示す処理を行う。先ずステップS11において、前方位置取得部22及び後方位置取得部27は、自車両1(移動体)の位置を事前に推定する。この自車両位置の事前推定とは、前方撮像カメラ12及び後方撮像カメラ13による撮像画像を用いない。前方位置取得部22及び後方位置取得部27は、例えば、自車両1の運動モデル、自車両1が移動するトルクを発生させるための制御指令値、GPS等の他のセンサーを用いて、世界座標系に対して自車両1の重心位置Eを求める。ここで自車両1の重心位置Eとは、下記の式1に示すように表現される。

Figure 2011248830
Steps S2 and S5 perform the processing shown in FIG. First, in step S11, the front position acquisition unit 22 and the rear position acquisition unit 27 estimate the position of the host vehicle 1 (moving body) in advance. The pre-estimation of the vehicle position does not use images captured by the front imaging camera 12 and the rear imaging camera 13. The front position acquisition unit 22 and the rear position acquisition unit 27 use, for example, a motion model of the host vehicle 1, a control command value for generating a torque for moving the host vehicle 1, and other sensors such as GPS, and the world coordinates The center-of-gravity position E of the host vehicle 1 is obtained with respect to the system. Here, the center-of-gravity position E of the host vehicle 1 is expressed as shown in Equation 1 below.
Figure 2011248830

この式1において、Rは3×3の回転行列、tは3次の移動ベクトルを表す。なお、この自車両1の位置の推定は、他にもさまざまな手法で実施することが可能である。   In Equation 1, R represents a 3 × 3 rotation matrix, and t represents a third-order movement vector. The position of the host vehicle 1 can be estimated by various other methods.

前方位置取得部22及び後方位置取得部27は、例えば、自車両1の制御指令値を用いて、事前に自車両1の位置推定を行う。自車両1の制御前における自車両1の重心位置Et−1は求められているとし、自車両1の制御指令値としての直進制御指令値V[m/s],回転制御指令値ω[rad/s]による制御が実施されたとする。ただし、自車両1の制御には誤差が伴い、また、制御どおりに自車両1が制御されたとしても、自車両1に対する路面とのフリクションなどにより、制御通りに自車両1が移動するとは限らない。したがって、制御が実施された後の自車両位置の期待値を、
prior=M・Et−1
とし、これを自車両1の事前推定値Epriorとする。ここで、Mは、下記の式2により表現される。

Figure 2011248830
The front position acquisition unit 22 and the rear position acquisition unit 27 estimate the position of the host vehicle 1 in advance using the control command value of the host vehicle 1, for example. Assume that the center-of-gravity position E t-1 of the host vehicle 1 before the control of the host vehicle 1 is obtained, and a straight-running control command value V Z [m / s] as a control command value of the host vehicle 1 and a rotation control command value ω. Assume that control by [rad / s] is performed. However, there is an error in the control of the host vehicle 1, and even if the host vehicle 1 is controlled as controlled, the host vehicle 1 may not move as controlled due to friction with the road surface with respect to the host vehicle 1 or the like. Absent. Therefore, the expected value of the host vehicle position after the control is performed,
E prior = M c · E t−1
This is set as the prior estimated value E prior of the host vehicle 1. Here, Mc is expressed by the following Equation 2.
Figure 2011248830

次のステップS12において、前方撮像範囲取得部23及び後方撮像範囲取得部28は、前方位置取得部22及び後方位置取得部27により取得された自車両位置の事前推定値と、前方撮像カメラ12及び後方撮像カメラ13の取り付け位置とから、前方撮像カメラ12及び後方撮像カメラ13の撮像範囲を取得する。   In the next step S12, the front imaging range acquisition unit 23 and the rear imaging range acquisition unit 28, the pre-estimated value of the host vehicle position acquired by the front position acquisition unit 22 and the rear position acquisition unit 27, the front imaging camera 12, and The imaging ranges of the front imaging camera 12 and the rear imaging camera 13 are acquired from the attachment position of the rear imaging camera 13.

ここで、自車両1の重心位置Eに対する前方撮像カメラ12及び後方撮像カメラ13の取り付け位置をCとする。このとき、世界座標系における前方撮像カメラ12及び後方撮像カメラ13の取り付け位置の事前推定値は、
fprior=C・Eprior
として表すことができる。このとき、前方撮像カメラ12及び後方撮像カメラ13の取り付け位置の事前推定値Cfpriorから撮像した撮像範囲は、世界座標を前方撮像カメラ12及び後方撮像カメラ13の取り付け位置の事前推定値Cfpriorを中心とした座標に変換することによって表される。この前方撮像カメラ12及び後方撮像カメラ13の撮像範囲は、世界座標系(x,y,z)において、zがある値以上であり、x/zとy/zの絶対値が、ある値を下回っている範囲として表すことができる。
Here, the attachment position of the front imaging camera 12 and the rear imaging camera 13 with respect to the vehicle 1 of the gravity center position E and C f. At this time, the pre-estimated value of the attachment position of the front imaging camera 12 and the rear imaging camera 13 in the world coordinate system is
C fprior = C f · E prior
Can be expressed as At this time, the imaging range imaged from the pre-estimated value C fprior of the attachment positions of the front imaging camera 12 and the rear imaging camera 13 is the world coordinates of the pre-estimated value C fprior of the attachment positions of the front imaging camera 12 and the rear imaging camera 13. Represented by converting to centered coordinates. The imaging ranges of the front imaging camera 12 and the rear imaging camera 13 are equal to or greater than a certain value in the world coordinate system (x, y, z), and the absolute values of x / z and y / z are certain values. It can be expressed as a range below.

次のステップS13において、前方特徴選択部24及び後方特徴選択部29は、周囲特徴記憶部14に記憶されている特徴点のうち、前方撮像カメラ12及び後方撮像カメラ13の撮像範囲に入っていると考えられる特徴点を選択する。ここで、特徴点は、予め周辺地図内に世界座標系としての位置情報Pとして表されているとする。この世界座標系の位置情報Pをカメラ座標系で表すと、カメラ座標系の位置情報Picは、
ic=Cfprior −1・P
として表すことができる。前方特徴選択部24及び後方特徴選択部29は、当該カメラ座標系の位置情報Picを用いて、カメラ座標系の位置情報Pic34の移動ベクトルz成分がある値以上、Pic14/Pic34,Pic24/Pic34の絶対値がある値を下回っていることを条件として、前方撮像カメラ12及び後方撮像カメラ13の撮像範囲に入っていると考えられる特徴点を選択する。ここで、Pic14は、カメラ座標系の位置情報Picの移動ベクトルx成分であり、Pic24は、カメラ座標系の位置情報Picの移動ベクトルy成分である。
In the next step S <b> 13, the front feature selection unit 24 and the rear feature selection unit 29 are within the imaging range of the front imaging camera 12 and the rear imaging camera 13 among the feature points stored in the surrounding feature storage unit 14. Select the feature points considered. Here, it is assumed that the feature points are represented in advance as position information P i as a world coordinate system in the surrounding map. When the position information P i in the world coordinate system is expressed in the camera coordinate system, the position information P ic in the camera coordinate system is
P ic = C fprior −1 · P i
Can be expressed as The front feature selection unit 24 and the rear feature selection unit 29 use the position information P ic of the camera coordinate system, and the movement vector z component of the position information P ic34 of the camera coordinate system is greater than or equal to a certain value, P ic14 / P ic34 , A feature point that is considered to be within the imaging range of the front imaging camera 12 and the rear imaging camera 13 is selected on condition that the absolute value of P ic24 / P ic 34 is below a certain value. Here, P IC 14 is the motion vector x component of the position information P ics of the camera coordinate system, P IC 24 is the motion vector y component of the position information P ics of the camera coordinate system.

図4に戻り、ステップS3において、前方移動計測部25によって、ステップS2にて推定した前方撮像画像内における前方特徴点の推定位置と、実際に撮像された前方撮像画像内における前方特徴点の位置とのズレdを計測する。このとき、前方移動計測部25は、前方特徴検出部21により検出された実際の前方撮像画像から検出された前方特徴点及び画像内位置を取得しておく。同様に、ステップS6において、後方移動計測部30によって、ステップS5にて推定した後方撮像画像内における後方特徴点の推定位置と、実際に撮像された後方撮像画像内における後方特徴点の位置とのズレdを計測する。このとき、後方移動計測部30は、後方特徴検出部26により検出された実際の後方撮像画像から検出された後方特徴点及び画像内位置を取得しておく。 Returning to FIG. 4, in step S <b> 3, the estimated position of the forward feature point in the forward captured image estimated in step S <b> 2 by the forward movement measuring unit 25 and the position of the forward feature point in the actually captured forward captured image. The deviation d p is measured. At this time, the forward movement measurement unit 25 acquires the forward feature point and the position in the image detected from the actual forward captured image detected by the forward feature detection unit 21. Similarly, in step S6, the estimated position of the rear feature point in the rear captured image estimated in step S5 by the rear movement measuring unit 30 and the position of the rear feature point in the actually captured rear captured image. The deviation d p is measured. At this time, the backward movement measurement unit 30 acquires the backward feature point and the position in the image detected from the actual backward captured image detected by the backward feature detection unit 26.

次のステップS7においては、移動体挙動判定部31によって、ステップS3及びステップS6にて計測されたズレdから、自車両1の挙動を推定する。このとき、移動体挙動判定部31は、ステップS3にて計測された前方特徴点におけるズレdによって表される移動方向と、ステップS6にて計測された後方特徴点におけるズレdによって表される移動方向とを比較する。移動体挙動判定部31は、前方特徴点の移動方向と後方特徴点の移動方向とが同じ場合には、自車両1がヨー方向に移動していると判別する。移動体挙動判定部31は、前方特徴点の移動方向と後方特徴点の移動方向とが異なる場合には、自車両1が横方向に移動していると判別する。これにより、車両挙動検出システムは、自車両1の挙動を推定できる。 In the next step S7, the behavior of the host vehicle 1 is estimated by the moving body behavior determination unit 31 from the deviation d p measured in steps S3 and S6. At this time, mobile behavior determination unit 31, a moving direction indicated by the deviation d p in the front characteristic points measured in step S3, is represented by the deviation d p in the rear feature point that is measured at step S6 Compare the moving direction. The moving body behavior determination unit 31 determines that the host vehicle 1 is moving in the yaw direction when the movement direction of the front feature point is the same as the movement direction of the rear feature point. The moving body behavior determination unit 31 determines that the host vehicle 1 is moving in the lateral direction when the moving direction of the front feature point is different from the moving direction of the rear feature point. Thereby, the vehicle behavior detection system can estimate the behavior of the host vehicle 1.

ステップS7は、ステップS3,ステップS6にて得られた前方特徴点及び後方特徴点のズレdから、自車両1の運動量が、事前に推定した自車両1の運動量に対してどの程度ずれていたのかの推定を行う。 In step S7, the amount of movement of the host vehicle 1 deviates from the amount of movement of the host vehicle 1 estimated in advance from the deviation d p between the front feature point and the rear feature point obtained in step S3 and step S6. Estimate whether it is fun.

つぎに、車両挙動検出システムによって自車両1の挙動を推定する処理について具体的に説明する。   Next, a process for estimating the behavior of the host vehicle 1 by the vehicle behavior detection system will be specifically described.

先ず、上述したように、前方撮像カメラ12の前方撮像範囲と、後方撮像カメラ13の後方撮像範囲とが反対となっており、移動体挙動判定部31が、前方撮像カメラ12により撮像された前方撮像画像内における前方特徴点の動きと、後方撮像カメラ13より撮像された後方撮像画像内における後方特徴点の動きとの差分に基づいて、自車両1の回転量を算出することについて説明する。   First, as described above, the front imaging range of the front imaging camera 12 and the rear imaging range of the rear imaging camera 13 are opposite to each other, and the moving body behavior determination unit 31 captures the front imaged by the front imaging camera 12. Calculation of the amount of rotation of the host vehicle 1 based on the difference between the movement of the front feature point in the captured image and the movement of the rear feature point in the rear captured image captured by the rear imaging camera 13 will be described.

図6に示す三次元座標系において、自車両1の重心位置Eが41’であるときの自車両位置の事前推定値Eprior(40’)と、自車両1の重心位置Eが41であるときの自車両位置の実際値(40)とのズレについて、x方向のズレをM、z方向のズレをM、回転方向のズレをMθとして表すとする。図6において、自車両1の事前の向きを42’で表し、実際の自車両1の向きを42で表している。 In the three-dimensional coordinate system shown in FIG. 6, the prior estimated value E prior (40 ′) of the host vehicle position when the center of gravity position E of the host vehicle 1 is 41 ′ and the center of gravity position E of the host vehicle 1 are 41. As for the deviation from the actual value (40) of the host vehicle position at that time, the deviation in the x direction is represented as M x , the deviation in the z direction is represented as M z , and the deviation in the rotation direction is represented as M θ . In FIG. 6, the previous direction of the host vehicle 1 is represented by 42 ′, and the actual direction of the host vehicle 1 is represented by 42.

また、図7に示すように、ステップS13において選択された複数の特徴点のうち任意の特徴点を選択し、当該選択された特徴点を注目特徴点Pとし、カメラ座標系において注目特徴点Pが存在するx方向位置をP1x、z方向位置をP1zとする。このとき、注目特徴点Pの画像内におけるx方向のズレdP1xは、
P1x=−aMθ−f(M,M,P,P) (式3)
として表すことができる。上記式3における関数fは、回転方向におけるズレMθ以外の自車両1のズレによる画像内での移動量を示す。上記式におけるaは、前方撮像カメラ12及び後方撮像カメラ13の画角により決定される定数である。
Further, as shown in FIG. 7, select any feature point of the plurality of feature points selected in step S13, the selected feature points and feature point P 1, feature point in the camera coordinate system The position in the x direction where P 1 exists is P 1x , and the position in the z direction is P 1z . In this case, deviation d P1x in the x direction in the image of the target feature point P 1 is
d P1x = −aM θ −f (M x , M z , P x , P z ) (Formula 3)
Can be expressed as Function f in the above formula 3 indicates the amount of movement in the image by the own displacement of the vehicle 1 other than the deviation M theta in the direction of rotation. “A” in the above formula is a constant determined by the angle of view of the front imaging camera 12 and the rear imaging camera 13.

ここで、自車両1の挙動計算を容易にするために、図8に示すように、自車両1の重心位置Eを中心とし、注目特徴点Pの中心軸がz軸方向になるような座標変換を実施する。座標変換の回転角度が十分小さいとき、座標変換後の画像内における注目特徴点Pのズレdpx1’は、図7に示した変換前の画像内における注目特徴点Pのズレdpx1とほぼ等しく、
px1’≒dpx1 (式4)
となる。自車両1の回転方向のズレ(−Mθ)は、自車両1の回転による座標変換の影響を受けない。注目特徴点Pの変換後のx方向位置P1x’、z方向位置P1z’は、z軸方向に注目特徴点Pが存在するため、
1x’=0 (式5)
1z’={((P1x +(P1z)}1/2 (式6)
として表される。変換後の注目特徴点Pの位置が式5のようにP1x’=0の場合、画像上では、自車両1のズレM’の動きの影響は受けず、画像上のズレdは、自車両1の回転方向におけるズレMθと、自車両1のx方向における変換後のズレM’によってのみ決定される。自車両1のx方向における変換後のズレM’による画像の動きは、自車両1からz方向における注目特徴点Pまでの距離(P1z’)に反比例するので、
−M’/P1z’ (式7)
として表される。結果として、画像内のx方向における注目特徴点PのズレdP1xは、式7を利用して、
P1x=−aMθ−M’/P1z’ (式8)
として表される。
Here, in order to facilitate the behavior calculation of the vehicle 1, as shown in FIG. 8, with a focus on the vehicle 1 of the gravity center position E, such as the central axis of the target feature point P 1 is the z-axis direction Perform coordinate transformation. When the rotation angle of the coordinate transformation is sufficiently small, the deviation d px1 the feature point P 1 in the image after the coordinate transformation 'includes a shift d px1 the feature point P 1 conversion before the image shown in FIG. 7 Almost equal,
d px1 ' ≈d px1 (Formula 4)
It becomes. The deviation (−M θ ) in the rotation direction of the host vehicle 1 is not affected by coordinate conversion due to the rotation of the host vehicle 1. X position after the conversion of the target feature point P 1 P 1x ', z direction position P 1z' is due to the presence of target feature point P 1 in the z-axis direction,
P 1x '= 0 (Formula 5)
P 1z ′ = {((P 1x ) 2 + (P 1z ) 2 )} 1/2 (Formula 6)
Represented as: When the position of the feature point P 1 after conversion is P 1x ′ = 0 as shown in Equation 5, on the image, the movement of the displacement M z ′ of the host vehicle 1 is not affected, and the displacement d p on the image Is determined only by the deviation M θ in the rotation direction of the host vehicle 1 and the deviation M x ′ after conversion in the x direction of the host vehicle 1. Since the movement of the image due to the deviation M x ′ after conversion in the x direction of the host vehicle 1 is inversely proportional to the distance (P 1z ′) from the host vehicle 1 to the feature point P 1 in the z direction,
-M x '/ P 1z ' (Formula 7)
Represented as: As a result, the deviation dP 1x of the feature point of interest P 1 in the x direction in the image is expressed as
d P1x = -aM θ -M x ' / P 1z' ( Eq. 8)
Represented as:

自車両1の回転方向θにおける変換後のズレMθ’と、自車両1のx方向における変換後のズレM’を求めるため、注目特徴点Pとは異なる位置の注目特徴点Pを選択する。この注目特徴点Pは、前方特徴点及び後方特徴点の移動方向を計測する精度向上の観点から、変換後のz軸の近傍にあり、注目特徴点Pからなるべく離れていることが望ましい。 'And the self displacement M x after the conversion in the x direction of the vehicle 1' deviation M theta converted in the rotation direction theta of the vehicle 1 for obtaining a feature point of the different position from the feature point P 1 P 2 Select. The feature point P 2, from the viewpoint of accuracy of measuring the movement direction of forward feature point and the rear feature point, in the neighborhood of z axis after transformation, it is desirable that as far as possible from the feature point P 1 .

これは、変換後のz軸上に注目特徴点Pが存在すれば、変換後のz軸と平行な自車両1の移動があっても、画像内においては注目特徴点Pは動かない。このため、自車両1が移動しても、画像内における注目特徴点Pのz方向の動きを無視して考えることが可能となる。一方、変換後のz軸から注目特徴点Pがずれていると、変換後のz軸と平行に自車両1が移動したときに、注目特徴点Pの画像内位置がx方向又はy方向にずれてしまう。このため、前方特徴点及び後方特徴点の移動方向を計測する精度が低下してしまう。 This, if there is a current feature point P 2 on the z axis after the conversion, even if the movement of the z-axis parallel to the vehicle 1 after conversion, feature point P 2 in the image does not move . Therefore, even when the vehicle 1 moves, it is possible to consider ignoring the z direction of movement of the feature point P 2 in the image. On the other hand, if are out of target feature point P 2 from the z-axis after the transformation, when the parallel vehicle 1 and z axis after the conversion is moved, the image position of the target feature point P 2 is or x direction y It will shift in the direction. For this reason, the precision which measures the moving direction of a front feature point and a back feature point will fall.

上述のステップS7において、自車両1の挙動は、画像内における注目特徴点Pのx方向のズレdP1xに基づいて、ヨー方向移動か、横方向移動かの判別がされる。この判別は、前方撮像カメラ12及び後方撮像カメラ13の双方に対し、自車両1の回転方向の移動は同じように作用することを利用している。このため、自車両1の回転方向θにおける変換後のズレMθ’の項には、前方特徴点と後方特徴点とで差異がない。したがって、自車両1の回転方向θにおける変換後のズレMθ’及び自車両1のx方向における変換後のズレM’を計算するためには、式7,8におけるM’/P1z’の項に差が発生する必要があり、この差が大きいほど、自車両1の挙動を精度よく求めることが可能となる。したがって、注目特徴点Pからなるべく距離が大きい特徴点を、注目特徴点Pとしてを選択することが望ましい。 In step S7 described above, the behavior of the vehicle 1, based on the deviation d P1x in the x direction of the feature point P 1 in the image, the yaw movement or is lateral movement of the discrimination. This determination utilizes the fact that the movement of the own vehicle 1 in the same direction acts on both the front imaging camera 12 and the rear imaging camera 13. For this reason, there is no difference between the front feature point and the rear feature point in the term of the deviation M θ ′ after conversion in the rotation direction θ of the host vehicle 1. Therefore, in order to calculate the shift M θ ′ after conversion in the rotational direction θ of the host vehicle 1 and the shift M x ′ after conversion in the x direction of the host vehicle 1, M x ′ / P 1z in Equations 7 and 8 A difference needs to be generated in the term ', and the larger the difference, the more accurately the behavior of the host vehicle 1 can be obtained. Therefore, it is desirable to select a feature point having a distance as large as possible from the target feature point P 1 as the target feature point P 2 .

この場合、注目特徴点Pが前方撮像カメラ12により撮像された前方撮像画像内に存在するとき、注目特徴点Pは自車両1に対して、前方撮像カメラ12の逆方向に存在していることが望ましい。例えば図9に示すように、後方撮像カメラ13により撮像される特徴点のうち、変換後のz’軸の近傍に位置する特徴点を注目特徴点Pとして選択する。この注目特徴点Pのズレ量dp2xは、下記の式9に示すように、
P2x=−aMθ−M’/P2z’ (式9)
として表される。式8、式9に関して、注目特徴点Pの画像内におけるx方向のズレdp1x、注目特徴点Pが存在するx方向位置P1x、注目特徴点Pが存在するz方向位置P1z、前方撮像カメラ12及び後方撮像カメラ13の画角により決定される定数a、注目特徴点Pのx方向のズレ量dP2x、注目特徴点Pが存在するz方向位置P2は既知である。したがって、式8により求められた画像内のx方向における注目特徴点PのズレdP1xと、式9により求められた画像内のx方向における注目特徴点PのズレdP2xとの差分から、自車両1の回転方向の移動量Mθ、自車両1のx方向の移動量M’を求めることが可能となる。また、自車両1のx方向の移動量M’は、変換前座標系におけるx方向の移動量M、z方向の移動量Mとの合成成分となっているので、座標変換前の座標軸に射影することで、変換前座標系におけるx方向の移動量M、z方向の移動量Mを求めることが可能となる。
In this case, when the feature point of interest P 1 is present in the front captured image captured by the front imaging camera 12, the feature point of interest P 2 is present in the opposite direction of the front imaging camera 12 with respect to the host vehicle 1. It is desirable. For example, as shown in FIG. 9, among the feature points captured by the rear image pickup camera 13, it selects feature points located in the vicinity of the z 'axis of the converted as feature point P 2. Shift amount d p2x of the feature point P 2, as shown in Equation 9 below,
d P2x = -aM θ -M x ' / P 2z' ( Equation 9)
Represented as: Formula 8, with respect to formula 9, x-direction of the deviation d p1x in the image of the target feature point P 1, x direction position P 1x the feature point P 1 is present, z direction position P 1z which feature point P 1 is present , the constant a is determined by the angle of the front imaging camera 12 and the rear imaging camera 13, the deviation amount d P2x in the x direction of the feature point P 2, z direction position P2 z where feature point P 2 is present in a known is there. Therefore, the difference between the deviation d P1x the feature point P 1 in the x-direction in the image obtained by the Equation 8, a deviation d P2x of feature point P 2 in the x-direction in the image obtained by the formula 9 Thus, it is possible to determine the movement amount M θ in the rotation direction of the host vehicle 1 and the movement amount M x ′ in the x direction of the host vehicle 1. Further, the movement amount M x in the x direction of the vehicle 1 ', the movement amount M x in the x direction in the pre-conversion coordinates, since a synthesis component of the movement amount M z in the z-direction, before the coordinate transformation by projecting the coordinate axis, the movement amount M x in the x direction in the pre-conversion coordinates, it is possible to determine the movement amount M z in the z-direction.

以上のように、この車両挙動検出システムによれば、自車両1が横方向に移動した場合、図10(A)の(a)に示すように、前方撮像範囲50における事前推定位置の特徴点事前に推定した特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。これに対し、図10(A)の(b)に示すように、後方撮像範囲50における事前に推定した特徴点P’は、実際には右方向に移動した特徴点Pの位置に現れる。このように、自車両1が横方向に移動したとき、前方と後方とで“異なる”移動方向に事前特徴点P’と実際の特徴点Pとがずれる。 As described above, according to this vehicle behavior detection system, when the host vehicle 1 moves in the lateral direction, as shown in (a) of FIG. 10A, the feature of the pre-estimated position in the front imaging range 50f . The feature point P f ′ estimated in advance appears in actuality at the position of the feature point P f moved in the left direction. In contrast, as shown in FIG. 10A (b), the feature point P b ′ estimated in advance in the rear imaging range 50 b is actually at the position of the feature point P b moved in the right direction. appear. Thus, when the host vehicle 1 moves in the lateral direction, the pre-feature feature point P ′ and the actual feature point P are shifted in the “different” movement directions in the forward and backward directions.

自車両1が回転方向に移動したとき、図10(B)の(a)に示すように、前方撮像範囲50における事前に推定した特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。これに対し、図10(A)の(b)に示すように、後方撮像範囲50における事前に推定した特徴点P’は、実際には左方向に移動した特徴点Pの位置に現れる。このように、自車両1が回転方向に移動したとき、前方と後方とで“同じ”移動方向に特徴点がずれる。 When the host vehicle 1 moves in the rotational direction, as shown in (a) of FIG. 10B, the feature point P f ′ estimated in advance in the front imaging range 50 f actually moves to the left. It appears at a position of the feature point P f. On the other hand, as shown in (b) of FIG. 10A, the feature point P b ′ estimated in advance in the rear imaging range 50 b is actually at the position of the feature point P b moved in the left direction. appear. As described above, when the host vehicle 1 moves in the rotation direction, the characteristic points are shifted in the “same” movement direction between the front and the rear.

このように車両挙動検出システムは、予め記憶した周囲の特徴点と、前方撮像カメラ12及び後方撮像カメラ13によって撮像した撮像画像に現れる特徴点との移動方向が同じであるか異なるかによって、自車両1の挙動を検出できる。   As described above, the vehicle behavior detection system automatically determines whether the surrounding feature points stored in advance and the feature points appearing in the captured images captured by the front imaging camera 12 and the rear imaging camera 13 have the same or different moving directions. The behavior of the vehicle 1 can be detected.

以上詳細に説明したように、第1実施形態として示した車両挙動検出システムによれば、前方特徴点の移動方向と後方特徴点の移動方向とを比較して、当該双方の移動方向が異なる場合には自車両1が横方向に移動している判別し、当該双方の移動方向が同じである場合には自車両1がヨー方向に移動していると判別できる。これにより、車両挙動検出システムによれば、自車両1のヨー方向の挙動と横方向の挙動とを、高い精度で区別でき、自車両1の位置を求めることが可能となる。   As described above in detail, according to the vehicle behavior detection system shown as the first embodiment, when the movement direction of the front feature point and the movement direction of the rear feature point are compared, the movement directions of the two feature points are different. It can be determined that the own vehicle 1 is moving in the lateral direction, and if both the moving directions are the same, it can be determined that the own vehicle 1 is moving in the yaw direction. Thus, according to the vehicle behavior detection system, the behavior of the host vehicle 1 in the yaw direction and the behavior in the lateral direction can be distinguished with high accuracy, and the position of the host vehicle 1 can be obtained.

例えば、自車両1の駐車操作の支援機能などを実現する場合、自車両位置が目的位置に対してどのような位置関係にあるのか(Localization)を取得することはきわめて重要である。例えば、以前に自車両1を駐車した位置に同じように駐車するときには、以前に駐車した位置と、現在の自車両1の位置とを正確に把握する必要がある。これに対し、車両挙動検出システムは、自車両1の挙動を検出して、自車両1の位置を精度良く検出できる。また、常に位置検出を実施しながら移動すれば、移動軌跡を得ることが可能となる。次回以降この軌跡をたどれば、複雑な経路計算を行うことなく、自車両1の制御を行うことが可能となる。   For example, when realizing a parking operation support function of the host vehicle 1, it is very important to obtain what positional relationship the host vehicle position is with respect to the target position (Localization). For example, when parking in the same way at the position where the host vehicle 1 was parked before, it is necessary to accurately grasp the position where the host vehicle 1 was parked before and the current position of the host vehicle 1. On the other hand, the vehicle behavior detection system can detect the behavior of the host vehicle 1 and accurately detect the position of the host vehicle 1. In addition, a movement locus can be obtained by moving while always performing position detection. If this trajectory is followed from the next time, it becomes possible to control the host vehicle 1 without performing complicated route calculation.

また、車両挙動検出システムによれば、事前に特徴点を記憶しておき、事前に求めた特徴点と実際に得られた特徴点とから、前方特徴点の移動方向及び後方特徴点の移動方向を得ることができ、自車両1のヨー方向の挙動と横方向の挙動とを、高い精度で区別でき、自車両1の位置を求めることが実現できる。   In addition, according to the vehicle behavior detection system, the feature points are stored in advance, and the movement direction of the front feature point and the movement direction of the rear feature point are determined from the feature points obtained in advance and the actually obtained feature points. Thus, the behavior of the host vehicle 1 in the yaw direction and the behavior in the lateral direction can be distinguished with high accuracy, and the position of the host vehicle 1 can be obtained.

更に、この車両挙動検出システムによれば、前方撮像カメラ12の前方撮像範囲と、後方撮像カメラ13の後方撮像範囲とが反対となっているので、自車両1が横方向に移動したとき前方と後方とで異なる移動方向に特徴点がずれ、自車両1が回転方向に移動したとき前方と後方とで同じ移動方向に特徴点がずれることを利用して、精度良く自車両1の挙動を検出できる。   Furthermore, according to this vehicle behavior detection system, since the front imaging range of the front imaging camera 12 and the rear imaging range of the rear imaging camera 13 are opposite, when the host vehicle 1 moves in the lateral direction, By using the fact that feature points shift in different movement directions at the rear and the own vehicle 1 moves in the rotation direction, the feature points shift in the same movement direction at the front and rear, thereby detecting the behavior of the host vehicle 1 with high accuracy. it can.

更に、この車両挙動検出システムによれば、前方撮像カメラ12により撮像された前方撮像画像内における前方特徴点の動きと、後方撮像カメラ13より撮像された後方撮像画像内における後方特徴点の動きとの差分に基づいて、自車両1の回転量を算出するので、自車両1の運動状態にかかわらず、代数的に自車両1の横方向移動とヨー方向回転を切り分けることができる。これにより、車両挙動検出システムは、低い計算負荷で自車両1の挙動を求めることができる。   Furthermore, according to this vehicle behavior detection system, the movement of the front feature point in the front captured image captured by the front imaging camera 12 and the movement of the rear feature point in the rear captured image captured by the rear imaging camera 13 Since the rotation amount of the own vehicle 1 is calculated based on the difference between the two, the lateral movement and the yaw direction rotation of the own vehicle 1 can be algebraically separated regardless of the motion state of the own vehicle 1. Thereby, the vehicle behavior detection system can obtain the behavior of the host vehicle 1 with a low calculation load.

[第2実施形態]
つぎに、第2実施形態の車両挙動検出システムとして、自車両1の挙動を推定する他の処理について具体的に説明する。
[Second Embodiment]
Next, another process for estimating the behavior of the host vehicle 1 will be specifically described as the vehicle behavior detection system according to the second embodiment.

この車両挙動検出システムは、後方撮像カメラ13によって、前方撮像カメラ12の撮像方向に対して90度方向の画像を撮像する。具体的には、図11に示すように、前方撮像カメラ12の光軸方向は、自車両1の前方となっている。これに対して、後方撮像カメラ13の光軸方向は、前方撮像カメラ12の光軸方向とは180度だけずれているが、後方撮像カメラ13の撮像範囲は、前方撮像カメラ12の光軸方向に対して90度の広がりを有する。   In this vehicle behavior detection system, the rear imaging camera 13 captures an image in a 90-degree direction with respect to the imaging direction of the front imaging camera 12. Specifically, as shown in FIG. 11, the optical axis direction of the front imaging camera 12 is in front of the host vehicle 1. On the other hand, the optical axis direction of the rear imaging camera 13 is shifted by 180 degrees from the optical axis direction of the front imaging camera 12, but the imaging range of the rear imaging camera 13 is the optical axis direction of the front imaging camera 12. With a spread of 90 degrees.

この車両挙動検出システムは、移動体挙動判定部31によって、後方撮像カメラ13により撮像された後方撮像画像に含まれる特徴点の動きに基づいて、自車両1の回転量を算出する。   In this vehicle behavior detection system, the moving body behavior determination unit 31 calculates the amount of rotation of the host vehicle 1 based on the movement of the feature points included in the rear captured image captured by the rear imaging camera 13.

このような車両挙動検出システムにおいて、後方撮像カメラ13の後方撮像範囲に含まれると推定される後方特徴点と、実際に後方撮像画像に含まれた後方特徴点とのズレは、回転方向におけるズレMθのみによると考えられる。したがって、この場合、後方撮像カメラ13によって観測されるズレdP1xは、
P1x=−Mθ (式10)
となり、当該式10によって、自車両1の回転量を求めることが可能となる。
In such a vehicle behavior detection system, the deviation between the rear feature point estimated to be included in the rear imaging range of the rear imaging camera 13 and the rear feature point actually included in the rear imaging image is the deviation in the rotation direction. It is thought that it depends only on Mθ. Therefore, in this case, the deviation d P1x observed by the rear imaging camera 13 is
d P1x = −M θ (Formula 10)
Thus, the rotation amount of the host vehicle 1 can be obtained by the equation (10).

ここで、自車両1を駐車枠に停車させる駐車操作において、駐車枠内の停止位置と予想される位置に自車両1を停止した状況を考える。このとき、演算装置11は、自車両1の車輪回転量等を検出することにより、自車両1が直進方向に進行していないことが認識できる。また、前方撮像カメラ12及び後方撮像カメラ13により撮像された特徴点群より、自車両1の直進方向に関しての停止位置が正しいことを確認できるとする。   Here, in the parking operation for stopping the host vehicle 1 on the parking frame, a situation is considered in which the host vehicle 1 is stopped at a position expected to be a stop position in the parking frame. At this time, the computing device 11 can recognize that the host vehicle 1 is not traveling in the straight direction by detecting the wheel rotation amount of the host vehicle 1 or the like. Further, it is assumed that it is possible to confirm that the stop position of the host vehicle 1 in the straight traveling direction is correct from the feature point group imaged by the front imaging camera 12 and the rear imaging camera 13.

この状況において、車両挙動検出システムは、停止位置に対して自車両1が横方向にずれているのか、又は、停止位置に対して自車両1が回転方向にずれているのか正確に判別できる。これにより、車両挙動検出システムは、駐車操作をやり直す経路計画を正確に立てるために、車両挙動を検出できる。   In this situation, the vehicle behavior detection system can accurately determine whether the own vehicle 1 is displaced laterally with respect to the stop position or whether the own vehicle 1 is displaced in the rotational direction with respect to the stop position. Thereby, the vehicle behavior detection system can detect the vehicle behavior in order to accurately set up a route plan for redoing the parking operation.

以上説明したように、第2実施形態として示した車両挙動検出システムによれば、第1実施形態と同様に、前方特徴点の移動方向と後方特徴点の移動方向とを比較して、自車両1の横方向移動とヨー方向移動とを判別でき、自車両1のヨー方向の挙動と横方向の挙動とを高い精度で区別でき、自車両1の位置を求めることが可能となる。   As described above, according to the vehicle behavior detection system shown as the second embodiment, as in the first embodiment, the moving direction of the front feature point and the moving direction of the rear feature point are compared, and the own vehicle 1 movement in the lateral direction and movement in the yaw direction can be discriminated, and the behavior in the yaw direction and the behavior in the lateral direction of the host vehicle 1 can be distinguished with high accuracy, and the position of the host vehicle 1 can be obtained.

また、この車両挙動検出システムによれば、後方撮像カメラ13が、前方撮像カメラ12の撮像方向に対して90度方向の後方撮像画像を撮像するように構成している。これにより、車両挙動検出システムによれば、後方撮像カメラ13を用いて自車両1の位置を推定することができるため、自車両1が停止しているときに高い精度で自車両1の位置を求めることが可能となる。   Further, according to this vehicle behavior detection system, the rear imaging camera 13 is configured to capture a rear captured image in a direction of 90 degrees with respect to the imaging direction of the front imaging camera 12. Thereby, according to the vehicle behavior detection system, since the position of the own vehicle 1 can be estimated using the rear imaging camera 13, the position of the own vehicle 1 can be determined with high accuracy when the own vehicle 1 is stopped. It can be obtained.

更に、この車両挙動検出システムによれば、後方撮像カメラ13により撮像された後方撮像画像に含まれる特徴点の動きに基づいて、移動体挙動判定部31によって自車両1の回転量を算出できる。これにより、車両挙動検出システムは、低い計算負荷で自車両1の挙動を求めることができる。   Furthermore, according to this vehicle behavior detection system, the amount of rotation of the host vehicle 1 can be calculated by the moving body behavior determination unit 31 based on the movement of the feature points included in the rear captured image captured by the rear imaging camera 13. Thereby, the vehicle behavior detection system can obtain the behavior of the host vehicle 1 with a low calculation load.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

すなわち、上述した車両挙動検出システムは、自車両1の挙動を検出するものについて説明したが、他の移動体、例えばロボット等の挙動を検出するものであっても良い。   That is, although the above-described vehicle behavior detection system has been described for detecting the behavior of the host vehicle 1, it may be one that detects the behavior of another moving body, such as a robot.

1 自車両
11 演算装置
12 前方撮像カメラ
13 後方撮像カメラ
14 周囲特徴記憶部
21 前方特徴検出部
22 前方位置取得部
23 前方撮像範囲取得部
24 前方特徴選択部
25 前方移動計測部
26 後方特徴検出部
27 後方位置取得部
28 後方撮像範囲取得部
29 後方特徴選択部
30 後方移動計測部
31 移動体挙動判定部
DESCRIPTION OF SYMBOLS 1 Own vehicle 11 Computation device 12 Front imaging camera 13 Back imaging camera 14 Ambient feature memory | storage part 21 Front feature detection part 22 Front position acquisition part 23 Front imaging range acquisition part 24 Front feature selection part 25 Forward movement measurement part 26 Back feature detection part 27 rear position acquisition unit 28 rear imaging range acquisition unit 29 rear feature selection unit 30 backward movement measurement unit 31 moving body behavior determination unit

Claims (6)

移動体に取り付けられ、時間的に連続的した第1画像を撮像する第1撮像手段と、
前記第1撮像手段の撮像方向に対して反対の撮像方向となるよう移動体に取り付けられ、時間的に連続的した第2画像を撮像する第2撮像手段と、
前記第1撮像手段により撮像された第1画像から第1特徴点を検出する第1特徴検出手段と、
前記第2撮像手段により撮像された第2画像から第2特徴量を検出する第2特徴検出手段と、
前記第1特徴検出手段により検出された第1特徴点の移動方向を計測する第1移動計測手段と、
前記第2特徴検出手段により検出された第2特徴点の移動方向を計測する第2移動計測手段と、
前記第1移動計測手段により計測された第1特徴点の移動方向と前記第2移動計測手段により計測された第2特徴点の移動方向とを比較して、当該双方の移動方向が異なる場合には移動体が横方向に移動している判別し、当該双方の移動方向が同じである場合には移動体がヨー方向に移動していると判別する移動体挙動判別手段と
を備えることを特徴とする移動体挙動検出装置。
A first imaging means attached to the moving body and capturing a first image that is temporally continuous;
A second imaging unit that is attached to the moving body so as to be in an imaging direction opposite to the imaging direction of the first imaging unit, and that captures a second image that is temporally continuous;
First feature detection means for detecting a first feature point from a first image imaged by the first imaging means;
Second feature detection means for detecting a second feature amount from the second image imaged by the second imaging means;
First movement measuring means for measuring a moving direction of the first feature point detected by the first feature detecting means;
Second movement measuring means for measuring the moving direction of the second feature point detected by the second feature detecting means;
When the moving direction of the first feature point measured by the first movement measuring unit and the moving direction of the second feature point measured by the second movement measuring unit are compared, and the two moving directions are different Comprises a moving body behavior determining means for determining whether the moving body is moving in the lateral direction, and determining that the moving body is moving in the yaw direction when both moving directions are the same. A moving body behavior detection device.
予め設定された移動体の周囲における特徴点及び当該特徴点の位置情報を取得する周囲特徴取得手段と、
前記移動体の位置を推定する位置推定手段と、
前記位置推定手段により推定された移動体の位置と、前記第1撮像手段の取付位置とに基づいて、前記第1撮像手段の第1撮像範囲を取得する第1撮像範囲取得手段と、
前記位置推定手段により推定された移動体の位置と、前記第2撮像部の取付位置に基づいて、前記第2撮像部の第2撮像範囲を取得する第2撮像範囲取得手段と、
前記周囲特徴取得手段により取得された位置情報と前記第1撮像範囲とを比較して、当該第1撮像範囲に含まれる特徴点を選択する第1特徴選択手段と、
前記周囲特徴取得手段により取得された位置情報と前記第2撮像範囲とを比較して、当該第2撮像範囲に含まれる特徴点を選択する第2特徴選択手段と、
前記第1移動計測手段は、前記第1撮像手段により撮像された第1画像に含まれる特徴点と、前記第1特徴選択手段により選択された特徴点とから、前記第1特徴点の移動方向を算出し、
前記第2移動計測手段は、前記第2撮像手段により撮像された第2画像に含まれる特徴点と、前記第2特徴択手段により選択された特徴点とから前記第2特徴点の移動方向を算出することを
を特徴とする請求項1に記載の移動体挙動検出装置。
Surrounding feature acquisition means for acquiring feature points around the preset moving body and position information of the feature points;
Position estimating means for estimating the position of the moving body;
First imaging range acquisition means for acquiring a first imaging range of the first imaging means based on the position of the moving body estimated by the position estimation means and the mounting position of the first imaging means;
Second imaging range acquisition means for acquiring the second imaging range of the second imaging section based on the position of the moving body estimated by the position estimation means and the mounting position of the second imaging section;
A first feature selection unit that compares the position information acquired by the surrounding feature acquisition unit with the first imaging range and selects a feature point included in the first imaging range;
A second feature selection unit that compares the position information acquired by the surrounding feature acquisition unit with the second imaging range and selects a feature point included in the second imaging range;
The first movement measuring means is a moving direction of the first feature point from a feature point included in the first image picked up by the first image pickup means and a feature point selected by the first feature selection means. To calculate
The second movement measuring means determines a moving direction of the second feature point from a feature point included in the second image picked up by the second image pickup means and a feature point selected by the second feature selection means. The mobile body behavior detection device according to claim 1, wherein the mobile body behavior detection device is calculated.
前記移動体挙動判別手段は、前記第1撮像手段により撮像された第1撮像画像内における第1特徴点の動きと、前記第2撮像手段より撮像された第2撮像画像内における第2特徴点の動きとの差分に基づいて、移動体の回転量を算出することを特徴とする請求項1に記載の移動体挙動検出装置。   The moving body behavior determination unit includes a movement of the first feature point in the first captured image captured by the first imaging unit and a second feature point in the second captured image captured by the second imaging unit. The moving body behavior detecting apparatus according to claim 1, wherein the amount of rotation of the moving body is calculated based on a difference from the movement of the moving body. 前記第2撮像手段は、前記第1撮像手段の撮像方向に対して90度方向の画像を撮像することを特徴とする請求項1に記載の移動体挙動検出装置。   The moving body behavior detection apparatus according to claim 1, wherein the second imaging unit captures an image in a direction 90 degrees with respect to an imaging direction of the first imaging unit. 前記移動体挙動判別手段は、前記第2撮像手段により撮像された後方撮像画像に含まれる特徴点の動きに基づいて、移動体の回転量を算出することを特徴とする請求項4に記載の移動体挙動検出装置。   The said moving body behavior discrimination | determination means calculates the rotation amount of a moving body based on the motion of the feature point contained in the back captured image imaged by the said 2nd imaging means. Moving body behavior detection device. 移動体の第1方向に含まれる第1特徴点と、当該第1方向とは異なる第2方向に含まれる第2特徴点とを計測し、
移動体の第1方向に含まれる第1特徴点の移動方向と、移動体の第2方向に含まれる第2特徴点の移動方向とを比較して、
当該双方の移動方向が異なる場合には移動体が横方向に移動している判別し、当該双方の移動方向が同じである場合には移動体がヨー方向に移動していると判別すること
を特徴とする移動体挙動検出方法。
Measuring a first feature point included in the first direction of the moving body and a second feature point included in a second direction different from the first direction;
The moving direction of the first feature point included in the first direction of the moving body is compared with the moving direction of the second feature point included in the second direction of the moving body,
If the two moving directions are different, it is determined that the moving body is moving in the lateral direction, and if both moving directions are the same, it is determined that the moving body is moving in the yaw direction. A moving body behavior detection method characterized.
JP2010124171A 2010-05-31 2010-05-31 Moving body behavior detecting apparatus and method Active JP5604987B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010124171A JP5604987B2 (en) 2010-05-31 2010-05-31 Moving body behavior detecting apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010124171A JP5604987B2 (en) 2010-05-31 2010-05-31 Moving body behavior detecting apparatus and method

Publications (2)

Publication Number Publication Date
JP2011248830A true JP2011248830A (en) 2011-12-08
JP5604987B2 JP5604987B2 (en) 2014-10-15

Family

ID=45413967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010124171A Active JP5604987B2 (en) 2010-05-31 2010-05-31 Moving body behavior detecting apparatus and method

Country Status (1)

Country Link
JP (1) JP5604987B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140134351A (en) * 2013-05-13 2014-11-24 한국전자통신연구원 Movement path extraction devices of mutual geometric relations fixed camera group and the method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004032528A (en) * 2002-06-27 2004-01-29 Nissan Motor Co Ltd Image recognition device
JP2006308319A (en) * 2005-04-26 2006-11-09 Advics:Kk Device and method for detecting slip angle of car body, and motion controller unit for car equipped with same
JP2009074859A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Motion measuring device and position measuring device
JP2009181492A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Analyzer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004032528A (en) * 2002-06-27 2004-01-29 Nissan Motor Co Ltd Image recognition device
JP2006308319A (en) * 2005-04-26 2006-11-09 Advics:Kk Device and method for detecting slip angle of car body, and motion controller unit for car equipped with same
JP2009074859A (en) * 2007-09-19 2009-04-09 Toyota Central R&D Labs Inc Motion measuring device and position measuring device
JP2009181492A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Analyzer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140134351A (en) * 2013-05-13 2014-11-24 한국전자통신연구원 Movement path extraction devices of mutual geometric relations fixed camera group and the method
KR102077498B1 (en) * 2013-05-13 2020-02-17 한국전자통신연구원 Movement path extraction devices of mutual geometric relations fixed camera group and the method

Also Published As

Publication number Publication date
JP5604987B2 (en) 2014-10-15

Similar Documents

Publication Publication Date Title
JP6107081B2 (en) Image processing apparatus, image processing method, and program
JP5782708B2 (en) Driving support device
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
JP2018512593A (en) Object position measurement with in-vehicle camera using vehicle movement data
JP2014034251A (en) Vehicle traveling control device and method thereof
JP5699670B2 (en) Travel route generation device and travel route generation method
JP2024025803A (en) Vehicle utilizing space information acquired using sensor, sensing device utilizing space information acquired using sensor, and server
JP6171593B2 (en) Object tracking method and system from parallax map
JP2009041972A (en) Image processing device and method therefor
JP2009180536A (en) Image processing apparatus, image processing method, and program
CN109443348A (en) It is a kind of based on the underground garage warehouse compartment tracking for looking around vision and inertial navigation fusion
US10110822B2 (en) Method for tracking at least one object and method for replacing at least one object by a virtual object in a moving image signal recorded by a camera
JP7067574B2 (en) Distance estimation device and computer program for distance estimation
JP2011141221A (en) Positioning device and positioning method
KR20150112536A (en) Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same
JP5652239B2 (en) Motion estimation apparatus and program
JP7145770B2 (en) Inter-Vehicle Distance Measuring Device, Error Model Generating Device, Learning Model Generating Device, Methods and Programs Therefor
JP6699323B2 (en) Three-dimensional measuring device and three-dimensional measuring method for train equipment
JP5604987B2 (en) Moving body behavior detecting apparatus and method
JP2012517055A (en) Method and apparatus for operating a vehicle driver assistance system based on video
JP6988873B2 (en) Position estimation device and computer program for position estimation
JP2013186718A (en) Mobile object position attitude estimation device and method
Buczko et al. Self-validation for automotive visual odometry
JP2019007739A (en) Self position estimation method and self position estimation device
JP2021017073A (en) Position estimation apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140811

R151 Written notification of patent or utility model registration

Ref document number: 5604987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151