JP2007200074A - Peripheral object tracking device and peripheral object position prediction method - Google Patents

Peripheral object tracking device and peripheral object position prediction method Download PDF

Info

Publication number
JP2007200074A
JP2007200074A JP2006018614A JP2006018614A JP2007200074A JP 2007200074 A JP2007200074 A JP 2007200074A JP 2006018614 A JP2006018614 A JP 2006018614A JP 2006018614 A JP2006018614 A JP 2006018614A JP 2007200074 A JP2007200074 A JP 2007200074A
Authority
JP
Japan
Prior art keywords
vehicle
curvature
current
calculated
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006018614A
Other languages
Japanese (ja)
Other versions
JP4817854B2 (en
Inventor
Hiroshi Mori
大志 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2006018614A priority Critical patent/JP4817854B2/en
Publication of JP2007200074A publication Critical patent/JP2007200074A/en
Application granted granted Critical
Publication of JP4817854B2 publication Critical patent/JP4817854B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a peripheral object tracking device and a peripheral object position prediction method capable of keeping the tracking of a peripheral object more appropriately even if traveling on a winding section on a road. <P>SOLUTION: A position after Δ time of a monitoring target is predicted according to the vehicle velocity of an own vehicle at present, a curvature radius, and the curvature center of traveling on the one hand, and the vehicle velocity of the monitoring target at present, a curvature radius, and the curvature center of the traveling on the other. The curvature radius and the curvature center of the own vehicle are obtained as a curvature radius and the curvature center of a point on the road corresponding to a current position on the road indicated by map data which are calculated by a current position calculation part 12. Also, the curvature radius and the curvature center at present of the monitoring target are obtained as a curvature radius and the curvature center of a point on the road corresponding to the current position of the monitoring target on the road indicated by the map data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、自動車に搭載された車載装置において周辺物体を検出する技術に関するものである。   The present invention relates to a technique for detecting a peripheral object in an in-vehicle device mounted on an automobile.

動車に搭載された車載装置において周辺物体を検出する技術としては、レーダ装置を用いて周辺物体の位置を検出し、カメラを用いて撮影した画像中のレーダ装置を用いて検出した周辺物体の位置に対応する画像領域を対象として所定の画像認識処理を行うことにより自車前方の他車を検出する技術が知られている(たとえば、特許文献1)。この技術によれば、カメラを用いて撮影した画像全体に対して画像認識処理を行う必要を無くし、効率的に他車を検出できるようになる。
特開平9-161063号公報
As a technique for detecting a peripheral object in an in-vehicle device mounted on a moving vehicle, the position of the peripheral object is detected using the radar device in the image captured by the camera by detecting the position of the peripheral object using the radar device. A technique for detecting another vehicle ahead of the host vehicle by performing a predetermined image recognition process on an image region corresponding to is known (for example, Patent Document 1). According to this technique, it is not necessary to perform image recognition processing on the entire image photographed using the camera, and other vehicles can be detected efficiently.
Japanese Patent Laid-Open No. 9-161063

さて、前述した特許文献1の技術などによって検出した周辺物体を追尾する場合、他車である周辺物体や自車がカーブなどの道路の屈曲区間を走行していると、周辺物体がカメラの撮影領域外に逸脱したり、周辺物体の自車に対する相対位置の変化が大きすぎたりするために、当該周辺物体を追尾し続けられなくなることがある。   Now, when tracking a peripheral object detected by the technique of Patent Document 1 described above, if a peripheral object that is another vehicle or the host vehicle is traveling on a curved section of a road such as a curve, the peripheral object is captured by a camera. There are cases in which the surrounding object cannot continue to be tracked because it deviates out of the area or the relative position of the surrounding object changes too much.

そこで、本発明は、他車である周辺物体や自車がカーブなどの道路の屈曲区間を走行している場合にも、当該周辺物体をより適正に追尾し続けることのできる周辺物体追尾装置を提供することを課題とする。   Accordingly, the present invention provides a peripheral object tracking device that can continue to track a peripheral object more appropriately even when the peripheral object that is another vehicle or the host vehicle is traveling on a curved section of a road such as a curve. The issue is to provide.

前記課題達成のために、本発明は、自動車に搭載され、前記自動車周辺の物体の位置を追尾する周辺物体追尾装置に、前記自動車の現在の移動の車速と曲率とを検知する自車移動情報算出手段と、前記自動車の周辺に存在する物体の自車に対する相対位置を検知する周辺物体検知手段と、前記自動車が現在より所定時間、前記自車移動情報算出手段が検知した車速と曲率をもって移動を継続した場合の前記自動車の位置の変化を自車位置変化として算出し、算出した自車位置変化に従って、前記周辺物体検知手段が相対位置を検知した物体の、前記所定時間経過後の、前記自動車に対する相対位置を予測する物体位置予測手段と、前記物体位置予測手段が予測した前記物体の相対位置を用いて当該物体の追尾を行う追尾手段とを備えたものである。   In order to achieve the above object, the present invention provides a vehicle movement information for detecting a vehicle speed and a curvature of a current movement of the vehicle in a peripheral object tracking device that is mounted on the vehicle and tracks the position of an object around the vehicle. A calculation means; a peripheral object detection means for detecting a relative position of an object existing around the automobile with respect to the own vehicle; and the automobile moves with a vehicle speed and a curvature detected by the own vehicle movement information calculation means for a predetermined time from the present time. The change in the position of the automobile when the vehicle is continued is calculated as a change in the vehicle position, and the object detected by the surrounding object detection unit according to the calculated change in the vehicle position after the predetermined time has passed. An object position predicting unit that predicts a relative position with respect to an automobile; and a tracking unit that tracks the object using the relative position of the object predicted by the object position predicting unit. That.

ここで、このような周辺物体追尾装置は、より具体的には、前記自車移動情報算出手段を、前記自動車の現在位置を算出する現在位置算出部と、前記現在位置算出部が算出した現在位置が位置する道路の、当該現在位置に対応する地点の曲率を、前記自動車の現在の移動の曲率として、道路地図を表す地図データに基づいて算定する自車移動曲率算定部とより構成するようにしてもよい。または、前記自車移動情報算出手段を、前記自動車の車速と進行方位変化の角速度を検出し、検出した車速と角速度とより前記自動車の走行の軌跡を算出する走行軌跡算出部と、前記走行軌跡算出部が算出した走行の軌跡の、当該走行軌跡上の現時点の前記自動車の位置に対応する位置の曲率を、前記自動車の現在の移動の曲率として算定する自車移動曲率算定部とより構成するようにしてもよい。   More specifically, such a peripheral object tracking device is more specifically configured such that the own vehicle movement information calculation means includes a current position calculation unit that calculates a current position of the vehicle, and a current value calculated by the current position calculation unit. A curvature of a point corresponding to the current position of the road where the position is located is configured as a curvature of the current movement of the vehicle and a vehicle movement curvature calculation unit that calculates based on map data representing a road map. It may be. Alternatively, the vehicle movement information calculating means detects a vehicle speed of the vehicle and an angular velocity of the traveling direction change, and calculates a travel locus of the vehicle from the detected vehicle speed and angular velocity, and the travel locus The vehicle trajectory calculated by the calculation unit includes a curvature of a position corresponding to the current position of the vehicle on the travel trajectory, and a vehicle movement curvature calculation unit that calculates the curvature of the current movement of the vehicle. You may do it.

これらのような周辺物体追尾装置によれば、自車の移動の速度や曲率を考慮して、将来の周辺物体の自車に対する相対位置を予測するので、自車がカーブなどの道路の屈曲区間を移動している場合にも、当該周辺物体の将来の相対位置を精度よく予測し、当該周辺物体をより適正に追尾し続けることができる。   According to the surrounding object tracking devices such as these, the relative position of the future surrounding object with respect to the own vehicle is predicted in consideration of the moving speed and curvature of the own vehicle. Even when the user is moving, the future relative position of the surrounding object can be accurately predicted, and the surrounding object can be tracked more appropriately.

また、前記課題達成のために、本発明は、自動車に搭載され、前記自動車周辺の物体の位置を追尾する周辺物体追尾装置を、前記自動車の周辺に存在する物体の自車に対する相対位置を検知する周辺物体検知手段と、前記周辺物体検知手段が相対位置を検知した物体の現在の移動の速度と曲率を算出する周辺物体移動情報算出手段と、前記周辺物体検知手段が相対位置を検知した物体が、現在より所定時間、前記周辺物体移動情報算出手段が算出した車速と曲率をもって移動を継続した場合の当該物体の位置の変化を物体位置変化として算出し、算出した物体位置変化に従って、当該物体の前記所定時間経過後の前記自動車に対する相対位置を予測する物体位置予測手段と、前記物体位置予測手段が予測した物体の相対位置を用いて当該物体の追尾を行う追尾手段とを含めて構成したものである。   In order to achieve the above object, the present invention provides a peripheral object tracking device that is mounted on an automobile and tracks the position of an object around the automobile, and detects the relative position of the object existing around the automobile to the own vehicle. A surrounding object detection means, a surrounding object movement information calculation means for calculating the current movement speed and curvature of the object whose relative position is detected by the surrounding object detection means, and an object whose relative position is detected by the surrounding object detection means Calculates a change in the position of the object when the movement is continued with the vehicle speed and curvature calculated by the surrounding object movement information calculation means for a predetermined time from the present time, and calculates the object position according to the calculated object position change. Object position predicting means for predicting a relative position with respect to the automobile after the predetermined time elapses, and using the relative position of the object predicted by the object position predicting means It is constructed by including a tracking means for performing tracking.

ここで、このような周辺物体追尾装置は、より具体的には、前記周辺物体移動情報算出手段を、前記周辺物体検知手段が相対位置を検知した物体の現在位置を算出する現在位置算出部と、前記現在位置算出部が算出した現在位置が位置する道路の、当該現在位置に対応する地点の曲率を、前記周辺物体検知手段が相対位置を検知した物体の現在の移動の曲率として、道路地図を表す地図データに基づいて算定する周辺物体移動曲率算定部とより構成してもよい。または、前記周辺物体移動情報算出手段を、前記周辺物体検知手段が相対位置を検知した物体の現在位置を算出する現在位置算出部と、前記現在位置算出部が算出した現在位置の推移より、当該物体の移動の軌跡を算出する移動軌跡算出部と、前記移動軌跡算出部が算出した移動の軌跡の、当該移動の軌跡上の現時点の前記周辺物体検知手段が相対位置を検知した物体の現在位置に対応する位置の曲率を、前記周辺物体検知手段が相対位置を検知した物体の曲率として算定する周辺物体移動曲率算定部とより構成するようにしてもよい。   Here, such a peripheral object tracking device, more specifically, the peripheral object movement information calculation unit includes a current position calculation unit that calculates a current position of an object whose relative position is detected by the peripheral object detection unit. The road map where the current position calculated by the current position calculation unit is the curvature of the point corresponding to the current position is used as the curvature of the current movement of the object whose relative position is detected by the surrounding object detection means. And a peripheral object moving curvature calculating unit that calculates based on map data representing Alternatively, the peripheral object movement information calculating unit may be configured to calculate a current position of the object whose relative position is detected by the peripheral object detecting unit and a transition of the current position calculated by the current position calculating unit, A movement trajectory calculation unit that calculates a trajectory of movement of the object, and a current position of the object of the movement trajectory calculated by the movement trajectory calculation unit that is detected by the surrounding object detection unit at the present time on the movement trajectory The peripheral object moving curvature calculating unit that calculates the curvature of the position corresponding to the above as the curvature of the object whose relative position is detected by the peripheral object detecting means may be configured.

これらのような周辺物体追尾装置によれば、周辺物体の移動の速度や曲率を考慮して、将来の周辺物体の自車に対する相対位置を予測するので、周辺物体がカーブなどの道路の屈曲区間を移動している場合にも、当該周辺物体の将来の相対位置を精度よく予測し、当該周辺物体をより適正に追尾し続けることができる。   According to the peripheral object tracking devices such as these, the relative position of the future peripheral object with respect to the vehicle is predicted in consideration of the speed and curvature of movement of the peripheral object. Even when the user is moving, the future relative position of the surrounding object can be accurately predicted, and the surrounding object can be tracked more appropriately.

なお、以上の各周辺物体追尾装置の構成は、これを組み合わせてもよい。
また、以上の各周辺物体追尾装置における、前記周辺物体検知手段が相対位置を検知した物体の、前記所定時間経過後の、前記自動車に対する相対位置を予測する技術は、自動車周辺の物体の物体位置の追尾の他の任意の用途に同様に適用することができる。
In addition, you may combine this for the structure of each above-mentioned surrounding object tracking apparatus.
Further, in each of the peripheral object tracking devices described above, the technology for predicting the relative position of the object detected by the peripheral object detection unit with respect to the automobile after the lapse of the predetermined time is the object position of the object around the automobile. It can be similarly applied to any other use of tracking.

以上のように、本発明によれば、他車である周辺物体や自車がカーブなどの道路の屈曲区間を走行している場合にも、当該周辺物体をより適正に追尾し続けることができる。   As described above, according to the present invention, even when a peripheral object that is another vehicle or the host vehicle is traveling on a curved section of a road such as a curve, the peripheral object can be tracked more appropriately. .

以下、本発明の実施形態について説明する。
図1に、本実施形態に係る周辺監視システムの構成を示す。
この、周辺監視システムは自動車に搭載されるシステムであり、図示するように、周辺監視装置1、GPS受信機2、車速センサ3、角速度センサ4、レーダ装置やカメラなどの周辺状況を検知する周辺物センサ5、周辺物センサ5が周辺状況を検知する範囲である走査領域を調整する走査領域調整部6、ユーザに対して情報を出力するために用いる表示装置やスピーカなどである出力装置7とを備えている。ここで、車速センサ3は車速パルスセンサなどの自動車の車速を検出するセンサであり、角速度センサ4は角加速度や地磁気方向などより自動車の進行方位角変更速度を検出するセンサである。
Hereinafter, embodiments of the present invention will be described.
FIG. 1 shows the configuration of the periphery monitoring system according to the present embodiment.
This peripheral monitoring system is a system mounted on an automobile. As shown in the drawing, the peripheral monitoring system 1, the GPS receiver 2, the vehicle speed sensor 3, the angular velocity sensor 4, a peripheral device for detecting peripheral conditions such as a radar device and a camera. An object sensor 5, a scanning area adjustment unit 6 that adjusts a scanning area that is a range in which the surrounding object sensor 5 detects a surrounding situation, an output device 7 that is a display device, a speaker, or the like used to output information to a user; It has. Here, the vehicle speed sensor 3 is a sensor that detects the vehicle speed of the automobile such as a vehicle speed pulse sensor, and the angular speed sensor 4 is a sensor that detects the traveling azimuth angle changing speed of the automobile from the angular acceleration, the geomagnetic direction, and the like.

また、周辺監視装置1は、地図データを記憶したDVDドライブやHDDなどの記憶装置である地図データ記憶部11、現在位置算出部12、走行軌跡算出部13、物標検出部14、物標追尾部15、監視物標算定部16、監視領域設定部17とを備えている。
但し、以上の周辺監視装置1は、ハードウエア的には、マイクロプロセッサや、メモリや、その他の周辺デバイスを有する一般的な構成を備えたCPU回路であって良く、この場合、以上に示した周辺監視装置1の各部は、マイクロプロセッサが予め用意されたプログラムを実行することにより具現化するプロセスとして実現されるものであって良い。
In addition, the periphery monitoring device 1 includes a map data storage unit 11 that is a storage device such as a DVD drive or HDD that stores map data, a current position calculation unit 12, a travel locus calculation unit 13, a target detection unit 14, and a target tracking. Unit 15, monitoring target calculation unit 16, and monitoring area setting unit 17.
However, the peripheral monitoring device 1 described above may be a CPU circuit having a general configuration including a microprocessor, a memory, and other peripheral devices in terms of hardware. Each unit of the periphery monitoring device 1 may be realized as a process embodied by a microprocessor executing a program prepared in advance.

さて、このような構成において、現在位置算出部12は、GPS受信機2の出力や、車速センサ3や各速度センサの出力から推定される現在の自車の位置と、地図データ記憶部11から読み出した地図データを用いたマップマッチング処理を行って、自車の現在の位置として最も確からしい位置を現在位置として算定する処理を繰り返し行う。   Now, in such a configuration, the current position calculation unit 12 includes the current vehicle position estimated from the output of the GPS receiver 2, the output of the vehicle speed sensor 3 and each speed sensor, and the map data storage unit 11. The map matching process using the read map data is performed, and the process of calculating the most probable position as the current position of the own vehicle is repeatedly performed.

また、走行軌跡算出部13は、車速センサ3が検出した車速と角速度センサ4が検出した角速度より自車の走行軌跡を算出し保持する。
次に、物標検出部14は、周辺物センサ5が検知した周辺状況に応じて、周辺に存在する物体の自車に対する相対位置や自車に対する相対速度ベクトルを物標情報として算定する処理を繰り返し行う。
そして、物標追尾部15は、以下に示す追尾処理を繰り返し行う。すなわち、物標追尾部15は、各回の追尾処理において、物標検出部14が算定した物標情報を取得し、同じ物体についての物標情報を追尾し、物体の識別子を表すラベルを当該物体の物標情報に与えて監視物標算定部16と監視領域設定部17に出力する。すなわち、物標追尾部15は、第n回の追尾処理において、ある物標情報に対してラベルaを与えた場合、ラベルaを与えた物標情報が物体aの物標情報であるとして、第n回または第n回までの物体aの物標情報が示す物体aの相対位置や相対速度から予測される物体aの第n+1回の追尾処理実行時点における相対位置や相対速度を予測物標情報として求め、求めた予測物標情報が示す相対位置や相対速度に近似する相対位置や相対速度を表す物標情報が第n+1回の追尾処理において取得された場合、当該取得した物標情報は、物体aの物標情報であるとしてとしてラベルaを与え監視物標算定部16と監視領域設定部17に出力する。ただし、後述する監視物標ラベルとして通知されたラベルを与えた物標情報については、当該監視物標ラベルの取消が通知されるまで、監視領域設定部17から通知された監視物標予測位置を、前述した予測物標情報の予測位置として用いる。
The travel locus calculation unit 13 calculates and holds the travel locus of the host vehicle from the vehicle speed detected by the vehicle speed sensor 3 and the angular velocity detected by the angular velocity sensor 4.
Next, the target detection unit 14 calculates a relative position of an object existing in the vicinity with respect to the own vehicle and a relative speed vector with respect to the own vehicle as target information in accordance with the surrounding situation detected by the surrounding object sensor 5. Repeat.
And the target tracking part 15 repeats the tracking process shown below. That is, the target tracking unit 15 acquires the target information calculated by the target detection unit 14 in each tracking process, tracks the target information for the same object, and displays a label indicating the identifier of the object. To the monitoring target calculation unit 16 and the monitoring area setting unit 17. That is, in the n-th tracking process, the target tracking unit 15 assumes that the target information given the label a is the target information of the object a when the label a is given to certain target information. Predict the relative position and relative speed of the object a at the n + 1th tracking processing execution point predicted from the relative position and relative speed of the object a indicated by the target information of the object a up to the n-th or n-th. Obtained as target information, and when the target information representing the relative position or relative speed approximated to the relative position or relative speed indicated by the obtained predicted target information is obtained in the (n + 1) th tracking process, the obtained information is obtained. The target information is output to the monitoring target calculation unit 16 and the monitoring area setting unit 17 by giving the label a as the target information of the object a. However, for target information given a label notified as a monitoring target label, which will be described later, until the cancellation of the monitoring target label is notified, the monitoring target prediction position notified from the monitoring area setting unit 17 is used. , And used as the predicted position of the aforementioned predicted target information.

なお、第n+1回の追尾処理において与えるべきラベルが存在しなかった物標情報については、第n+1回の追尾処理において初めて物標情報が算出された物体についての物標情報であるとして新たなラベルを与え、監視物標算定部16と監視領域設定部17に出力する。   The target information for which there is no label to be given in the (n + 1) th tracking process is the target information for the object for which the target information is calculated for the first time in the (n + 1) th tracking process. As a new label and output to the monitoring target calculation unit 16 and the monitoring area setting unit 17.

次に、監視物標算定部16は、監視物標を設定していないときには、監視物標設定処理を繰り返し行う。すなわち、監視物標算定部16は、各回の監視物標設定処理において、物標追尾部15からラベルが与えられた各物標情報を取得し、取得した物標情報から、あらかじめ定めた基準に従って監視対象として設定すべき物体が自車周辺に存在するかどうかを調べ、存在する場合には、その存在した物体を監視物標として設定し、監視物標の物標情報に与えられたラベルを監視物標ラベルとして設定し、物標追尾部15と監視領域設定部17に通知する。すなわち、たとえば、監視物標算定部16は、物標追尾部15から取得したラベルbが与えられた物標情報が物体bの物標情報であるとして、今回または今回までに取得した物体bの物標情報が示す相対位置や相対速度ベクトルまたはその推移が、物体bの自車への所定距離内の接近を表していたり、物体bの自車への近い将来の所定距離内の接近を予測させるものである場合に、物体bを監視物標とし、ラベルbを監視物標ラベルとする。   Next, when the monitoring target is not set, the monitoring target calculation unit 16 repeatedly performs the monitoring target setting process. That is, the monitoring target calculation unit 16 acquires each target information given a label from the target tracking unit 15 in each monitoring target setting process, and follows the predetermined standard from the acquired target information. Check whether there is an object to be set as the monitoring target around the vehicle, and if it exists, set the existing object as the monitoring target and set the label given to the target information of the monitoring target. The target label is set and notified to the target tracking unit 15 and the monitoring area setting unit 17. That is, for example, the monitoring target calculation unit 16 assumes that the target information to which the label b acquired from the target tracking unit 15 is given is the target information of the object b. The relative position or relative velocity vector indicated by the target information or the transition thereof represents the approach of the object b within the predetermined distance to the own vehicle, or predicts the approach of the object b within the predetermined distance in the near future to the own vehicle. In this case, the object b is a monitoring target and the label b is a monitoring target label.

また、監視物標算定部16は、監視物標を設定したならば、監視物標監視処理を繰り返し行う。すなわち、監視物標算定部16は、各回の監視物標監視処理において、物標追尾部15からラベルが与えられた各物標情報を取得し、監視物標ラベルを持つ物標情報に基づいて監視物標が、あらかじめ定めた基準に従ってもはや監視する必要のない状態となったかどうかを調べ、監視する必要のない状態となっていれば、監視物標ラベルをクリアし、設定している監視物標ラベルの取消を物標追尾部15と監視領域設定部17に通知する。また、監視物標算定部16は、監視物標ラベルを持つ物標情報に基づいて監視物標が、予め定めた所定の警告対象状態にあるかどうかを調べ、警告対象状態にあれば、所定の警告を出力装置7を用いてユーザに対して出力する。ここで、監視物標が警告対象状態にある状態とは、たとえば、監視物標の物標情報が表す監視物標の相対位置や相対速度ベクトルが、監視物標と自車が衝突する可能性があることを表している状態などである。   Moreover, the monitoring target calculation part 16 will repeatedly perform the monitoring target monitoring process, if the monitoring target is set. That is, the monitoring target calculation unit 16 acquires each target information given a label from the target tracking unit 15 in each monitoring target monitoring process, and based on the target information having the monitoring target label. Check whether the monitoring target is in a state where it is no longer necessary to monitor according to a predetermined standard. If the monitoring target is in a state where monitoring is no longer necessary, the monitoring target label is cleared and the set monitoring target The target tracking unit 15 and the monitoring area setting unit 17 are notified of the cancellation of the target label. Further, the monitoring target calculation unit 16 checks whether the monitoring target is in a predetermined warning target state based on the target information having the monitoring target label. Is output to the user using the output device 7. Here, the state in which the monitoring target is in the warning target state means that, for example, the relative position or relative speed vector of the monitoring target represented by the target information of the monitoring target may collide with the monitoring target and the host vehicle. It is a state that indicates that there is.

次に、監視領域設定部17は、以下に示す監視領域設定処理を行う。
図2に、この監視領域設定処理の手順を示す。
図示するように、監視領域設定部17は、まず、監視領域を予め定めた初期値に設定し、設定した監視領域の中心が走査領域の中心となるように、走査領域調整部6に周辺物センサ5の走査領域を調整させると共に、物標検出部14に監視領域内を対象として物標情報の算定を行わせる(ステップ202)。ここで、監視領域の初期値としては、車両前方を中心とする、周辺物センサ5の走査領域の最大範囲と等しい範囲の領域を用いる。なお、周辺物センサ5が、その走査領域の大きさを調整できるものである場合には、ステップ202において、走査領域調整部6に周辺物センサ5の走査領域を、当該走査領域が監視領域と一致するように調整させるようにしてもよい。
Next, the monitoring area setting unit 17 performs the following monitoring area setting process.
FIG. 2 shows the procedure of the monitoring area setting process.
As shown in the figure, the monitoring area setting unit 17 first sets the monitoring area to a predetermined initial value, and sends a peripheral object to the scanning area adjustment unit 6 so that the center of the set monitoring area becomes the center of the scanning area. The scanning area of the sensor 5 is adjusted, and the target detection unit 14 calculates target information for the monitoring area (step 202). Here, as the initial value of the monitoring area, an area having a range equal to the maximum range of the scanning area of the peripheral object sensor 5 around the front of the vehicle is used. When the peripheral object sensor 5 can adjust the size of the scanning area, in step 202, the scanning area adjustment unit 6 sets the scanning area of the peripheral object sensor 5 to be the monitoring area. You may make it adjust so that it may correspond.

次に、監視領域設定部17は、監視物標算定部16からの監視物標ラベルの通知の発生を監視する(ステップ204)。
そして、監視物標ラベルの通知が発生したならば、自車の現時点の車速と移動の曲率半径と曲率中心を自車情報として取得する(ステップ206)。また、物標追尾部15から最後にまたはこれまでに入力した監視物標ラベルと同じラベルが与えられた物標情報から監視物標の現時点の車速と移動の曲率半径と曲率中心を監視物標情報として算定する(ステップ208)。ここで、この自車情報として取得する自車の移動の曲率半径と曲率中心の算出方法と、監視物標情報として取得する監視物標の曲率半径と曲率中心の算出法については後に説明する。
Next, the monitoring area setting unit 17 monitors the generation of the notification of the monitoring target label from the monitoring target calculating unit 16 (step 204).
If the notification of the monitoring target label is generated, the current vehicle speed, the radius of curvature of movement, and the center of curvature are acquired as own vehicle information (step 206). In addition, from the target information given the same label as the last monitored target label input from the target tracking unit 15, the current vehicle speed, the radius of curvature of movement and the center of curvature of the monitored target are monitored. It is calculated as information (step 208). Here, the calculation method of the curvature radius and the curvature center of the movement of the own vehicle acquired as the own vehicle information, and the calculation method of the curvature radius and the curvature center of the monitoring target acquired as the monitoring target information will be described later.

また、次に、取得した自車情報と監視物標情報に基づいて、微少時間Δt後の監視物標の相対位置を監視物標予測位置として推定する(ステップ210)。また、この監視物標予測位置の推定の詳細についても後に説明する。
そして、推定したΔt後の監視物標の監視物標予測位置を物標追尾部15に通知する(ステップ212)。また、監視物標予測位置を中心とする監視領域を設定し、設定した監視領域の中心が走査領域の中心となるように、走査領域調整部6に周辺物センサ5の走査領域を調整させると共に、物標検出部14に監視領域内を対象として物標情報の算定を行わせる(ステップ214)。なお、このステップ214で、設定する監視物標の大きさは、周辺物センサ5の走査領域の最大範囲より小さい、監視物標のみを監視するために充分な大きさの範囲でとする。
Next, based on the acquired own vehicle information and the monitored target information, the relative position of the monitored target after a minute time Δt is estimated as the monitored target predicted position (step 210). Details of the estimation of the predicted target position will be described later.
The estimated target position of the monitored target after Δt is notified to the target tracking unit 15 (step 212). Further, a monitoring area centered on the monitoring target prediction position is set, and the scanning area adjustment unit 6 adjusts the scanning area of the peripheral object sensor 5 so that the center of the set monitoring area becomes the center of the scanning area. Then, the target detection unit 14 is caused to calculate the target information for the monitoring area (step 214). In this step 214, the size of the monitoring target to be set is set to a range that is smaller than the maximum range of the scanning area of the peripheral object sensor 5 and is large enough to monitor only the monitoring target.

そして、監視物標算定部16からの監視物標ラベルの取消の通知が発生しているかどうかを調べ(ステップ216)、発生していなければステップ206からの処理に戻って監視物標予測位置と監視領域の更新を繰り返し、発生していればステップ202からの処理に戻って監視領域を初期値に復帰する。   Then, it is checked whether or not a notification of cancellation of the monitoring target label from the monitoring target calculation unit 16 has occurred (step 216). If it has not occurred, the processing returns to step 206 and returns to the monitoring target prediction position. The updating of the monitoring area is repeated, and if it has occurred, the process returns to the process from step 202 to return the monitoring area to the initial value.

ここで、以上の監視領域設定処理のステップ206で自車情報として取得する自車の現時点の車速と移動の曲率半径と曲率中心と、ステップ208で監視物標情報として取得する監視物標の現時点の車速と移動の曲率半径と曲率中心の取得法について説明する。
まず、自車の現時点の車速は車速センサ3が表す車速を用いる。また、監視物標の現時点の車速は、物標追尾部15から最後に入力した物標情報が表す自車に対する相対車速ベクトルから自車の車速ベクトルを減じた速度ベクトルを、物標追尾部15の車速ベクトルとすることにより算出する。
Here, the current vehicle speed, the radius of curvature and the curvature center of the host vehicle acquired as the host vehicle information in step 206 of the monitoring area setting process described above, and the current point of the monitoring target acquired as the monitoring target information in step 208 A method of obtaining the vehicle speed, the radius of curvature of movement, and the center of curvature will be described.
First, the vehicle speed represented by the vehicle speed sensor 3 is used as the current vehicle speed of the host vehicle. Further, the current vehicle speed of the monitored target is obtained by subtracting the vehicle speed vector of the vehicle from the relative vehicle speed vector represented by the target information last input from the target tracking unit 15 from the target tracking unit 15. The vehicle speed vector is calculated as follows.

次に、自車の現時点の移動の曲率半径と曲率中心は、走行軌跡算出部13が保持している自車の走行軌跡上の現在位置に対応する位置の曲率半径と曲率中心として求める。この曲率半径と曲率中心は、角速度センサ4が検出した角速度の時間積分値を、自車の走行距離で微分した値を、自車の移動の曲率とすることにより求めることもできる。   Next, the radius of curvature and the center of curvature of the current movement of the host vehicle are obtained as the radius of curvature and the center of curvature of the position corresponding to the current position on the traveling locus of the own vehicle held by the traveling locus calculation unit 13. The radius of curvature and the center of curvature can also be obtained by using the value obtained by differentiating the time integral value of the angular velocity detected by the angular velocity sensor 4 with the traveling distance of the own vehicle as the curvature of movement of the own vehicle.

ただし、自車の現時点の移動の曲率半径は、現在位置算出部12が算出した自車の現在位置に対応する道路上の地点における道路の曲率半径と曲率中心として求めるようにしてもよい。
なお、自車の現時点の移動の曲率半径と曲率中心は、自車の舵角に応じて算出することも可能である。
次に、監視物標の移動の曲率半径と曲率中心は、監視物標の相対位置から自車の現在位置を減じて求まる監視物標の位置の軌跡上の、現在の監視物標の位置に対応する位置の曲率半径と曲率中心として求める。
ただし、監視物標の現時点の移動の曲率半径は、監視物標の位置と地図データを用いたマップマッチング処理を行って求めた監視物標の現在位置に対応する道路上の地点における道路の曲率半径と曲率中心として求めるようにしてもよい。
ここで、現時位置算出部が算出した自車の現在位置やマップマッチング処理を行って求めた監視物標の現在位置に対応する道路上の地点における道路の曲率半径と曲率中心は、たとえば、次のようにしても求めることができる。
すなわち、いま、地図データ記憶部11に記憶された地図データが、図3aに示す道路300を、図3bに示すように、直線であるリンク301を用いて、ノード302で連結するリンク301の集合として定義している場合、現時位置算出部が算出した自車の現在位置やマップマッチング処理を行って求めた監視物標の現在位置はいずれかのリンク上の地点となる。
However, the radius of curvature of the current movement of the host vehicle may be obtained as the radius of curvature and the center of curvature of the road at a point on the road corresponding to the current position of the host vehicle calculated by the current position calculation unit 12.
Note that the radius of curvature and the center of curvature of the current movement of the vehicle can be calculated according to the steering angle of the vehicle.
Next, the radius of curvature and the center of curvature of the movement of the monitoring target are the current monitoring target position on the trajectory of the monitoring target position obtained by subtracting the current position of the host vehicle from the relative position of the monitoring target. Find the radius of curvature and the center of curvature at the corresponding position.
However, the radius of curvature of the current movement of the monitored target is the curvature of the road at the point on the road corresponding to the current position of the monitored target obtained by performing map matching processing using the position of the monitored target and map data. You may make it obtain | require as a radius and a curvature center.
Here, the radius of curvature and the center of curvature of the road at the point on the road corresponding to the current position of the own vehicle calculated by the current position calculation unit and the current position of the monitoring target obtained by performing the map matching process are, for example, It can also be obtained as follows.
That is, the map data stored in the map data storage unit 11 now includes a set of links 301 that connect the road 300 shown in FIG. 3a with a node 302 using a link 301 that is a straight line as shown in FIG. 3b. In this case, the current position of the own vehicle calculated by the current position calculation unit and the current position of the monitoring target obtained by performing the map matching process are points on any link.

そして、リンク上の地点Xに対応する現実の道路上の地点の曲率半径は次のようにして求まる。
すなわち、図3cに示すように、地点Xが、長さLaのリンク313をt:(1-t)に内分する位置である場合には(ただし、0<t<1)、まず、リンク313の地点Xで分割される二つの部分のうちの、長さがtLaである部分に連結するリンク312の長さをLb、長さが(1-t)Laである部分に連結するリンク214の長さをLcとして、
{(1-t)(Lb+La)+t(La+Lc)}/2
を、参照距離Lとして求める。なお、地点Xがリンク313とリンク312を連結するノード上にあれば、t=0として、上式を適用し参照距離Lを求めればよい。
Then, the radius of curvature of the point on the actual road corresponding to the point X on the link is obtained as follows.
That is, as shown in FIG. 3c, when the point X is a position that internally divides the link 313 having the length La into t: (1-t) (however, 0 <t <1), first, the link Of the two parts divided at the point X at 313, the link 312 connected to the part having the length tLa is Lb and the link 214 is connected to the part having the length (1-t) La. Let Lc be the length of
{(1-t) (Lb + La) + t (La + Lc)} / 2
Is obtained as a reference distance L. If the point X is on a node connecting the link 313 and the link 312, t = 0 and the above equation is applied to obtain the reference distance L.

そして、地点Xからのリンクに沿った道のり距離が参照距離Lとなる地点Pと地点Qを設定し、地点Pから地点Xに向かうベクトルと、地点Xから地点Qに向かうベクトルとの方位差θを求め、θ/Lを、地点Xに対応する現実の道路上の地点3132の曲率を表す地点Xの道路曲率として、その曲率半径と曲率中心を求める。   Then, a point P and a point Q where the road distance along the link from the point X is the reference distance L are set, and an azimuth difference θ between the vector from the point P to the point X and the vector from the point X to the point Q And θ / L is used as the road curvature of the point X representing the curvature of the point 3132 on the actual road corresponding to the point X, and the radius of curvature and the center of curvature are obtained.

ここで、上記のように設定した参照距離Lは、地点X周辺のリンクの平均的な長さを表しており、このように地点X周辺のリンクの平均的な長さに応じて参照距離Lを設定することにより、地点Xと同じリンク上に地点Pや地点Qが設定されてしまって曲率を求めることができなくなってしまったり、地点Xが位置するリンクと大きく離れたリンク上に地点Pや地点Qが設定されてしまって地点Xに対応する現実の道路上の地点の曲率とかけはなれた曲率が算出されてしまうことを抑制することができる。   Here, the reference distance L set as described above represents the average length of the links around the point X, and thus the reference distance L according to the average length of the links around the point X. By setting the point P or the point Q on the same link as the point X, it becomes impossible to obtain the curvature, or the point P on the link far away from the link where the point X is located It is possible to suppress the calculation of a curvature that is different from the curvature of the point on the actual road corresponding to the point X because the point Q is set.

次に、図2に示した監視領域設定処理のステップ210において行う監視物標予測位置の推定処理の詳細について説明する。
いま、図4aに示すように時刻tにおける自車の現在位置がP(t)であり、ステップ206で取得した自車情報が示す自車の現時点の車速がVpであり、自車の現時点の移動の曲率半径がR、曲率中心がOp(t)である場合、微少時間Δt経過後の時刻t+Δtの自車の位置は、Op(t)を中心とする半径Rの円上を、中心角がΦp変化する分移動した位置P(t+Δt)として予測される。ここで、Φpは、曲率半径Rより求まる自車の現時点の移動の曲率をKpとして、KpVpΔtとして求まる。
Next, the details of the process of estimating the predicted target position performed in step 210 of the monitoring area setting process shown in FIG. 2 will be described.
Now, as shown in FIG. 4a, the current position of the host vehicle at time t is P (t), the current vehicle speed indicated by the host vehicle information acquired in step 206 is Vp, and the current position of the host vehicle is When the radius of curvature of movement is R and the center of curvature is Op (t), the position of the vehicle at time t + Δt after the minute time Δt has passed is on a circle of radius R centered on Op (t). It is predicted as a position P (t + Δt) that has moved by the change of the central angle by Φp. Here, Φp is obtained as KpVpΔt, where Kp is the curvature of the current movement of the vehicle determined from the curvature radius R.

一方、時刻tにおける監視物標の現在位置がQ(t)であり、ステップ208で取得した監視物標情報が示す監視物標の現時点の車速がVqであり、監視物標の現時点の移動の曲率半径がr、曲率中心がOq(t)である場合、微少時間Δt経過後の時刻t+Δtの監視物標の位置は、Oq(t)を中心とする半径rの円上を、中心角がΦq変化する分移動した位置Q(t+Δt)として予測される。ここで、Φqは、曲率半径rより求まる監視物標の現時点の移動の曲率をKqとして、KqVqΔtとして求まる。   On the other hand, the current position of the monitoring target at time t is Q (t), the current vehicle speed of the monitoring target indicated by the monitoring target information acquired in step 208 is Vq, and the current movement of the monitoring target is When the radius of curvature is r and the center of curvature is Oq (t), the position of the monitored target at time t + Δt after the minute time Δt has passed is centered on a circle of radius r centered on Oq (t). It is predicted as a position Q (t + Δt) that has moved by an angle that changes by Φq. Here, Φq is obtained as KqVqΔt, where Kq is the curvature of the current movement of the monitoring target obtained from the curvature radius r.

そして、時刻t+Δtの監視物標の予測される相対位置である監視物標予測位置を自車位置を基準として示す相対位置ベクトルは、位置P(t+Δt)からQ(t+Δt)へ向かうベクトルとして求めることができる。そして、時刻t+Δtの自車位置P(t+Δt)を原点とし時刻t+Δtの自車進行方位をy方向とし時刻t+Δtの自車左右方向をx方向とする座標系に、この相対位置ベクトルを座標変換することにより、自車位置を原点とし自車進行方位をy方向とし自車左右方向をx方向とする座標系であるxL-yL座標系上の、時刻t+Δtの監視物標予測位置(x0、y0)が座標変換後の相対位置ベクトルによって示される。なお、時刻t+Δtにおける自車進行方位は、時刻tの自車進行方位からΦp変化した方位として求まる。また、この相対位置ベクトルの座標変換は、時刻t+Δtの自車進行方位と、位置Pや位置Qが表される(一般には北をy方向とする)座標系であるxW-yW座標系のy方向との角度差をθとして、-θの回転移動となる。   The relative position vector indicating the predicted target position of the monitored target at time t + Δt with respect to the own vehicle position is Q (t + Δt) from position P (t + Δt). It can be obtained as a vector heading to. A coordinate system in which the vehicle position P (t + Δt) at time t + Δt is the origin, the vehicle traveling direction at time t + Δt is the y direction, and the vehicle left-right direction at time t + Δt is the x direction, By converting the coordinates of this relative position vector, time t + Δt on the xL-yL coordinate system, which is a coordinate system in which the own vehicle position is the origin, the own vehicle traveling direction is the y direction, and the left and right direction of the own vehicle is the x direction. The predicted target position (x0, y0) is indicated by the relative position vector after coordinate conversion. In addition, the own vehicle traveling direction at time t + Δt is obtained as a direction changed by Φp from the own vehicle traveling direction at time t. The coordinate conversion of the relative position vector is performed in the xW-yW coordinate system which is a coordinate system in which the own vehicle traveling direction at time t + Δt and the position P and the position Q are represented (generally, the north is the y direction). The angle difference from the y direction is θ, and the rotation is −θ.

なお、この時刻t+ΔtにおけるxL-yL座標系上の監視物標予測位置(x0、y0)は、実際には次のようにして算出するようにしてよい。
すなわち、図4bに示すように、時刻tにおけるxL-yL座標系上の監視物標の現在位置がLQ(t)、監視物標の時刻tにおける移動の曲率半径がr、時刻tにおけるxL-yL座標系上の監視物標の曲率中心がLOq(t)として求まったならば、まず、xL-yL座標系上で、LOq(t)を中心とする半径rの円上を、中心角をΦq変化する分LQ(t)を移動した位置DQ(t+Δt)を求める。ここで、Φqは、曲率半径rより求まる監視物標の現時点の移動の曲率をKqとして、KqVqΔtとする。
そして、次に、DQ(t+Δt)を、自車の時刻tのxL-yL座標系上の回転中心LOp(t)を中心として、-Φp回転させた位置LQ(t+Δt)を求め、LQ(t+Δt)の位置(x0、y0)を時刻t+ΔtにおけるxL-yL座標系上の監視物標予測位とする。なお、Φpは、曲率半径Rより求まる自車の時刻tの移動の曲率をKpとして、KpVpΔtとして求める。
なお、LOpのxL-yL座標系上の座標を(Cx、Cy)とし、DQ(t+Δt)のxL-yL座標系上の座標を(x、y)として、LOpを中心としてDQ(t+Δt)を角度-Φp回転したLQ(t+Δt)の位置のxL-yL座標系上の座標(x0、y0)は、下式1によって求めることができる。
以上、本発明の実施形態について説明した。
以上のように本実施形態によれば、自車や監視物標の移動の速度や曲率を考慮して、将来の監視物標の自車に対する相対位置を予測するので、自車や監視物標がカーブなどの道路の屈曲区間を移動している場合にも、監視物標の将来の自車に対する相対位置を精度よく予測し、当該監視物標をより適正に追尾し続けることができるようになる。
Note that the predicted target position (x0, y0) on the xL-yL coordinate system at the time t + Δt may actually be calculated as follows.
That is, as shown in FIG. 4b, the current position of the monitoring target on the xL-yL coordinate system at time t is LQ (t), the radius of curvature of movement of the monitoring target at time t is r, and xL− at time t. If the center of curvature of the monitoring target on the yL coordinate system is obtained as LOq (t), first, on the xL-yL coordinate system, on the circle of radius r centering on LOq (t), the center angle is set. A position DQ (t + Δt) obtained by moving LQ (t) by a change of Φq is obtained. Here, Φq is KqVqΔt, where Kq is the curvature of the current movement of the monitored target obtained from the curvature radius r.
Next, a position LQ (t + Δt) obtained by rotating DQ (t + Δt) by −Φp around the rotation center LOp (t) on the xL-yL coordinate system at time t of the vehicle is obtained. , The position (x0, y0) of LQ (t + Δt) is the monitoring target prediction position on the xL-yL coordinate system at time t + Δt. Note that Φp is obtained as KpVpΔt, where Kp is the curvature of movement of the vehicle at time t, which is obtained from the curvature radius R.
Note that the coordinates on the xL-yL coordinate system of LOp are (Cx, Cy), the coordinates on the xL-yL coordinate system of DQ (t + Δt) are (x, y), and DQ (t The coordinates (x0, y0) on the xL-yL coordinate system of the position of LQ (t + Δt) obtained by rotating + Δt) by the angle −Φp can be obtained by the following equation 1.
The embodiment of the present invention has been described above.
As described above, according to the present embodiment, the relative position of the future monitoring target with respect to the own vehicle is predicted in consideration of the moving speed and curvature of the own vehicle and the monitoring target. Even when the vehicle is moving on a curved section of a road such as a curve, the relative position of the monitored target with respect to the vehicle in the future can be accurately predicted, and the monitored target can be tracked more appropriately. Become.

本発明の実施形態に係る周辺監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the periphery monitoring system which concerns on embodiment of this invention. 本発明の実施形態に係る監視領域設定処理を示すフローチャートである。本発明の実施形態に係る曲率算出法を示す図である。It is a flowchart which shows the monitoring area | region setting process which concerns on embodiment of this invention. It is a figure which shows the curvature calculation method which concerns on embodiment of this invention. 本発明の実施形態に係る監視領域設定処理で行う曲率半径と曲率中心の算定法を示す図である。It is a figure which shows the calculation method of the curvature radius and curvature center performed by the monitoring area | region setting process which concerns on embodiment of this invention. 本発明の実施形態に係る監視領域設定処理で行う監視物標の予測位置の算出法を示す図である。It is a figure which shows the calculation method of the predicted position of the monitoring target performed by the monitoring area | region setting process which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1…周辺監視装置、2…GPS受信機、3…車速センサ、4…角速度センサ、5…周辺物センサ、6…走査領域調整部、7…出力装置、11…地図データ記憶部、12…現在位置算出部、13…走行軌跡算出部、14…物標検出部、15…物標追尾部、16…監視物標算定部、17…監視領域設定部。   DESCRIPTION OF SYMBOLS 1 ... Perimeter monitoring apparatus, 2 ... GPS receiver, 3 ... Vehicle speed sensor, 4 ... Angular velocity sensor, 5 ... Peripheral object sensor, 6 ... Scanning area adjustment part, 7 ... Output device, 11 ... Map data storage part, 12 ... Present Position calculation unit, 13 ... traveling locus calculation unit, 14 ... target detection unit, 15 ... target tracking unit, 16 ... monitoring target calculation unit, 17 ... monitoring area setting unit.

Claims (10)

自動車に搭載され、前記自動車周辺の物体の位置を追尾する周辺物体追尾装置であって、
前記自動車の現在の移動の車速と曲率とを検知する自車移動情報算出手段と、
前記自動車の周辺に存在する物体の自車に対する相対位置を検知する周辺物体検知手段と、
前記自動車が現在より所定時間、前記自車移動情報算出手段が検知した車速と曲率をもって移動を継続した場合の前記自動車の位置の変化を自車位置変化として算出し、算出した自車位置変化に従って、前記周辺物体検知手段が相対位置を検知した物体の、前記所定時間経過後の、前記自動車に対する相対位置を予測する物体位置予測手段と、
前記物体位置予測手段が予測した前記物体の相対位置を用いて当該物体の追尾を行う追尾手段とを有することを特徴とする周辺物体追尾装置。
A peripheral object tracking device that is mounted on an automobile and tracks the position of an object around the automobile,
Own vehicle movement information calculating means for detecting the vehicle speed and curvature of the current movement of the automobile;
Surrounding object detection means for detecting a relative position of an object existing around the automobile with respect to the own vehicle;
The change of the position of the automobile when the automobile continues moving with the vehicle speed and curvature detected by the own vehicle movement information calculating means for a predetermined time from the present time is calculated as the own vehicle position change, and according to the calculated own vehicle position change Object position prediction means for predicting the relative position of the object whose peripheral object detection means has detected the relative position with respect to the car after the lapse of the predetermined time;
A peripheral object tracking device comprising: tracking means for tracking the object using the relative position of the object predicted by the object position prediction means.
請求項1記載の周辺物体追尾装置であって、
前記自車移動情報算出手段は、
前記自動車の現在位置を算出する現在位置算出部と、
前記現在位置算出部が算出した現在位置が位置する道路の、当該現在位置に対応する地点の曲率を、前記自動車の現在の移動の曲率として、道路地図を表す地図データに基づいて算定する自車移動曲率算定部とを有することを特徴とする周辺物体追尾装置。
The peripheral object tracking device according to claim 1,
The vehicle movement information calculation means includes
A current position calculating unit for calculating a current position of the automobile;
The own vehicle that calculates the curvature of the point corresponding to the current position of the road on which the current position calculated by the current position calculation unit is located as the current movement curvature of the vehicle based on map data representing a road map A peripheral object tracking device comprising a moving curvature calculation unit.
請求項2記載の周辺物体追尾装置であって、
前記自車移動情報算出手段は、
前記自動車の車速と進行方位変化の角速度を検出し、検出した車速と角速度とより前記自動車の走行の軌跡を算出する走行軌跡算出部と、
前記走行軌跡算出部が算出した走行の軌跡の、当該走行軌跡上の現時点の前記自動車の位置に対応する位置の曲率を、前記自動車の現在の移動の曲率として算定する自車移動曲率算定部とを有することを特徴とする周辺物体追尾装置。
The peripheral object tracking device according to claim 2,
The vehicle movement information calculation means includes
A traveling locus calculating unit that detects the vehicle speed and the angular velocity of the traveling direction change of the vehicle, and calculates a traveling locus of the vehicle from the detected vehicle speed and angular velocity;
An own vehicle movement curvature calculating unit that calculates a curvature of a position of the traveling locus calculated by the traveling locus calculation unit corresponding to the current position of the vehicle on the traveling locus as a curvature of the current movement of the vehicle; A peripheral object tracking device characterized by comprising:
自動車に搭載され、前記自動車周辺の物体の位置を追尾する周辺物体追尾装置であって、
前記自動車の周辺に存在する物体の自車に対する相対位置を検知する周辺物体検知手段と、
前記周辺物体検知手段が相対位置を検知した物体の現在の移動の速度と曲率を算出する周辺物体移動情報算出手段と、
前記周辺物体検知手段が相対位置を検知した物体が、現在より所定時間、前記周辺物体移動情報算出手段が算出した車速と曲率をもって移動を継続した場合の当該物体の位置の変化を物体位置変化として算出し、算出した物体位置変化に従って、当該物体の前記所定時間経過後の前記自動車に対する相対位置を予測する物体位置予測手段と、
前記物体位置予測手段が予測した物体の相対位置を用いて当該物体の追尾を行う追尾手段とを有することを特徴とする周辺物体追尾装置。
A peripheral object tracking device that is mounted on an automobile and tracks the position of an object around the automobile,
Surrounding object detection means for detecting a relative position of an object existing around the automobile with respect to the own vehicle;
A peripheral object movement information calculating means for calculating a current movement speed and curvature of the object whose relative position is detected by the peripheral object detection means;
The change in the position of the object when the peripheral object detection means detects the relative position continues for a predetermined time from the current time with the vehicle speed and curvature calculated by the peripheral object movement information calculation means as the object position change. Object position predicting means for calculating a relative position of the object with respect to the automobile after the predetermined time has elapsed according to the calculated object position change;
A peripheral object tracking device comprising: tracking means for tracking the object using the relative position of the object predicted by the object position prediction means.
請求項1、2または3記載の周辺物体追尾装置であって、
前記周辺物体検知手段が相対位置を検知した物体の現在の移動の速度と曲率を算出する周辺物体移動情報算出手段を有し、
前記物体位置予測手段は、前記自車位置変化を算出すると共に、前記周辺物体検知手段が相対位置を検知した物体が、現在より所定時間、前記周辺物体移動情報算出手段が算出した車速と曲率をもって移動を継続した場合の当該物体の位置の変化を物体位置変化として算出し、算出した自車位置変化と物体位置変化に従って、前記周辺物体検知手段が相対位置を検知した物体の、前記所定時間経過後の、前記自動車に対する相対位置を予測することを特徴とする周辺物体追尾装置。
The peripheral object tracking device according to claim 1, 2, or 3,
The surrounding object detection means has a surrounding object movement information calculation means for calculating the speed and curvature of the current movement of the object whose relative position is detected;
The object position prediction means calculates the vehicle position change, and the object whose relative position is detected by the surrounding object detection means has a vehicle speed and curvature calculated by the surrounding object movement information calculation means for a predetermined time from the present time. The change in the position of the object when the movement is continued is calculated as an object position change, and the predetermined time elapses of the object whose relative position is detected by the surrounding object detection means according to the calculated vehicle position change and the object position change. A peripheral object tracking device that predicts a relative position to the automobile later.
請求項4または5記載の周辺物体追尾装置であって、
前記周辺物体移動情報算出手段は、
前記周辺物体検知手段が相対位置を検知した物体の現在位置を算出する現在位置算出部と、
前記現在位置算出部が算出した現在位置が位置する道路の、当該現在位置に対応する地点の曲率を、前記周辺物体検知手段が相対位置を検知した物体の現在の移動の曲率として、道路地図を表す地図データに基づいて算定する周辺物体移動曲率算定部とを有することを特徴とする周辺物体追尾装置。
A peripheral object tracking device according to claim 4 or 5,
The peripheral object movement information calculation means includes:
A current position calculation unit for calculating a current position of the object whose relative position is detected by the surrounding object detection unit;
The road map is calculated by using the curvature of the road corresponding to the current position of the road where the current position calculated by the current position calculation unit is calculated as the curvature of the current movement of the object detected by the surrounding object detection unit. A peripheral object tracking device comprising: a peripheral object movement curvature calculating unit that calculates based on map data to be expressed.
請求項4または5記載の周辺物体追尾装置であって、
前記周辺物体移動情報算出手段は、
前記周辺物体検知手段が相対位置を検知した物体の現在位置を算出する現在位置算出部と、
前記現在位置算出部が算出した現在位置の推移より、当該物体の移動の軌跡を算出する移動軌跡算出部と、
前記移動軌跡算出部が算出した移動の軌跡の、当該移動の軌跡上の現時点の前記周辺物体検知手段が相対位置を検知した物体の現在位置に対応する位置の曲率を、前記周辺物体検知手段が相対位置を検知した物体の現在の移動の曲率として算定する周辺物体移動曲率算定部とを有することを特徴とする周辺物体追尾装置。
A peripheral object tracking device according to claim 4 or 5,
The peripheral object movement information calculation means includes:
A current position calculation unit for calculating a current position of the object whose relative position is detected by the surrounding object detection unit;
A movement trajectory calculation unit that calculates a trajectory of the movement of the object from the transition of the current position calculated by the current position calculation unit;
The peripheral object detection means calculates the curvature of the position of the movement locus calculated by the movement locus calculation unit corresponding to the current position of the object whose relative position is detected by the surrounding object detection means at the present time. A peripheral object tracking device, comprising: a peripheral object movement curvature calculation unit that calculates a curvature of a current movement of an object whose relative position is detected.
自動車に搭載された車載装置において、前記自動車周辺の物体の位置を予測する周辺物体位置予測方法であって、
前記自動車の現在の移動の車速と曲率とを検知するステップと、
前記自動車の周辺に存在する物体の自車に対する相対位置を検知するステップと、
前記自動車が現在より所定時間、前記検知した車速と曲率をもって移動を継続した場合の前記自動車の位置の変化を自車位置変化として算出し、算出した自車位置変化に従って、前記相対位置を検知した物体の、前記所定時間経過後の、前記自動車に対する相対位置を予測するステップとを有することを特徴とする周辺物体位置予測方法。
In a vehicle-mounted device mounted on an automobile, a surrounding object position prediction method for predicting the position of an object around the automobile,
Detecting the vehicle speed and curvature of the current movement of the vehicle;
Detecting a relative position of an object existing around the vehicle with respect to the vehicle;
A change in the position of the automobile when the automobile continues to move with the detected vehicle speed and curvature for a predetermined time from the present time is calculated as a change in the vehicle position, and the relative position is detected according to the calculated change in the vehicle position. Predicting a relative position of an object relative to the automobile after the predetermined time has elapsed.
自動車に搭載された車載装置において、前記自動車周辺の物体の位置を予測する周辺物体位置予測方法であって、
前記自動車の周辺に存在する物体の自車に対する相対位置を検知するステップと、
前記相対位置を検知した物体の現在の移動の速度と曲率を算出するステップと、
前記相対位置を検知した物体が、現在より所定時間、前記算出した車速と曲率をもって移動を継続した場合の当該物体の位置の変化を物体位置変化として算出し、算出した物体位置変化に従って、前記所定時間経過後の当該物体の前記自動車に対する相対位置を予測するステップとを有することを特徴とする周辺物体位置予測方法。
In a vehicle-mounted device mounted on an automobile, a surrounding object position prediction method for predicting the position of an object around the automobile,
Detecting a relative position of an object existing around the vehicle with respect to the vehicle;
Calculating the speed and curvature of the current movement of the object that has detected the relative position;
When the object that has detected the relative position continues to move with the calculated vehicle speed and curvature for a predetermined time from the current time, a change in the position of the object is calculated as an object position change, and the predetermined position is determined according to the calculated object position change. And predicting a relative position of the object with respect to the automobile after a lapse of time.
請求項8記載の周辺物体位置予測方法であって、
前記相対位置を検知した物体の現在の移動の速度と曲率を算出するステップを有し、
前記相対位置を予測するステップにおいて、前記自車位置変化を算出すると共に、前記相対位置を検知した物体が、現在より所定時間、算出した当該物体の現在の車速と曲率をもって移動を継続した場合の当該物体の位置の変化を物体位置変化として算出し、算出した自車位置変化と物体位置変化に従って、前記周辺物体検知手段が相対位置を検知した物体の、前記所定時間経過後の、前記自動車に対する相対位置を予測することを特徴とする周辺物体位置予測方法。
The surrounding object position prediction method according to claim 8,
Calculating the speed and curvature of the current movement of the object that has detected the relative position;
In the step of predicting the relative position, the vehicle position change is calculated, and the object in which the relative position is detected continues to move with the calculated current vehicle speed and curvature of the object for a predetermined time from the present time. A change in the position of the object is calculated as an object position change, and according to the calculated vehicle position change and the object position change, the object whose relative position is detected by the surrounding object detection unit with respect to the automobile after the predetermined time has elapsed. A surrounding object position prediction method characterized by predicting a relative position.
JP2006018614A 2006-01-27 2006-01-27 Peripheral object tracking device and peripheral object position prediction method Expired - Fee Related JP4817854B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006018614A JP4817854B2 (en) 2006-01-27 2006-01-27 Peripheral object tracking device and peripheral object position prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006018614A JP4817854B2 (en) 2006-01-27 2006-01-27 Peripheral object tracking device and peripheral object position prediction method

Publications (2)

Publication Number Publication Date
JP2007200074A true JP2007200074A (en) 2007-08-09
JP4817854B2 JP4817854B2 (en) 2011-11-16

Family

ID=38454626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006018614A Expired - Fee Related JP4817854B2 (en) 2006-01-27 2006-01-27 Peripheral object tracking device and peripheral object position prediction method

Country Status (1)

Country Link
JP (1) JP4817854B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219389A (en) * 2016-06-06 2017-12-14 地方独立行政法人東京都立産業技術研究センター Object tracking device, object tracking method, and object tracking program
JP2018136240A (en) * 2017-02-23 2018-08-30 三菱電機株式会社 Estimation device, method for estimation, tracking device having estimation device, and method for tracking having method for estimation
JP2018205237A (en) * 2017-06-08 2018-12-27 三菱電機株式会社 Object recognition device, object recognition method, and vehicle control system
CN109425343A (en) * 2017-09-05 2019-03-05 丰田自动车株式会社 This truck position apparatus for predicting

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030628A (en) * 2001-07-18 2003-01-31 Fujitsu Ltd Relative position measuring instrument
JP2003217099A (en) * 2002-01-23 2003-07-31 Mitsubishi Electric Corp On-vehicle surrounding monitoring device
JP2004066912A (en) * 2002-08-05 2004-03-04 Nissan Motor Co Ltd Obstacle detection device for vehicle
JP2004199511A (en) * 2002-12-19 2004-07-15 Denso Corp Obstacle recognition device for vehicle
WO2005020183A1 (en) * 2003-08-20 2005-03-03 Hitachi, Ltd. Device and method for selecting preceding vehicle
JP2006024104A (en) * 2004-07-09 2006-01-26 Honda Motor Co Ltd Road adaptative traveling controller for vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030628A (en) * 2001-07-18 2003-01-31 Fujitsu Ltd Relative position measuring instrument
JP2003217099A (en) * 2002-01-23 2003-07-31 Mitsubishi Electric Corp On-vehicle surrounding monitoring device
JP2004066912A (en) * 2002-08-05 2004-03-04 Nissan Motor Co Ltd Obstacle detection device for vehicle
JP2004199511A (en) * 2002-12-19 2004-07-15 Denso Corp Obstacle recognition device for vehicle
WO2005020183A1 (en) * 2003-08-20 2005-03-03 Hitachi, Ltd. Device and method for selecting preceding vehicle
JP2006024104A (en) * 2004-07-09 2006-01-26 Honda Motor Co Ltd Road adaptative traveling controller for vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219389A (en) * 2016-06-06 2017-12-14 地方独立行政法人東京都立産業技術研究センター Object tracking device, object tracking method, and object tracking program
JP2018136240A (en) * 2017-02-23 2018-08-30 三菱電機株式会社 Estimation device, method for estimation, tracking device having estimation device, and method for tracking having method for estimation
US10705206B2 (en) 2017-02-23 2020-07-07 Mitsubishi Electric Corporation Estimation device, estimation method, tracking device including estimation device, and tracking method including estimation method
JP2018205237A (en) * 2017-06-08 2018-12-27 三菱電機株式会社 Object recognition device, object recognition method, and vehicle control system
CN109425343A (en) * 2017-09-05 2019-03-05 丰田自动车株式会社 This truck position apparatus for predicting
CN109425343B (en) * 2017-09-05 2022-10-18 丰田自动车株式会社 Vehicle position estimation device

Also Published As

Publication number Publication date
JP4817854B2 (en) 2011-11-16

Similar Documents

Publication Publication Date Title
JP5505427B2 (en) Collision position prediction device
US20190347808A1 (en) Monocular Visual Odometry: Speed And Yaw Rate Of Vehicle From Rear-View Camera
JP2009009209A (en) Image recognition device and image recognition processing method
JP6520740B2 (en) Object detection method, object detection device, and program
JP4622544B2 (en) Vehicle driving support device
JP2009181557A (en) Image processor and vehicle detector equipped with the same
JP2008195293A (en) Collision-predicting device
JP7274970B2 (en) Tracking target identification system and tracking target identification method
US20200207340A1 (en) Collision prediction device, collision prediction method, and program
JP2017073073A (en) Information processing device
JP4817854B2 (en) Peripheral object tracking device and peripheral object position prediction method
JP2022023388A (en) Vehicle position determining device
JP2011191894A (en) Driving support apparatus and program
EP3503532A1 (en) Electronic device, imageing system, and program
CN107430821B (en) Image processing apparatus
JP2016197279A (en) Collision avoidance device and collision avoidance system
JP2008190904A (en) Traveling speed estimation device
JP2008021069A (en) Circumference monitoring system
JP2011086139A (en) Device for avoiding collision of vehicle
JP5832850B2 (en) Lane monitoring system and lane monitoring method
CN113424242B (en) Information processing apparatus, computer-readable recording medium, and information processing method
JP4013589B2 (en) Parking type determination device
JP2007333616A (en) Radar measurement system
JP6333437B1 (en) Object recognition processing device, object recognition processing method, and vehicle control system
JP6518951B2 (en) Vehicle-mounted display device, control method of vehicle-mounted display device, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110830

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4817854

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees