JP2016148514A - Mobile object tracking method and mobile object tracking device - Google Patents

Mobile object tracking method and mobile object tracking device Download PDF

Info

Publication number
JP2016148514A
JP2016148514A JP2015023777A JP2015023777A JP2016148514A JP 2016148514 A JP2016148514 A JP 2016148514A JP 2015023777 A JP2015023777 A JP 2015023777A JP 2015023777 A JP2015023777 A JP 2015023777A JP 2016148514 A JP2016148514 A JP 2016148514A
Authority
JP
Japan
Prior art keywords
reference point
detection target
target vehicle
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015023777A
Other languages
Japanese (ja)
Other versions
JP6460822B2 (en
Inventor
直樹 菅沼
Naoki Suganuma
直樹 菅沼
謙太 高橋
Kenta Takahashi
謙太 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa University NUC
Original Assignee
Kanazawa University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa University NUC filed Critical Kanazawa University NUC
Priority to JP2015023777A priority Critical patent/JP6460822B2/en
Publication of JP2016148514A publication Critical patent/JP2016148514A/en
Application granted granted Critical
Publication of JP6460822B2 publication Critical patent/JP6460822B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a mobile object tracking method and a mobile object tracking device with which it is possible to accurately grasp the position, etc., of other vehicles and stably track the other vehicles even when the relative positions of the other vehicles to the vehicle itself change from rear to lateral and further to front.SOLUTION: A mobile object tracking method has: an approximation step for approximating, by a rectangular frame, the whole or partial shape of a vehicle to be detected from point group data acquired in a data acquisition step; a reference point definition step for defining the edges of the rectangular frame approximated in the approximation step as a candidate for the reference point; a prediction step for predicting the position of the vehicle to be detected at a detection time of day; a reference point determination step for selecting a reference point from among a plurality of reference points defined as candidates in the reference point definition step that is positioned closest to a transmission/reception sensor from the position of the vehicle to be detected at the detection time of day that was predicted in the prediction step and the position of the vehicle itself at the detection time of day; and a position calculation step for calculating the position of the vehicle to be detected at the detection time of day using the reference point selected in the reference point determination point.SELECTED DRAWING: Figure 1

Description

本発明は、移動する物体の位置を時系列的に計測する、移動物体追跡方法および移動物体追跡装置に関する。   The present invention relates to a moving object tracking method and a moving object tracking apparatus for measuring the position of a moving object in time series.

特許文献1は、受光した全受光素子の形状の重心位置に基いて、照射したレーザー光の反射光を受光する受光素子を特定することによって、レーザー光の照射方向と受光素子との対応関係を把握する対応関係把握手段を備えた距離測定装置を提案している。
特許文献2は、先行車両のテールランプを検出し、検出したテールランプの重心に追跡エリアの中心を合致させることで先行車両のテールランプを追跡するテールランプ検出装置を提案している。
特許文献1および特許文献2でも開示されているように、特に車両の走行において、レーザーやカメラを用いて、移動物体を追跡することは従来から行われている。
Patent Document 1 specifies the light receiving element that receives the reflected light of the irradiated laser beam based on the position of the center of gravity of the shape of all the light receiving elements that have been received, thereby determining the correspondence between the irradiation direction of the laser light and the light receiving element. A distance measuring device having correspondence grasping means for grasping is proposed.
Patent Document 2 proposes a tail lamp detection device that detects the tail lamp of a preceding vehicle and tracks the tail lamp of the preceding vehicle by matching the center of the tracking area with the center of gravity of the detected tail lamp.
As disclosed in Patent Document 1 and Patent Document 2, tracking a moving object using a laser or a camera has been conventionally performed, particularly when the vehicle is traveling.

特開2003−4850号公報JP 2003-4850 A 特開2011−98579号公報JP 2011-98579 A

単に自車両とその前方を走行する他車両との車間距離を制御する場合には、これら従来の方法で対応できる。
しかし、車線変更や追い越しなどにより自車両が他車両の側方又は前方に位置することになったとしても他車両との間隔を制御し円滑に走行する自動運転を実現するためには、どの方位から他車両を観測しても、他車両の位置、走行方向および速度を正確に把握することが必要となるが、従来の手法では、それまでの追跡基準(重心位置など)に代えて新たな追跡基準を設定することができないか、または新たな追跡基準を設定できたとしてもその前の追跡基準との対応関係が不明なため、他車両の位置を正確に把握することができない。例えば、図6は従来の他車両追跡方法を説明する図である。従来の追跡方法は、重心位置(計測手段1が取得する点群データの平均値)を基準として他車両(検知対象車両A)を追跡するものである。計測手段1が、検知対象車両Aの後方に位置する状態(図6(a)の状態)からやや右に移動した状態(図6(b)の状態)になると、検知対象車両Aの重心位置がZ1からZ2に変更されるため、実際には検知対象車両Aは真直ぐ走行しているにも関わらず、右に方向転換したと誤認識してしまう。
These conventional methods can be used when simply controlling the distance between the host vehicle and another vehicle traveling in front of it.
However, in order to realize automatic driving that smoothly runs by controlling the distance from the other vehicle even if the own vehicle is positioned beside or ahead of the other vehicle due to lane change or overtaking, any direction Even if other vehicles are observed, it is necessary to accurately grasp the position, traveling direction and speed of the other vehicles. However, in the conventional method, a new tracking standard (such as the center of gravity position) is used instead of the previous tracking reference. Even if a tracking reference cannot be set, or a new tracking reference can be set, the correspondence relationship with the previous tracking reference is unknown, so the position of the other vehicle cannot be accurately grasped. For example, FIG. 6 is a diagram for explaining a conventional other vehicle tracking method. The conventional tracking method is to track another vehicle (detection target vehicle A) based on the position of the center of gravity (the average value of the point cloud data acquired by the measuring means 1). When the measuring unit 1 is moved slightly to the right (the state shown in FIG. 6B) from the state positioned behind the detection target vehicle A (the state shown in FIG. 6A), the position of the center of gravity of the detection target vehicle A Is changed from Z1 to Z2, in fact, the detection target vehicle A erroneously recognizes that it has turned to the right despite traveling straight.

そこで本発明は、例えば自車両が他車両を追い越すときのように自車両の他車両に対する位置が、後方から側方、さらに前方へと変わる場合であっても、他車両の位置、走行方向および速度を正確に把握し、安定して他車両を追跡することができる移動物体追跡方法および移動物体追跡装置を提供することを目的とする。   Therefore, the present invention provides the position of the other vehicle, the traveling direction, and the position of the other vehicle even when the position of the own vehicle relative to the other vehicle changes from the rear to the side and further to the front, for example, when the own vehicle overtakes the other vehicle. It is an object of the present invention to provide a moving object tracking method and a moving object tracking apparatus capable of accurately grasping the speed and tracking other vehicles stably.

請求項1記載の本発明の移動物体追跡方法は、レーザーを用いた送受信センサーを自車両に搭載し、前記自車両の周辺を走行する検知対象車両の位置を時系列的に計測する移動物体追跡方法であって、前記送受信センサーによって三次元の点群データを取得するデータ取得ステップと、前記データ取得ステップで取得した前記点群データから、前記検知対象車両の一側面、前記検知対象車両の背面、および前記検知対象車両の前面の内、少なくとも一つの面を一辺とする矩形枠によって前記検知対象車両の一部又は全体の形状を近似する近似ステップと、前記近似ステップで近似した前記矩形枠の角を基準点の候補として定義する基準点定義ステップと、前記検知対象車両について、少なくとも一時刻前の検知対象車両位置と現在の前記検知対象車両位置とから検知時刻での前記検知対象車両位置を予測する予測ステップと、前記予測ステップで予測した前記検知時刻での前記検知対象車両位置と、前記検知時刻での自車両位置とから、前記基準点定義ステップで候補として定義した複数の前記基準点の中から、前記送受信センサーに最も近い位置となる前記基準点を選択する基準点確定ステップと、前記基準点確定ステップで選択した前記基準点を用いて前記検知時刻での前記検知対象車両位置を算出する位置算出ステップとを有することを特徴とする。
請求項2記載の本発明は、請求項1に記載の移動物体追跡方法において、一時刻前の前記検知対象車両位置の算出に用いた前記基準点と、現在の前記検知対象車両位置の算出に用いた前記基準点とを比較する基準点比較ステップを有し、前記基準点比較ステップで前記基準点が異なると判断した場合には、前記矩形枠の枠長さのデータを用いて現在の前記検知対象車両位置の補正を行うことを特徴とする。
請求項3記載の本発明は、請求項1または請求項2に記載の移動物体追跡方法において、 前記矩形枠の一辺の中心点を、更に前記基準点の候補としたことを特徴とする。
請求項4記載の本発明の移動物体追跡装置は、移動する物体の位置を時系列的に計測する移動物体追跡装置であって、送受信センサーによって取得する三次元の点群データから、矩形枠によって前記物体の一部又は全体の形状を近似する近似部と、前記近似部で近似した前記矩形枠の角を基準点の候補として定義する基準点定義部と、前記物体について、少なくとも一時刻前の物体位置と現在の前記物体位置とから検知時刻での前記物体位置を予測する物体位置予測部と、前記物体位置予測部で予測した前記検知時刻での前記物体位置と、前記検知時刻での送受信センサー位置とから、前記基準点定義部で候補として定義した複数の前記基準点の中から、前記送受信センサーに最も近い位置となる前記基準点を選択する基準点確定部と、前記基準点確定部で選択した前記基準点を用いて前記検知時刻での前記物体位置を算出する物体位置算出部とを備えたことを特徴とする。
請求項5記載の本発明は、請求項4に記載の移動物体追跡装置において、前記送受信センサーを自車両に搭載したことを特徴とする。
請求項6記載の本発明は、請求項5に記載の移動物体追跡装置において、前記物体を、前記自車両周辺を走行する車両としたことを特徴とする。
請求項7記載の本発明は、請求項4から請求項6のいずれかに記載の移動物体追跡装置において、一時刻前の前記物体位置の算出に用いた前記基準点と、現在の前記物体位置の算出に用いた前記基準点とを比較する基準点比較部を備え、前記基準点比較部で前記基準点が異なると判断した場合には、前記矩形枠の枠長さのデータを用いて現在の前記物体位置の補正を行うことを特徴とする。
The moving object tracking method of the present invention according to claim 1 is a moving object tracking in which a transmission / reception sensor using a laser is mounted on a host vehicle, and a position of a detection target vehicle traveling around the host vehicle is measured in time series. A data acquisition step of acquiring three-dimensional point cloud data by the transmission / reception sensor, and a side surface of the detection target vehicle from the point cloud data acquired in the data acquisition step, a rear surface of the detection target vehicle And an approximation step of approximating a part or the entire shape of the detection target vehicle with a rectangular frame having one side of at least one surface of the front surface of the detection target vehicle, and the rectangular frame approximated in the approximation step A reference point defining step for defining a corner as a candidate for a reference point, and for the detection target vehicle, at least one hour before the detection target vehicle position and the current detection From the prediction step of predicting the detection target vehicle position at the detection time from the elephant vehicle position, the detection target vehicle position at the detection time predicted at the prediction step, and the own vehicle position at the detection time, A reference point determination step for selecting the reference point that is closest to the transmission / reception sensor from among the plurality of reference points defined as candidates in the reference point definition step, and the reference selected in the reference point determination step And a position calculating step of calculating the position of the vehicle to be detected at the detection time using a point.
According to a second aspect of the present invention, in the moving object tracking method according to the first aspect, the reference point used for the calculation of the detection target vehicle position one hour before and the current detection target vehicle position are calculated. A reference point comparison step that compares the reference point used, and when the reference point is determined to be different in the reference point comparison step, using the data of the frame length of the rectangular frame The detection target vehicle position is corrected.
According to a third aspect of the present invention, in the moving object tracking method according to the first or second aspect, a center point of one side of the rectangular frame is further set as a candidate for the reference point.
A moving object tracking device according to a fourth aspect of the present invention is a moving object tracking device that measures the position of a moving object in a time series, from three-dimensional point cloud data acquired by a transmission / reception sensor, by a rectangular frame. An approximation unit that approximates a part or the whole shape of the object, a reference point definition unit that defines a corner of the rectangular frame approximated by the approximation unit as a reference point candidate, and the object at least one hour before An object position prediction unit that predicts the object position at the detection time from the object position and the current object position, the object position at the detection time predicted by the object position prediction unit, and transmission / reception at the detection time A reference point determination unit that selects the reference point that is closest to the transmission / reception sensor from the plurality of reference points defined as candidates by the reference point definition unit from the sensor position; and Characterized by comprising the object position calculating unit for calculating the object position in the detection time using the reference point selected in a quasi point decision unit.
According to a fifth aspect of the present invention, in the moving object tracking device according to the fourth aspect, the transmission / reception sensor is mounted on a host vehicle.
According to a sixth aspect of the present invention, in the moving object tracking device according to the fifth aspect, the object is a vehicle traveling around the host vehicle.
According to a seventh aspect of the present invention, in the moving object tracking device according to any one of the fourth to sixth aspects, the reference point used for calculating the object position one time before and the current object position A reference point comparison unit that compares the reference point used for calculating the reference point, and when the reference point comparison unit determines that the reference point is different, a current frame length data of the rectangular frame is used. The object position is corrected.

本発明によれば、送受信センサーが物体(検知対象車両)の後方位置にあるときだけでなく、送受信センサーの物体に対する位置が、後方から側方へ、さらに側方から前方へなどと変わる場合であっても物体の位置、走行方向および速度を正確に把握し、安定して物体(検知対象車両)を追跡することができる。また、送受信センサーに最も近い基準点は、検知時刻での物体位置(検知対象車両位置)を予測してあらかじめ選択することができるので、その予測した基準点と検知時刻において取得した点群データから選択する基準点との対応付けを行うことで、より精度良く物体(検知対象車両)の位置、走行方向および速度を把握することができる。   According to the present invention, not only when the transmission / reception sensor is at the rear position of the object (detection target vehicle), but also when the position of the transmission / reception sensor with respect to the object changes from the rear side to the side, from side to front, and so on. Even in such a case, it is possible to accurately grasp the position, traveling direction and speed of the object and to track the object (detection target vehicle) stably. In addition, since the reference point closest to the transmission / reception sensor can be selected in advance by predicting the object position (detection target vehicle position) at the detection time, the reference point and the point cloud data acquired at the detection time are used. By associating with the selected reference point, the position, traveling direction, and speed of the object (detection target vehicle) can be grasped with higher accuracy.

本発明の一実施例による移動物体追跡装置を示す概略構成図1 is a schematic configuration diagram showing a moving object tracking device according to an embodiment of the present invention. 本実施例による移動物体追跡方法を示すフローチャートThe flowchart which shows the moving object tracking method by a present Example. 本実施例による矩形枠による検知対象車両形状の近似方法と基準点候補の定義方法を説明する図The figure explaining the approximation method of the detection target vehicle shape by the rectangular frame by this Example, and the definition method of a reference point candidate 本実施例による移動物体追跡装置の説明図Explanatory drawing of the moving object tracking apparatus by a present Example 本実施例による移動物体追跡装置の説明図Explanatory drawing of the moving object tracking apparatus by a present Example 本実施例による移動物体認識装置との比較例を示す説明図Explanatory drawing which shows the comparative example with the moving object recognition apparatus by a present Example.

本発明の第1の実施の形態による移動物体追跡方法は、送受信センサーによって三次元の点群データを取得するデータ取得ステップと、データ取得ステップで取得した点群データから、検知対象車両の一側面、検知対象車両の背面、および検知対象車両の前面の内、少なくとも一つの面を一辺とする矩形枠によって検知対象車両の一部又は全体の形状を近似する近似ステップと、近似ステップで近似した矩形枠の角を基準点の候補として定義する基準点定義ステップと、検知対象車両について、少なくとも一時刻前の検知対象車両位置と現在の検知対象車両位置とから検知時刻での検知対象車両位置を予測する予測ステップと、予測ステップで予測した検知時刻での検知対象車両位置と、検知時刻での自車両位置とから、基準点定義ステップで候補として定義した複数の基準点の中から、送受信センサーに最も近い位置となる基準点を選択する基準点確定ステップと、基準点確定ステップで選択した基準点を用いて検知時刻での検知対象車両位置を算出する位置算出ステップとを有するものである。本実施の形態は、検知対象車両の一部又は全体の形状を矩形枠によって近似し、その矩形枠の四角(四隅)を基準点の候補として定義し、定義した四角の基準点の中から自車両に搭載した送受信センサーに最も近い基準点を基準として検知対象車両位置を時系列的に計測する。従って、本実施の形態によれば、送受信センサーが検知対象車両の後方位置にあるときだけでなく、送受信センサーの検知対象車両に対する位置が、後方から側方へ、さらに側方から前方へなどと変わる場合であっても検知対象車両の位置、走行方向および速度を正確に把握し、安定して検知対象車両を追跡することができる。また、送受信センサーに最も近い基準点は、検知時刻での検知対象車両位置を予測してあらかじめ選択することができるので、その予測した基準点と検知時刻において取得した点群データから選択する基準点との対応付けを行うことで、より精度良く物体の位置、走行方向および速度を把握することができる。   The moving object tracking method according to the first embodiment of the present invention includes a data acquisition step of acquiring three-dimensional point cloud data by a transmission / reception sensor, and one aspect of a detection target vehicle from the point cloud data acquired in the data acquisition step. Approximating step for approximating a part or the entire shape of the vehicle to be detected with a rectangular frame having one side of at least one of the back surface of the vehicle to be detected and the front surface of the vehicle to be detected, and a rectangle approximated by the approximation step A reference point defining step for defining a corner of the frame as a candidate for a reference point, and a detection target vehicle position at a detection time is predicted from a detection target vehicle position at least one hour ago and a current detection target vehicle position for the detection target vehicle A reference point defining step based on the prediction step to be performed, the detection target vehicle position at the detection time predicted in the prediction step, and the own vehicle position at the detection time A reference point determination step for selecting a reference point closest to the transmission / reception sensor from a plurality of reference points defined as candidates, and a vehicle to be detected at the detection time using the reference point selected in the reference point determination step A position calculating step for calculating a position. In this embodiment, the shape of a part or the whole of the vehicle to be detected is approximated by a rectangular frame, and the square (four corners) of the rectangular frame is defined as a reference point candidate. The position of the detection target vehicle is measured in time series with the reference point closest to the transmission / reception sensor mounted on the vehicle as a reference. Therefore, according to the present embodiment, not only when the transmission / reception sensor is at the rear position of the detection target vehicle, but also the position of the transmission / reception sensor with respect to the detection target vehicle is from rear to side, from side to front, etc. Even if it changes, it is possible to accurately grasp the position, traveling direction and speed of the detection target vehicle and to track the detection target vehicle stably. In addition, since the reference point closest to the transmission / reception sensor can be selected in advance by predicting the position of the detection target vehicle at the detection time, the reference point selected from the predicted reference point and the point cloud data acquired at the detection time , The position of the object, the traveling direction, and the speed can be grasped with higher accuracy.

本発明の第2の実施の形態は、第1の実施の形態による移動物体追跡方法において、一時刻前の検知対象車両位置の算出に用いた基準点と、現在の検知対象車両位置の算出に用いた基準点とを比較する基準点比較ステップを有し、基準点比較ステップで基準点が異なると判断した場合には、矩形枠の枠長さのデータを用いて現在の検知対象車両位置の補正を行うものである。本実施の形態によれば、一時刻前と現在とで検知対象車両位置の算出に用いた基準点が異なっていても、検知時刻での検知対象車両位置を精度良く予測することができる。   In the moving object tracking method according to the first embodiment, the second embodiment of the present invention is used to calculate the reference point used to calculate the detection target vehicle position one hour before and the current detection target vehicle position. A reference point comparison step for comparing the reference point used, and if the reference point comparison step determines that the reference point is different, the current detection target vehicle position is determined using the frame length data of the rectangular frame. Correction is performed. According to the present embodiment, the detection target vehicle position at the detection time can be accurately predicted even if the reference point used for calculation of the detection target vehicle position is different between the previous time and the current time.

本発明の第3の実施の形態は、第1または第2の実施の形態による移動物体追跡方法において、矩形枠の一辺の中心点を、更に基準点の候補としたものである。本実施の形態によれば、候補となる基準点が4箇所増えて合計8箇所となるので、基準点の移動を最小限に抑え、より安定して精度良く検知対象車両を追跡することができ、特に大型トラックなど全長の長い車両を追跡する際に有効である。   In the third embodiment of the present invention, in the moving object tracking method according to the first or second embodiment, the center point of one side of the rectangular frame is further set as a reference point candidate. According to the present embodiment, the number of candidate reference points is increased by four to a total of eight, so that the movement of the reference points can be minimized and the detection target vehicle can be tracked more stably and accurately. This is particularly effective when tracking a long-length vehicle such as a large truck.

本発明の第4の実施の形態による移動物体追跡装置は、送受信センサーによって取得する三次元の点群データから、物体を矩形枠によって物体の一部又は全体の形状を近似する近似部と、近似部で近似した矩形枠の角を基準点の候補として定義する基準点定義部と、物体について、少なくとも一時刻前の物体位置と現在の物体位置とから検知時刻での物体位置を予測する物体位置予測部と、物体位置予測部で予測した検知時刻での物体位置と、検知時刻での送受信センサー位置とから、基準点定義部で候補として定義した複数の基準点の中から、送受信センサーに最も近い位置となる基準点を選択する基準点確定部と、基準点確定部で選択した基準点を用いて検知時刻での物体位置を算出する物体位置算出部とを備えたものである。本実施の形態によれば、送受信センサーが物体の後方位置にあるときだけでなく、送受信センサーの物体に対する位置が、後方から側方へ、さらに側方から前方へなどと変わる場合であっても、物体の位置、走行方向および速度を正確に把握し、安定して物体を追跡することができる。また、送受信センサーに最も近い基準点は、検知時刻での物体位置を予測してあらかじめ選択することができるので、その予測した基準点と検知時刻において取得した点群データから選択する基準点との対応付けを行うことで、より精度良く物体の位置、移動方向および速度を把握することができる。   The moving object tracking apparatus according to the fourth embodiment of the present invention includes an approximation unit that approximates a part or the entire shape of an object with a rectangular frame from three-dimensional point cloud data acquired by a transmission / reception sensor, and an approximation A reference point definition unit that defines a corner of a rectangular frame approximated by a unit as a reference point candidate, and an object position that predicts an object position at a detection time from an object position at least one hour ago and a current object position for the object Based on the prediction unit, the object position at the detection time predicted by the object position prediction unit, and the transmission / reception sensor position at the detection time, the transmission / reception sensor is selected from the plurality of reference points defined as candidates by the reference point definition unit. The apparatus includes a reference point determination unit that selects a reference point that is close, and an object position calculation unit that calculates an object position at a detection time using the reference point selected by the reference point determination unit. According to the present embodiment, not only when the transmission / reception sensor is at the rear position of the object, but also when the position of the transmission / reception sensor with respect to the object changes from the rear to the side, further from the side to the front, etc. It is possible to accurately grasp the position, traveling direction and speed of the object and track the object stably. In addition, since the reference point closest to the transmission / reception sensor can be selected in advance by predicting the object position at the detection time, the predicted reference point and the reference point selected from the point cloud data acquired at the detection time By performing the association, it is possible to grasp the position, moving direction, and speed of the object with higher accuracy.

本発明の第5の実施の形態は、第4の実施の形態による移動物体追跡装置において、送受信センサーを自車両に搭載したものである。本実施の形態によれば、自車両から物体の位置を検知することができるため、自車両の運転をサポートする情報を外部と通信することなく即時に提供できる。   According to a fifth embodiment of the present invention, in the moving object tracking device according to the fourth embodiment, a transmission / reception sensor is mounted on the host vehicle. According to the present embodiment, since the position of an object can be detected from the own vehicle, it is possible to immediately provide information that supports driving of the own vehicle without communicating with the outside.

本発明の第6の実施の形態は、第5の実施の形態による移動物体追跡装置において、物体を、自車両周辺を走行する車両としたものである。本実施の形態によれば、自車両周辺を走行する車両の位置を正確に検知できるため、自車両の運転をサポートする情報を提供でき、更には自車両の自動運転を実現できる。   In the sixth embodiment of the present invention, in the moving object tracking device according to the fifth embodiment, the object is a vehicle traveling around the host vehicle. According to the present embodiment, since the position of the vehicle traveling around the host vehicle can be accurately detected, information supporting the driving of the host vehicle can be provided, and further, the host vehicle can be automatically driven.

本発明の第7の実施の形態は、第4から第6のいずれかの実施の形態による移動物体追跡装置において、一時刻前の物体位置の算出に用いた基準点と、現在の物体位置の算出に用いた基準点とを比較する基準点比較部を備え、基準点比較部で基準点が異なると判断した場合には、矩形枠の枠長さのデータを用いて現在の物体位置の補正を行うものである。本実施の形態によれば、一時刻前と現在とで物体位置の算出に用いた基準点が異なっていても、検知時刻での物体位置を精度良く予測することができる。   In the seventh embodiment of the present invention, in the moving object tracking device according to any one of the fourth to sixth embodiments, the reference point used for calculating the object position one time ago and the current object position A reference point comparison unit that compares the reference point used for the calculation is provided. When the reference point comparison unit determines that the reference point is different, the current object position is corrected using the frame length data of the rectangular frame. Is to do. According to the present embodiment, the object position at the detection time can be accurately predicted even if the reference point used to calculate the object position is different between the previous time and the current time.

以下本発明の一実施例による移動物体追跡装置について説明する。
図1は本実施例による移動物体追跡装置を示す概略構成図である。
本実施例による移動物体追跡装置は、計測手段1、制御手段2、記憶手段3、物体情報出力手段4、および自車両走行手段5を備えている。
計測手段1は、三次元の点群データを取得するもので、観測点の距離と方向を計測でき観測点の位置を計測する。計測手段1には、例えば複数個のレーザーを内蔵して水平全方位と垂直視野が30度程度の三次元イメージングが可能なレーザー送受信センサーを用いることができる。
制御手段2は、計測手段1からの位置データを用いて自車両周辺を移動する物体の位置を時系列的に計測する。物体は、例えば自車両周辺を走行する車両である。
記憶手段3は、制御手段2で取り込んだ計測データや制御手段2で特定した物体に関するデータを記憶する。
物体情報出力手段4は、例えば自車両周辺を走行する車両の速度や走行方向を表示するなど、制御手段2で特定した物体に関するデータを自車両の運転をサポートする情報として出力する。
自車両走行手段5は、例えば駆動機構、減速機構、および操舵機構などの車両走行に必要な機構である。
A moving object tracking apparatus according to an embodiment of the present invention will be described below.
FIG. 1 is a schematic configuration diagram showing a moving object tracking apparatus according to the present embodiment.
The moving object tracking apparatus according to the present embodiment includes a measuring unit 1, a control unit 2, a storage unit 3, an object information output unit 4, and a host vehicle traveling unit 5.
The measuring means 1 acquires three-dimensional point cloud data, can measure the distance and direction of the observation point, and measures the position of the observation point. As the measuring means 1, for example, a laser transmission / reception sensor capable of performing three-dimensional imaging with a plurality of lasers built in and having a horizontal omnidirectional and vertical field of view of about 30 degrees can be used.
The control means 2 measures the position of the object moving around the host vehicle in time series using the position data from the measurement means 1. The object is, for example, a vehicle that travels around the host vehicle.
The storage unit 3 stores measurement data captured by the control unit 2 and data related to the object specified by the control unit 2.
The object information output means 4 outputs the data regarding the object specified by the control means 2 as information for supporting the driving of the host vehicle, for example, displaying the speed and traveling direction of the vehicle traveling around the host vehicle.
The own vehicle traveling means 5 is a mechanism necessary for traveling the vehicle, such as a drive mechanism, a speed reduction mechanism, and a steering mechanism.

制御手段2は、計測データ読み込み部21、近似部22、基準点定義部23、基準点比較部24、位置補正部25、物体位置予測部26、基準点確定部27、物体位置算出部28および自車両走行制御部29を有している。
近似部22では、計測データ読み込み部21で読み込まれた三次元の点群データから、物体の一側面、背面および前面の内、少なくとも一つの面を一辺とする矩形枠によって物体の一部又は全体の形状を近似する。
基準点定義部23では、近似部22で近似した矩形枠の四つの角を基準点の候補として定義する。
The control means 2 includes a measurement data reading unit 21, an approximation unit 22, a reference point definition unit 23, a reference point comparison unit 24, a position correction unit 25, an object position prediction unit 26, a reference point determination unit 27, an object position calculation unit 28, and A host vehicle travel control unit 29 is provided.
In the approximating unit 22, a part or the whole of the object is obtained from the three-dimensional point cloud data read by the measurement data reading unit 21 with a rectangular frame having at least one side of one side, back and front of the object as one side. Approximate the shape of
The reference point definition unit 23 defines four corners of the rectangular frame approximated by the approximation unit 22 as reference point candidates.

基準点比較部24では、一時刻前の物体位置の算出に用いた基準点および現在の物体位置の算出に用いた基準点を記憶手段3から読み出して、一時刻前の物体位置の算出に用いた基準点と、現在の物体位置の算出に用いた基準点とを比較する。基準点比較部24で両者の基準点が異なると判断した場合には、位置補正部25は、矩形枠の枠長さのデータを用いて現在の物体位置の補正を行う。
物体位置予測部26では、物体について、記憶手段3に記憶された少なくとも一時刻前の物体位置と現在の物体位置とから検知時刻での物体位置を予測する。なお、位置補正部25によって現在の物体位置が補正された場合は、補正前の現在の物体位置に代えて補正後の現在の物体位置を用いる。
なお、基準点比較部24および位置補正部25を省略し、一時刻前と現在の物体位置の算出に用いた基準点を比較および補正せずに、物体位置予測部26で検知時刻での物体位置予測をすることもできるが、本実施例のように基準点比較部24および位置補正部25を設け、一時刻前と現在とで物体の算出に用いた基準点が異なる場合には補正を行うことで、検知時刻での物体位置を精度良く予測することができる。
基準点確定部27では、物体位置予測部26で予測した検知時刻での物体位置と、検知時刻での計測手段1の位置とから、基準点定義部23で候補として定義した複数の基準点の中から、計測手段1に最も近い位置となる基準点を選択する。このように、計測手段1に最も近い基準点は、検知時刻での物体位置を予測してあらかじめ選択することができるので、その予測した基準点と検知時刻において取得した点群データから選択する基準点との対応付けを行うことで、より精度良く物体の位置、移動方向および速度を把握することができる。
基準点確定部27で選択された計測手段1に最も近い基準点は、記憶手段3に記憶された後、基準点比較部24に送出される。
In the reference point comparison unit 24, the reference point used for calculating the object position one hour before and the reference point used for calculating the current object position are read from the storage means 3 and used for calculating the object position one time before. And the reference point used to calculate the current object position. When the reference point comparison unit 24 determines that the two reference points are different, the position correction unit 25 corrects the current object position using the frame length data of the rectangular frame.
The object position prediction unit 26 predicts the object position at the detection time from the object position at least one hour before and the current object position stored in the storage unit 3 for the object. When the current object position is corrected by the position correction unit 25, the current object position after correction is used instead of the current object position before correction.
It should be noted that the reference point comparison unit 24 and the position correction unit 25 are omitted, and the object position prediction unit 26 does not compare and correct the reference point used for calculating the current object position one time before and the object at the detection time. Although the position can be predicted, the reference point comparison unit 24 and the position correction unit 25 are provided as in the present embodiment, and correction is performed when the reference point used for calculating the object is different between the previous time and the current time. By doing so, it is possible to accurately predict the object position at the detection time.
In the reference point determination unit 27, a plurality of reference points defined as candidates by the reference point definition unit 23 from the object position at the detection time predicted by the object position prediction unit 26 and the position of the measuring unit 1 at the detection time. The reference point that is closest to the measuring means 1 is selected from the inside. Thus, since the reference point closest to the measuring means 1 can be selected in advance by predicting the object position at the detection time, the reference selected from the predicted reference point and the point cloud data acquired at the detection time. By associating with the points, the position, moving direction, and speed of the object can be grasped with higher accuracy.
The reference point closest to the measuring unit 1 selected by the reference point determination unit 27 is stored in the storage unit 3 and then sent to the reference point comparison unit 24.

物体位置算出部28では、基準点確定部27で選択した基準点と、時系列的に物体位置を計測することにより求められる物体の走行方向と速度等とを用いて、検知時刻での物体位置を算出する。
物体位置算出部28で算出された検知時刻での物体位置は、記憶手段3に記憶されるとともに、物体情報出力手段4に送出される。
なお、計測手段1からは定期的に計測データが送出され、制御手段2におけるデータ処理も計測データが送出されるタイミングと同じタイミングで連続して行われる。
自車両走行制御部29では、物体位置算出部28で算出された検知時刻での物体位置に応じて自車両の走行制御を行う。自車両走行制御部29における走行制御データは自車両走行手段5に送出される。
The object position calculation unit 28 uses the reference point selected by the reference point determination unit 27 and the traveling direction and speed of the object obtained by measuring the object position in time series to detect the object position at the detection time. Is calculated.
The object position at the detection time calculated by the object position calculation unit 28 is stored in the storage unit 3 and sent to the object information output unit 4.
Measurement data is periodically sent from the measuring means 1, and data processing in the control means 2 is continuously performed at the same timing as the measurement data is sent.
The own vehicle traveling control unit 29 performs traveling control of the own vehicle according to the object position at the detection time calculated by the object position calculating unit 28. The traveling control data in the own vehicle traveling control unit 29 is sent to the own vehicle traveling means 5.

図2は本実施例による移動物体追跡方法を示すフローチャートである。
本実施例による移動物体認識方法は、計測手段(送受信センサー)1によって定期的に三次元の点群データを取得し、計測データ読み込み部21ではこれらの位置データを取り込む(ステップ1)。
ステップ1のデータ取得ステップで取り込んだ位置データから、検知対象車両(物体)の一側面、検知対象車両の背面、および検知対象車両の前面の内、少なくとも一つの面を一辺とする矩形枠によって検知対象車両の一部または全体の形状を近似する(ステップ2)。
ステップ2で近似した矩形枠の角を基準点の候補として定義する(ステップ3)。
FIG. 2 is a flowchart showing the moving object tracking method according to this embodiment.
In the moving object recognition method according to the present embodiment, three-dimensional point cloud data is periodically acquired by the measuring means (transmission / reception sensor) 1, and the position data is acquired by the measurement data reading unit 21 (step 1).
Detected from the position data acquired in the data acquisition step of Step 1 by a rectangular frame having at least one side of one side of the detection target vehicle (object), the back side of the detection target vehicle, and the front side of the detection target vehicle as one side. The shape of a part or the whole of the target vehicle is approximated (step 2).
The corner of the rectangular frame approximated in step 2 is defined as a reference point candidate (step 3).

図3を用いて、矩形枠による検知対象車両形状の近似方法と基準点候補の定義方法について説明する。
まず、矩形枠Xによる検知対象車両形状の近似方法を説明する。例えば図3(a)のように、計測手段1が後方から検知対象車両Aを計測する場合は、検知対象車両Aの背面の位置データα1、α2、α3、・・・αnが得られる。この位置データα1、α2、α3、・・・αnを用いて制御手段2の近似部22では、検知対象車両Aの背面部分の形状を矩形枠Xで近似する。矩形枠Xは、検知対象車両Aを上面視した状態で検知対象車両Aの背面を一辺とするものであり、検知対象車両Aの背面における車幅を長手方向とする細長い矩形枠Xである。
また、図3(b)のように、計測手段1が右(図3(b)において下側)斜め後方から検知対象車両Aを計測する場合は、検知対象車両Aの背面の位置データα1、α2、α3、・・・αnと、検知対象車両Aの右側面の位置データβ1、β2、β3、・・・βnが得られる。この位置データα1、α2、α3、・・・αn、β1、β2、β3、・・・βnを用いて近似部22では、検知対象車両Aの全体の形状を矩形枠Xで近似する。矩形枠Xは、検知対象車両Aを上面視した状態で検知対象車両Aの背面、前面、左側面および右側面を辺とするものであり、検知対象車両Aの外形全体に外接するように設定される。矩形枠Xの枠長さは、車幅方向は検知対象車両Aの全幅とほぼ同じであり、車長方向は検知対象車両Aの全長とほぼ同じである。
このように、計測手段1が検知対象車両Aの一つの面の位置データα1、α2、α3、・・・αnを計測できる場合は、その面を一辺とする細長い矩形枠Xによって当該部分を近似することができ、計測手段1が検知対象車両Aの隣接する二つの面の位置データα1、α2、α3、・・・αn、β1、β2、β3、・・・βnを計測できる場合は、それらの面の辺を含む矩形枠Xによって検知対象車両Aの全体の形状を近似することができる。
With reference to FIG. 3, a method for approximating the shape of the vehicle to be detected using a rectangular frame and a method for defining a reference point candidate will be described.
First, a method for approximating the detection target vehicle shape using the rectangular frame X will be described. For example, as shown in FIG. 3A, when the measuring unit 1 measures the detection target vehicle A from behind, position data α1, α2, α3,. Using the position data α1, α2, α3,... Αn, the approximating unit 22 of the control means 2 approximates the shape of the back surface portion of the detection target vehicle A with a rectangular frame X. The rectangular frame X is an elongated rectangular frame X having the back surface of the detection target vehicle A as one side in a state where the detection target vehicle A is viewed from above, and having the vehicle width on the back surface of the detection target vehicle A as a longitudinal direction.
Further, as shown in FIG. 3 (b), when the measuring means 1 measures the detection target vehicle A from the right (lower side in FIG. 3 (b)) obliquely behind, the position data α1 on the back side of the detection target vehicle A, αn, α3,... αn, and position data β1, β2, β3,. Using the position data α1, α2, α3,... Αn, β1, β2, β3,... Βn, the approximation unit 22 approximates the entire shape of the detection target vehicle A with a rectangular frame X. The rectangular frame X has the back, front, left side, and right side of the detection target vehicle A as sides when the detection target vehicle A is viewed from above, and is set to circumscribe the entire outer shape of the detection target vehicle A. Is done. The frame length of the rectangular frame X is substantially the same as the entire width of the detection target vehicle A in the vehicle width direction, and is substantially the same as the entire length of the detection target vehicle A.
As described above, when the measuring unit 1 can measure the position data α1, α2, α3,... Αn of one surface of the detection target vehicle A, the portion is approximated by an elongated rectangular frame X having the surface as one side. If the measuring means 1 can measure the position data α1, α2, α3,... Αn, β1, β2, β3,. The overall shape of the detection target vehicle A can be approximated by the rectangular frame X including the side of the surface.

次に、基準点候補の定義方法について説明する。図3(a)、(b)にあっては、Y1、Y2、Y3およびY4が角に設定した基準点の候補である。本実施例においては、更に矩形枠Xの一辺の中心点も基準点の候補として定義する。図3(a)、(b)にあっては、Y5、Y6、Y7およびY8が各辺の中心に設定した基準点の候補である。
このように、候補となる基準点を角(Y1、Y2、Y3およびY4)だけでなく各辺の中心(Y5、Y6、Y7およびY8)にも設けることで、候補となる基準点が4箇所増えて合計8箇所となるので、基準点の移動を最小限に抑え、より安定して精度良く検知対象車両Aを追跡することができ、特に大型トラックなど全長の長い車両を追跡する際に有効である。
Next, a method for defining a reference point candidate will be described. 3A and 3B, Y1, Y2, Y3, and Y4 are reference point candidates set at corners. In this embodiment, the center point of one side of the rectangular frame X is also defined as a reference point candidate. 3A and 3B, Y5, Y6, Y7, and Y8 are reference point candidates set at the center of each side.
Thus, by providing candidate reference points not only at the corners (Y1, Y2, Y3 and Y4) but also at the centers (Y5, Y6, Y7 and Y8) of each side, four candidate reference points are provided. Since the total number is 8 locations, the movement of the reference point can be minimized and the vehicle A to be detected can be tracked more stably and accurately, especially when tracking large vehicles such as large trucks. It is.

図2に示すフローチャートにおいて、記憶手段3から、一時刻前の検知対象車両位置データ(位置データと基準点データ)の読み出しを行う(ステップ4)。
ステップ4で読み込んだ一時刻前の検知対象車両位置データを基に、一時刻前の検知対象車両位置の算出に用いた基準点と、現在の検知対象車両位置の算出に用いた基準点とを比較する(ステップ5)。ステップ5で両基準点が同じ場合には、検知対象車両Aについて、一時刻前の検知対象車両位置と現在の検知対象車両位置とから検知時刻での検知対象車両位置を予測する(ステップ6)。
ステップ5において両基準点が異なると判断した場合には、位置補正部25において矩形枠Xの枠長さのデータを用いて現在の検知対象車両位置の補正を行い(ステップ7)、その後にステップ6に移行する。例えば、一時刻前の検知対象車両位置の算出に用いた基準点がY1であり、現在の検知対象車両位置の算出に用いた基準点がY5であった場合には、Y5とY1との距離差の分だけ検知対象車両位置に誤差が生じるが、位置補正部25がその誤差を補正することで、正確に現在の検知対象車両位置を求めることができる。
ステップ6で予測した検知時刻での検知対象車両位置と、検知時刻での自車両位置とから、ステップ3で候補として定義した複数の基準点の中から、計測手段1に最も近い位置となる基準点を確定する(ステップ8)。
ステップ8で選択した基準点を用いて検知時刻での検知対象車両位置を算出する(ステップ9)。
In the flowchart shown in FIG. 2, detection target vehicle position data (position data and reference point data) one hour before is read from the storage means 3 (step 4).
Based on the detection target vehicle position data one hour before read in step 4, the reference point used for calculating the detection target vehicle position one hour ago and the reference point used for calculating the current detection target vehicle position Compare (step 5). If both reference points are the same in step 5, the detection target vehicle position at the detection time is predicted for the detection target vehicle A from the detection target vehicle position one hour before and the current detection target vehicle position (step 6). .
If it is determined in step 5 that the two reference points are different, the position correction unit 25 corrects the current detection target vehicle position using the data of the frame length of the rectangular frame X (step 7), and then step Move to 6. For example, if the reference point used to calculate the detection target vehicle position one hour before is Y1 and the reference point used to calculate the current detection target vehicle position is Y5, the distance between Y5 and Y1 Although an error occurs in the detection target vehicle position by the difference, the current correction target vehicle position can be accurately obtained by the position correction unit 25 correcting the error.
A reference that is the closest to the measuring means 1 from among a plurality of reference points defined as candidates in Step 3 from the detection target vehicle position at the detection time predicted in Step 6 and the own vehicle position at the detection time. A point is determined (step 8).
The detection target vehicle position at the detection time is calculated using the reference point selected in step 8 (step 9).

このように、検知時刻での検知対象車両位置を予測して計測手段1に最も近い基準点を予測しておくことで、その予測した基準点と検知時刻において実測により選択する基準点とを対応付けて計測手段1に最も近い基準点を確定することができる。従って、より精度良く検知対象車両Aの位置、移動方向および速度を把握することができる。
自車両走行制御部29では、ステップ9で算出した検知時刻での検知対象車両位置に関するデータを取り込み、当該データに基いて自車両の走行制御を行う。
ステップ9で検知時刻での検知対象車両位置を算出した後は、ステップ1に戻る。
In this way, by predicting the position of the detection target vehicle at the detection time and predicting the reference point closest to the measuring means 1, the predicted reference point and the reference point selected by actual measurement at the detection time are associated with each other. In addition, the reference point closest to the measuring means 1 can be determined. Therefore, it is possible to grasp the position, moving direction, and speed of the detection target vehicle A with higher accuracy.
The own vehicle travel control unit 29 takes in data relating to the position of the detection target vehicle at the detection time calculated in step 9, and performs travel control of the own vehicle based on the data.
After calculating the detection target vehicle position at the detection time in step 9, the process returns to step 1.

図4および図5は本実施例の移動物体追跡装置を示す説明図であり、自車両から検知対象車両を追跡する状態を示している。
図4および図5では、検知対象車両Aおよび自車両Bは前進走行中である。
自車両Bは、上部に計測手段1を備えている。計測手段1は、複数の発信部からパルス状に発光するレーザー30を照射し、複数の受信部で散乱光を検出することによって、検知対象車両Aから三次元の点群データを取得する。
4 and 5 are explanatory views showing the moving object tracking device of this embodiment, and show a state in which the detection target vehicle is tracked from the own vehicle.
4 and 5, the detection target vehicle A and the host vehicle B are traveling forward.
The own vehicle B is provided with the measuring means 1 in the upper part. The measuring means 1 obtains three-dimensional point cloud data from the detection target vehicle A by irradiating a laser 30 that emits pulses from a plurality of transmitters and detecting scattered light by a plurality of receivers.

図4(a)は自車両Bが検知対象車両Aと同一車線の後方やや右寄りを走行している状態を示している。自車両Bは検知対象車両Aから十分離れた後方に位置するため、計測手段1は検知対象車両Aの背面の位置データα1、α2、α3、・・・αnを取得する。この位置データα1、α2、α3、・・・αnを用いて制御手段2の近似部22では、検知対象車両Aの背面部分の形状を矩形枠Xで近似する。矩形枠Xの車幅方向の枠長さは、検知対象車両Aの背面部分の車幅とほぼ同じである。計測手段1に最も近い基準点はY1であるから、基準点Y1を基準として検知対象車両Aを追跡する。
図4(b)は図4(a)の状態から自車両Bが右側の車線に移動しようとしている状態を示している。自車両Bは検知対象車両Aから十分離れた後方に位置するため、図4(a)の状態と同様に、検知対象車両Aの背面の位置データα1、α2、α3、・・・αnを用いて検知対象車両Aの背面部分の形状を矩形枠Xで近似する。この状態においても計測手段1に最も近い基準点はY1であるから、基準点Y1を基準として検知対象車両Aを追跡する。
図4(c)は図4(b)の状態から自車両Bが右側の車線への移動を完了し、検知対象車両A近くの右斜め後方を走行している状態を示している。自車両Bが検知対象車両A近くの右斜め後方に位置するため、計測手段1は、検知対象車両Aの背面の位置データα1、α2、α3、・・・αnと、検知対象車両Aの右側面の位置データβ1、β2、β3、・・・βnを取得する。この位置データβ1、β2、β3、・・・βnを用いて近似部22では、検知対象車両Aの全体の形状を矩形枠Xで近似する。この状態においても計測手段1に最も近い基準点はY1であるから、基準点Y1を基準として検知対象車両Aを追跡する。
FIG. 4A shows a state in which the host vehicle B is running slightly behind the right side of the same lane as the detection target vehicle A. Since the own vehicle B is located at a position sufficiently far away from the detection target vehicle A, the measuring unit 1 acquires position data α1, α2, α3,. Using the position data α1, α2, α3,... Αn, the approximating unit 22 of the control means 2 approximates the shape of the back surface portion of the detection target vehicle A with a rectangular frame X. The frame length of the rectangular frame X in the vehicle width direction is substantially the same as the vehicle width of the back portion of the detection target vehicle A. Since the reference point closest to the measuring means 1 is Y1, the detection target vehicle A is tracked with reference to the reference point Y1.
FIG. 4B shows a state where the host vehicle B is about to move to the right lane from the state of FIG. Since the host vehicle B is located far behind the detection target vehicle A, the position data α1, α2, α3,... Αn on the back side of the detection target vehicle A is used as in the state of FIG. Thus, the shape of the back portion of the detection target vehicle A is approximated by a rectangular frame X. Even in this state, since the reference point closest to the measuring means 1 is Y1, the detection target vehicle A is tracked with reference to the reference point Y1.
FIG. 4C shows a state in which the host vehicle B has completed the movement to the right lane from the state of FIG. 4B and is traveling diagonally right behind the vehicle A to be detected. Since the host vehicle B is located obliquely rearward to the right near the detection target vehicle A, the measuring means 1 has position data α1, α2, α3,... Αn on the back side of the detection target vehicle A and the right side of the detection target vehicle A. Surface position data β1, β2, β3,... Βn are acquired. Using the position data β1, β2, β3,... Βn, the approximation unit 22 approximates the entire shape of the detection target vehicle A with a rectangular frame X. Even in this state, since the reference point closest to the measuring means 1 is Y1, the detection target vehicle A is tracked with reference to the reference point Y1.

このように、矩形枠Xに設定した8箇所の基準点の中で自車両Bに搭載した計測手段1に最も近い基準点を基準として検知対象車両Aの追跡を行うことで、検知対象車両Aの後方を走行する自車両Bが車線を変更して、自車両Bと検知対象車両Aとの相対位置が変化したとしても、検知対象車両Aの位置を計測する基準点はY1のままであるため、安定して検知対象車両Aの位置を時系列的に計測することができる。   As described above, the detection target vehicle A is tracked by using the reference point closest to the measuring means 1 mounted on the host vehicle B among the eight reference points set in the rectangular frame X as a reference. Even if the own vehicle B traveling behind the vehicle changes the lane and the relative position between the own vehicle B and the detection target vehicle A changes, the reference point for measuring the position of the detection target vehicle A remains Y1. Therefore, the position of the detection target vehicle A can be stably measured in time series.

図5(a)は図4(c)の状態から自車両Bが検知対象車両Aと並びかけている状態を示している。自車両Bは検知対象車両Aの横側に位置するため、計測手段1は検知対象車両Aの右側面の位置データβ1、β2、β3、・・・βnを取得する。この位置データβ1、β2、β3、・・・βnを用いて近似部22では、検知対象車両Aの右側面部分の形状を細長の矩形枠Xで近似する。矩形枠Xの全長方向の枠長さは、検知対象車両Aの全長とほぼ同じである。この状態においても計測手段1に最も近い基準点はY1であるから、基準点Y1を基準として検知対象車両Aを追跡する。
図5(b)は図5(a)の状態から自車両Bが検知対象車両Aを少し追い越した状態を示している。自車両Bは図5(a)の状態と同様に、検知対象車両Aの右側面の位置データβ1、β2、β3、・・・βnを用いて検知対象車両Aの右側面部分の形状を細長の矩形枠Xで近似する。この状態においては、計測手段1に最も近い基準点はY5であるから、基準点Y5を基準として検知対象車両Aを追跡する。
図5(c)は図5(b)の状態から自車両Bが検知対象車両Aよりも更に前に出た状態を示している。自車両Bは図5(a)および(b)の状態と同様に、検知対象車両Aの右側面の位置データβ1、β2、β3、・・・βnを用いて検知対象車両Aの右側面部分の形状を細長の矩形枠Xで近似する。この状態においては、計測手段1に最も近い基準点はY2であるから、基準点Y2を基準として検知対象車両Aを追跡する。
FIG. 5A shows a state where the host vehicle B is lined up with the detection target vehicle A from the state of FIG. Since the own vehicle B is located on the lateral side of the detection target vehicle A, the measuring unit 1 acquires position data β1, β2, β3,. Using the position data β1, β2, β3,... Βn, the approximation unit 22 approximates the shape of the right side surface portion of the detection target vehicle A with an elongated rectangular frame X. The frame length in the full length direction of the rectangular frame X is substantially the same as the full length of the detection target vehicle A. Even in this state, since the reference point closest to the measuring means 1 is Y1, the detection target vehicle A is tracked with reference to the reference point Y1.
FIG. 5B shows a state in which the host vehicle B slightly exceeds the detection target vehicle A from the state of FIG. The own vehicle B uses the position data β1, β2, β3,... Βn of the right side surface of the detection target vehicle A in the same manner as in the state of FIG. Is approximated by a rectangular frame X. In this state, since the reference point closest to the measuring means 1 is Y5, the detection target vehicle A is tracked with reference to the reference point Y5.
FIG. 5C shows a state in which the host vehicle B has come out further than the detection target vehicle A from the state of FIG. The host vehicle B uses the position data β1, β2, β3,... Βn on the right side surface of the detection target vehicle A in the same manner as in the states of FIGS. Is approximated by an elongated rectangular frame X. In this state, since the reference point closest to the measuring means 1 is Y2, the detection target vehicle A is tracked with reference to the reference point Y2.

このように、矩形枠Xに設定した8箇所の基準点の中で自車両Bに搭載した計測手段1に最も近い基準点を基準として検知対象車両Aの追跡を行うことで、自車両Bが検知対象車両Aを追い越し、自車両Bと検知対象車両Aとの相対位置が変化したとしても、基準点の移動を最小限に抑えることができ、検知対象車両Aを精度よく追跡することができる。   Thus, by tracking the detection target vehicle A based on the reference point closest to the measuring means 1 mounted on the own vehicle B among the eight reference points set in the rectangular frame X, the own vehicle B Even if the detection target vehicle A is overtaken and the relative position of the own vehicle B and the detection target vehicle A changes, the movement of the reference point can be minimized and the detection target vehicle A can be tracked with high accuracy. .

これに対して図6で示す従来例においては、 図6(a)に示すように、計測手段1が検知対象車両Aの右斜め後方に位置しており、検知対象車両Aの背面の位置データは得られるが右側面の位置データがほとんど得られないときは、背面の重心位置Z1を基準として検知対象車両Aを追跡する。そして、図6(b)に示すように、計測手段1がやや右(図6(b)において下側)に移動して、検知対象車両Aの背面の位置データはほとんど得られないが右側面の位置データが得られるようになったときは、重心位置が右側面のZ2に切り替わり、重心位置Z2が検知対象車両Aの追跡の基準となるため、実際には検知対象車両Aは真直ぐ走行しているにも関わらず、右に方向転換したと追跡装置が誤認識して自車両Bが衝突回避行動を行うなどといった不具合が生じてしまう。   On the other hand, in the conventional example shown in FIG. 6, as shown in FIG. 6A, the measuring means 1 is located diagonally to the right of the detection target vehicle A, and the position data of the back surface of the detection target vehicle A If the right side surface position data is hardly obtained, the detection target vehicle A is tracked based on the back center of gravity position Z1. And as shown in FIG.6 (b), the measurement means 1 moves a little to the right (lower side in FIG.6 (b)), and the position data of the back surface of the detection target vehicle A are hardly obtained, but right side surface When the position data is obtained, the center of gravity position is switched to Z2 on the right side surface, and the center of gravity position Z2 becomes a reference for tracking the detection target vehicle A. Therefore, the detection target vehicle A actually travels straight. In spite of this, the tracking device misrecognizes that the direction has been changed to the right, causing a problem such as the host vehicle B performing a collision avoidance action.

以上のように本実施例によれば、計測手段1が検知対象車両Aの後方位置にあるときだけでなく、計測手段1の検知対象車両Aに対する位置が、後方から側方へ、さらに側方から前方へなどと変わる場合であっても、検知対象車両Aの位置、走行方向および速度を正確に把握し、安定して検知対象車両Aを追跡することができる。また、計測手段1に最も近い基準点は、検知時刻での検知対象車両位置を予測してあらかじめ選択することができるので、その予測した基準点と検知時刻において取得した点群データから選択する基準点との対応付けを行うことで、より精度良く検知対象車両Aの位置、走行方向および速度を把握することができる。   As described above, according to the present embodiment, not only when the measuring unit 1 is at the rear position of the detection target vehicle A, but also the position of the measuring unit 1 with respect to the detection target vehicle A is changed from the rear side to the side. Even when the vehicle changes from forward to forward, the position, traveling direction, and speed of the detection target vehicle A can be accurately grasped, and the detection target vehicle A can be tracked stably. Further, since the reference point closest to the measuring means 1 can be selected in advance by predicting the position of the detection target vehicle at the detection time, the reference selected from the predicted reference point and the point cloud data acquired at the detection time. By associating with the points, the position, the traveling direction, and the speed of the detection target vehicle A can be grasped with higher accuracy.

本発明は、四輪車だけでなく、二輪車などの移動物体に対しても適用できる。   The present invention can be applied not only to four-wheeled vehicles but also to moving objects such as two-wheeled vehicles.

1 計測手段(送受信センサー)
2 制御手段
22 近似部
23 基準点定義部
24 基準点比較部
25 位置補正部
26 物体位置予測部
27 基準点確定部
28 物体位置算出部
1 Measuring means (transmission / reception sensor)
2 Control means 22 Approximation unit 23 Reference point definition unit 24 Reference point comparison unit 25 Position correction unit 26 Object position prediction unit 27 Reference point determination unit 28 Object position calculation unit

Claims (7)

レーザーを用いた送受信センサーを自車両に搭載し、前記自車両の周辺を走行する検知対象車両の位置を時系列的に計測する移動物体追跡方法であって、
前記送受信センサーによって三次元の点群データを取得するデータ取得ステップと、
前記データ取得ステップで取得した前記点群データから、前記検知対象車両の一側面、前記検知対象車両の背面、および前記検知対象車両の前面の内、少なくとも一つの面を一辺とする矩形枠によって前記検知対象車両の一部又は全体の形状を近似する近似ステップと、
前記近似ステップで近似した前記矩形枠の角を基準点の候補として定義する基準点定義ステップと、
前記検知対象車両について、少なくとも一時刻前の検知対象車両位置と現在の前記検知対象車両位置とから検知時刻での前記検知対象車両位置を予測する予測ステップと、
前記予測ステップで予測した前記検知時刻での前記検知対象車両位置と、前記検知時刻での自車両位置とから、前記基準点定義ステップで候補として定義した複数の前記基準点の中から、前記送受信センサーに最も近い位置となる前記基準点を選択する基準点確定ステップと、
前記基準点確定ステップで選択した前記基準点を用いて前記検知時刻での前記検知対象車両位置を算出する位置算出ステップと
を有することを特徴とする移動物体追跡方法。
A moving object tracking method for mounting a transmission / reception sensor using a laser on a host vehicle and measuring a position of a detection target vehicle traveling around the host vehicle in a time series,
A data acquisition step of acquiring three-dimensional point cloud data by the transmission / reception sensor;
From the point cloud data acquired in the data acquisition step, the rectangular frame having at least one side of one side of the detection target vehicle, the back surface of the detection target vehicle, and the front surface of the detection target vehicle as one side. An approximation step for approximating the shape of a part or the whole of the vehicle to be detected;
A reference point defining step for defining a corner of the rectangular frame approximated in the approximating step as a reference point candidate;
For the detection target vehicle, a prediction step of predicting the detection target vehicle position at a detection time from at least a detection target vehicle position one hour before and the current detection target vehicle position;
From the plurality of reference points defined as candidates in the reference point defining step from the detection target vehicle position at the detection time predicted in the prediction step and the own vehicle position at the detection time. A reference point determination step for selecting the reference point that is closest to the sensor;
A moving object tracking method comprising: a position calculating step of calculating the position of the detection target vehicle at the detection time using the reference point selected in the reference point determining step.
一時刻前の前記検知対象車両位置の算出に用いた前記基準点と、現在の前記検知対象車両位置の算出に用いた前記基準点とを比較する基準点比較ステップを有し、
前記基準点比較ステップで前記基準点が異なると判断した場合には、前記矩形枠の枠長さのデータを用いて現在の前記検知対象車両位置の補正を行うことを特徴とする請求項1に記載の移動物体追跡方法。
A reference point comparison step of comparing the reference point used for calculating the detection target vehicle position one hour before and the reference point used for calculating the current detection target vehicle position;
The current detection target vehicle position is corrected using frame length data of the rectangular frame when the reference point is determined to be different in the reference point comparison step. The moving object tracking method as described.
前記矩形枠の一辺の中心点を、更に前記基準点の候補としたことを特徴とする請求項1または請求項2に記載の移動物体追跡方法。   The moving object tracking method according to claim 1, wherein a center point of one side of the rectangular frame is further set as a candidate for the reference point. 移動する物体の位置を時系列的に計測する移動物体追跡装置であって、
送受信センサーによって取得する三次元の点群データから、矩形枠によって前記物体の一部又は全体の形状を近似する近似部と、
前記近似部で近似した前記矩形枠の角を基準点の候補として定義する基準点定義部と、
前記物体について、少なくとも一時刻前の物体位置と現在の前記物体位置とから検知時刻での前記物体位置を予測する物体位置予測部と、
前記物体位置予測部で予測した前記検知時刻での前記物体位置と、前記検知時刻での送受信センサー位置とから、前記基準点定義部で候補として定義した複数の前記基準点の中から、前記送受信センサーに最も近い位置となる前記基準点を選択する基準点確定部と、
前記基準点確定部で選択した前記基準点を用いて前記検知時刻での前記物体位置を算出する物体位置算出部と
を備えたことを特徴とする移動物体追跡装置。
A moving object tracking device that measures the position of a moving object in time series,
From the three-dimensional point cloud data acquired by the transmission / reception sensor, an approximation unit that approximates a part or the entire shape of the object by a rectangular frame;
A reference point defining unit that defines a corner of the rectangular frame approximated by the approximating unit as a reference point candidate;
For the object, an object position prediction unit that predicts the object position at the detection time from the object position at least one hour ago and the current object position;
From the plurality of reference points defined as candidates by the reference point definition unit from the object position at the detection time predicted by the object position prediction unit and the transmission / reception sensor position at the detection time. A reference point determination unit that selects the reference point that is closest to the sensor;
A moving object tracking device comprising: an object position calculation unit that calculates the object position at the detection time using the reference point selected by the reference point determination unit.
前記送受信センサーを自車両に搭載したことを特徴とする請求項4に記載の移動物体追跡装置。   The moving object tracking device according to claim 4, wherein the transmission / reception sensor is mounted on a host vehicle. 前記物体を、前記自車両周辺を走行する車両としたことを特徴とする請求項5に記載の移動物体追跡装置。   The moving object tracking device according to claim 5, wherein the object is a vehicle that travels around the host vehicle. 一時刻前の前記物体位置の算出に用いた前記基準点と、現在の前記物体位置の算出に用いた前記基準点とを比較する基準点比較部を備え、
前記基準点比較部で前記基準点が異なると判断した場合には、前記矩形枠の枠長さのデータを用いて現在の前記物体位置の補正を行うことを特徴とする請求項4から請求項6のいずれかに記載の移動物体追跡装置。
A reference point comparison unit that compares the reference point used to calculate the object position one time before and the reference point used to calculate the current object position;
5. The current object position is corrected using frame length data of the rectangular frame when the reference point comparison unit determines that the reference points are different. 7. The moving object tracking device according to any one of 6 above.
JP2015023777A 2015-02-10 2015-02-10 Moving object tracking method and moving object tracking apparatus Active JP6460822B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015023777A JP6460822B2 (en) 2015-02-10 2015-02-10 Moving object tracking method and moving object tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015023777A JP6460822B2 (en) 2015-02-10 2015-02-10 Moving object tracking method and moving object tracking apparatus

Publications (2)

Publication Number Publication Date
JP2016148514A true JP2016148514A (en) 2016-08-18
JP6460822B2 JP6460822B2 (en) 2019-01-30

Family

ID=56687808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023777A Active JP6460822B2 (en) 2015-02-10 2015-02-10 Moving object tracking method and moving object tracking apparatus

Country Status (1)

Country Link
JP (1) JP6460822B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018040642A (en) * 2016-09-06 2018-03-15 株式会社Ihi Device and method for recognizing moving objects
WO2021038267A1 (en) 2019-08-28 2021-03-04 日産自動車株式会社 Object recognition method and object recognition device
WO2021074660A1 (en) * 2019-10-18 2021-04-22 日産自動車株式会社 Object recognition method and object recognition device
WO2021106197A1 (en) * 2019-11-29 2021-06-03 三菱電機株式会社 Object recognition device and object recognition method
JPWO2021106196A1 (en) * 2019-11-29 2021-06-03
RU2779522C1 (en) * 2019-08-28 2022-09-08 Ниссан Мотор Ко., Лтд. Object recognition method and object recognition device
JP7383451B2 (en) 2019-10-28 2023-11-20 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング vehicle tracking device
JP7460878B2 (en) 2019-09-17 2024-04-03 株式会社デンソーウェーブ object detection device
JP7467562B1 (en) 2022-10-07 2024-04-15 本田技研工業株式会社 External Recognition Device
JP7474689B2 (en) 2020-12-04 2024-04-25 日産自動車株式会社 Object detection method and object detection device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206241A (en) * 1999-01-13 2000-07-28 Honda Motor Co Ltd Radar apparatus
EP1531343A1 (en) * 2003-11-14 2005-05-18 IBEO Automobile Sensor GmbH Method for tracking objects
JP2008267826A (en) * 2007-04-16 2008-11-06 Toyota Motor Corp Object detection device
JP2008298544A (en) * 2007-05-30 2008-12-11 Toyota Motor Corp Object detection device and control device for vehicle
JP2009014479A (en) * 2007-07-04 2009-01-22 Honda Motor Co Ltd Object detection device for vehicle
JP2009042181A (en) * 2007-08-10 2009-02-26 Denso Corp Estimating apparatus
JP2012247214A (en) * 2011-05-25 2012-12-13 Denso Corp Moving object detection apparatus
JP2013105335A (en) * 2011-11-14 2013-05-30 Honda Motor Co Ltd Drive support device of vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000206241A (en) * 1999-01-13 2000-07-28 Honda Motor Co Ltd Radar apparatus
EP1531343A1 (en) * 2003-11-14 2005-05-18 IBEO Automobile Sensor GmbH Method for tracking objects
JP2008267826A (en) * 2007-04-16 2008-11-06 Toyota Motor Corp Object detection device
JP2008298544A (en) * 2007-05-30 2008-12-11 Toyota Motor Corp Object detection device and control device for vehicle
JP2009014479A (en) * 2007-07-04 2009-01-22 Honda Motor Co Ltd Object detection device for vehicle
JP2009042181A (en) * 2007-08-10 2009-02-26 Denso Corp Estimating apparatus
JP2012247214A (en) * 2011-05-25 2012-12-13 Denso Corp Moving object detection apparatus
JP2013105335A (en) * 2011-11-14 2013-05-30 Honda Motor Co Ltd Drive support device of vehicle

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018040642A (en) * 2016-09-06 2018-03-15 株式会社Ihi Device and method for recognizing moving objects
RU2779522C1 (en) * 2019-08-28 2022-09-08 Ниссан Мотор Ко., Лтд. Object recognition method and object recognition device
WO2021038267A1 (en) 2019-08-28 2021-03-04 日産自動車株式会社 Object recognition method and object recognition device
JPWO2021038267A1 (en) * 2019-08-28 2021-03-04
US11861914B2 (en) 2019-08-28 2024-01-02 Nissan Motor Co., Ltd. Object recognition method and object recognition device
JP7226565B2 (en) 2019-08-28 2023-02-21 日産自動車株式会社 Object recognition method and object recognition device
JP7460878B2 (en) 2019-09-17 2024-04-03 株式会社デンソーウェーブ object detection device
WO2021074660A1 (en) * 2019-10-18 2021-04-22 日産自動車株式会社 Object recognition method and object recognition device
JP7383451B2 (en) 2019-10-28 2023-11-20 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング vehicle tracking device
JP7134368B2 (en) 2019-11-29 2022-09-09 三菱電機株式会社 Object recognition device and object recognition method
JP7217817B2 (en) 2019-11-29 2023-02-03 三菱電機株式会社 Object recognition device and object recognition method
WO2021106196A1 (en) * 2019-11-29 2021-06-03 三菱電機株式会社 Object recognition device and object recognition method
JPWO2021106197A1 (en) * 2019-11-29 2021-06-03
JPWO2021106196A1 (en) * 2019-11-29 2021-06-03
WO2021106197A1 (en) * 2019-11-29 2021-06-03 三菱電機株式会社 Object recognition device and object recognition method
JP7474689B2 (en) 2020-12-04 2024-04-25 日産自動車株式会社 Object detection method and object detection device
JP7467562B1 (en) 2022-10-07 2024-04-15 本田技研工業株式会社 External Recognition Device

Also Published As

Publication number Publication date
JP6460822B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
JP6460822B2 (en) Moving object tracking method and moving object tracking apparatus
US11034349B2 (en) Autonomous driving method and apparatus
US10677900B2 (en) Detecting distortion using known shapes
CN107710304B (en) Route prediction device
JP4856656B2 (en) Vehicle detection device
JP5630249B2 (en) Object recognition device
JP2017027202A (en) Driving support system
JP2010008280A (en) Body detector
JP2009014479A (en) Object detection device for vehicle
JP6464410B2 (en) Obstacle determination device and obstacle determination method
JP2018190220A (en) Parking space detection device
KR20190109622A (en) System and method for detecting close cut-in vehicle based on free space signal
JP5949467B2 (en) Monitoring device
JP2012146024A (en) Parking space detection device
KR102060321B1 (en) System and method for controlling headlamp
JP5781126B2 (en) Obstacle determination device, autonomous mobile device, and obstacle determination method
KR20210116415A (en) LiDAR system design to mitigate lidar crosstalk
KR20200084938A (en) Method and Apparatus for Planning Car Motion
JP6075168B2 (en) Vehicle object detection device
KR20180039900A (en) Apparatus and method for determining collision possibility according to traveling path scenario and controlling a vehicle
JP2009168751A (en) Obstacle detection system and obstacle detection method
JP2021032794A (en) Measuring device, control method, program, and storage medium
JP2019079338A (en) Object detection system
JP6539958B2 (en) Carrier
JP6756507B2 (en) Environmental recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181225

R150 Certificate of patent or registration of utility model

Ref document number: 6460822

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250