JP2012237683A - Vehicle control object discrimination device - Google Patents
Vehicle control object discrimination device Download PDFInfo
- Publication number
- JP2012237683A JP2012237683A JP2011107594A JP2011107594A JP2012237683A JP 2012237683 A JP2012237683 A JP 2012237683A JP 2011107594 A JP2011107594 A JP 2011107594A JP 2011107594 A JP2011107594 A JP 2011107594A JP 2012237683 A JP2012237683 A JP 2012237683A
- Authority
- JP
- Japan
- Prior art keywords
- point data
- detection point
- layer
- vehicle
- layers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
この発明は、車両用制御対象物判定装置に関するものである。 The present invention relates to a vehicle control object determination device.
従来、レーダを用いて車両前方の対象物を検出して車両制御を行う判定装置にあっては、マルチレイヤのレーダを用いて、検出部により得られた複数の検出点データをグルーピングして、各レイヤ内にある検出点データが最大となるレイヤを抽出し、車体制御に必要な検出点を精度よく抽出するという技術が知られている(例えば、特許文献1参照)。 Conventionally, in a determination apparatus that performs vehicle control by detecting an object in front of a vehicle using a radar, a plurality of detection point data obtained by a detection unit are grouped using a multi-layer radar, A technique is known in which a layer having the maximum detection point data in each layer is extracted, and detection points necessary for vehicle body control are extracted with high accuracy (see, for example, Patent Document 1).
しかしながら、上述した従来の判定装置は、車体制御に不要な、対象物の上方物や下方物の検出点までグルーピングされて抽出されてしまうという課題がある。 However, the above-described conventional determination apparatus has a problem that it is grouped and extracted up to the detection points of the upper object and the lower object of the target object, which are unnecessary for vehicle body control.
この発明は、上記事情に鑑みてなされたものであり、上方物は下方物といった非制御対象物に対し車体制御に必要か否かを判定することが可能な車両用制御対象物判定装置を提供するものである。 The present invention has been made in view of the above circumstances, and provides a vehicle control object determination device capable of determining whether or not an upper object is necessary for vehicle control with respect to a non-control object such as a lower object. To do.
上記の課題を解決するために、請求項1に記載した発明は、上下方向に異なる高さに設定された複数のレイヤ(例えば、実施形態におけるレイヤL1〜L3,Lm,Ln)に基づいて車両前方の物体を検出する物体検出手段(例えば、実施形態におけるレーダー装置2)と、前記物体検出手段により各レイヤにて得られた複数の検出点データ(例えば、実施形態における検出点データD1〜D3,Dh,Dr)を結合し、一つの物体として認識するグルーピング手段(例えば、実施形態におけるステップS2)と、を備えた車両用制御対象物判定装置(例えば、実施形態における車両用制御対象物判定装置1)において、前記グルーピング手段は、前記複数のレイヤの各々の検出点データの個数の差が所定以上である場合は、前記検出点データの個数の差が所定以上である各レイヤにて検出された検出点データをグルーピングすることなく、それぞれ別の物体であると認識することを特徴とする。
In order to solve the above-described problem, the invention described in
請求項1に記載した発明によれば、グルーピング手段によって各レイヤにて得られた複数の検出点データを結合して物体を認識する場合に、各レイヤ内にある検出点データ数がレイヤ間で大きく異なると、一つの物体としてグルーピングが行われずにそれぞれ別の物体であると認識され、例えば、検出点データ数が最多のレイヤと、それ以外のレイヤとを個別に認識させることができるため、上方物や下方物といった非制御対象物に対して個別に検出点データが車体制御に必要か否かを判定することができる効果がある。 According to the first aspect of the present invention, when an object is recognized by combining a plurality of detection point data obtained in each layer by the grouping means, the number of detection point data in each layer is between layers. If they differ greatly, they are recognized as different objects without being grouped as one object, for example, because the layer with the largest number of detection point data and the other layers can be recognized individually, There is an effect that it is possible to individually determine whether detection point data is necessary for vehicle body control for an uncontrolled object such as an upper object or a lower object.
次に、この発明の実施形態における車両用制御対象物判定装置について図面を参照しながら説明する。
この実施形態の車両用制御対象物判定装置1は、レーダー装置2によって検出される自車両C(図2参照)の進行方向前方の物体が、例えば、自車両Cと衝突する可能性を判定する対象物であるか否かを判定する装置である。
Next, a vehicle control object determination device according to an embodiment of the present invention will be described with reference to the drawings.
The vehicle control
レーダー装置2は、例えばレーザ光やミリ波などの電磁波によるビームスキャン型のレーダであって、自車両Cの進行方向前方に設定された検出対象領域を上下角度方向に複数の領域(以下、レイヤと称す)に分割し、各領域を走査するようにして、電磁波の発信信号を発信する。そして、レーダー装置2は、各発信信号が自車両の外部の物体によって反射されることで生じた反射信号を受信する。ここで、図2は、レーダー装置2によって自車両Cの進行方向前方に照射されるレイヤL1〜L3の一例を示しており、この図2の一例では上下に3分割される場合を示している。なお、レイヤの分割数は複数であればよく3分割に限られるものではない。
The
レーダー装置2は、さらに自車両Cの前方に存在する物体にて反射されて受信された電磁波のデータにより、電磁波が照射された方向のデータおよび、この方向に存在する物体までの距離データを含む検出点データを所定の時間毎に取得して、そのデータを車両用制御対象物判定装置1に出力する。
The
車両用制御対象物判定装置1は、グルーピング手段4と物体検出手段5とを備えている。
これらグルーピング手段4および物体検出手段5は、車両用制御対象物判定装置1で行われる演算処理の一部によりそれぞれ構成される。なお、車両用制御対象物判定装置1の動作の詳細については後述する。
The vehicle control
The grouping unit 4 and the
車体制御装置3は、ブレーキを駆動させて自車両Cに制動力を与えるなど、車体の挙動を制御する装置である。車体制御装置3は、レーダー装置2にて検出された物体の位置に係る情報に基づき、自車両Cに対する物体の相対的な位置を求めて、自車両Cと物体とが衝突する可能性があるか否かを判定する。車体制御装置3は、自車両Cと物体との衝突可能性があると判定した場合に、ブレーキにより自車両Cに制動力を与えるなど、衝突を回避するための車体制御を行う。なお、衝突を回避するための車体制御としては、ブレーキによる制動力のほかに、トランスミッションにより減速側へ変速したり、スロットルアクチュエータによりスロットル開度を閉塞側へ変更したり、ステアリングアクチュエータにより転舵したりするなどの衝突回避の支援動作などが挙げられる。
The vehicle
ここで、自車両Cに対する物体の衝突可能性は、以下のように判定することができる。まず、自車両Cに対する物体の相対距離に係る相対関係、例えば物体の位置の時間変化に基づく物体の速度(例えば、自車両Cに対する相対速度)を算出したり、物体の移動軌跡を推定する。また、GPS(Global Positioning System)信号や、車速およびヨーレートなどに基づく自律航法の算出処理などに基づき自車両Cの現在位置を算出し、この自車両Cの現在位置の時間変化と車速およびヨーレートなどとに基づき、自車両Cの走行軌跡を推定する。 Here, the possibility of collision of an object with the host vehicle C can be determined as follows. First, a relative relationship related to the relative distance of the object with respect to the host vehicle C, for example, a speed of the object (for example, a relative speed with respect to the host vehicle C) based on a temporal change in the position of the object is calculated, or a movement trajectory of the object is estimated. In addition, the current position of the host vehicle C is calculated based on a GPS (Global Positioning System) signal, an autonomous navigation calculation process based on the vehicle speed and the yaw rate, etc., the time change of the current position of the host vehicle C, the vehicle speed and the yaw rate, etc. Based on the above, the travel locus of the host vehicle C is estimated.
次いで、例えば、自車両Cの走行軌跡と物体の移動軌跡とが交差する領域を接触予測領域とし、自車両Cが接触予測領域に到達するのに要する時間(衝突時間TTC)を推定する。そして、自車両Cが現在の走行状態(例えば、現在の車速、ヨーレートなど)を維持した状態で衝突時間TTCに亘って走行した時点での、物体の移動軌跡の幅方向での物体の移動軌跡と自車両Cとの重なり量を算出する。例えば、この重なり量が0よりも大きい場合には、自車両Cと物体とが接触する可能性があると判定する。その後、衝突時間TTCが所定の警報開始閾時間(例えば、2秒など)以下であるか否かを判定し、衝突時間TTCが警報開始閾時間以下である場合には、上述した車体制御装置3により、衝突回避のために警報装置(図示せず)によって乗員への報知がなされるとともに、衝突回避のための支援動作(車体制御)が開始される。
Next, for example, an area where the traveling locus of the host vehicle C and the movement locus of the object intersect is set as a contact prediction region, and a time required for the host vehicle C to reach the contact prediction region (collision time TTC) is estimated. Then, the object trajectory in the width direction of the object trajectory when the host vehicle C has traveled for the collision time TTC while maintaining the current travel state (for example, the current vehicle speed, yaw rate, etc.). The amount of overlap between the vehicle and the host vehicle C is calculated. For example, when the overlap amount is larger than 0, it is determined that there is a possibility that the host vehicle C and the object are in contact. Thereafter, it is determined whether or not the collision time TTC is less than or equal to a predetermined alarm start threshold time (for example, 2 seconds). If the collision time TTC is less than or equal to the alarm start threshold time, the vehicle
この実施形態の車両用制御対象物判定装置1は上述した構成を備えており、次に、この車両用制御対象物判定装置1の動作について図3のフローチャートを参照しながら説明する。
まず、ステップS1においては、レーダー装置2の走査範囲内に存在する物体に対する複数の検出点データを取得する。
次いで、ステップS2においては、ステップS1で取得された検出点データを、物体毎にグルーピングするグルーピング処理を行う。なお、このステップS2の処理がグルーピング手段に相当する。
The vehicle control
First, in step S1, a plurality of detection point data for an object existing within the scanning range of the
Next, in step S2, a grouping process for grouping the detection point data acquired in step S1 for each object is performed. Note that the processing in step S2 corresponds to grouping means.
図4は、道路の案内標識を正面からレーダー装置2により検出した場合の検出点データの一例であって、この場合、図4(b)に示すように水平方向に長い略矩形のレイヤL1〜L3が上下方向に並んで設定されている。レイヤL1に照射される電磁波は、図4(a)に示す案内標識10の看板11の下縁11aで反射され、さらに、レイヤL2およびレイヤL3に照射される電磁波は、案内標識10の左側に立設された支柱12で反射される。レイヤL1には、案内標識10の看板11の左右長さに対応した複数の検出点データD1が並んでおり、レイヤL2およびレイヤL3には、支柱12の左右長さに対応した検出点データD2、D3がそれぞれある。そして、これらの検出点データD1〜D3が、上述したステップS2のグルーピング処理が行われることでグルーピングされることとなる。
FIG. 4 is an example of detection point data when a road guide sign is detected by the
図5は、路上にいる歩行者hをレーダー装置2により検出した場合の検出点データの一例であって、レイヤLmとレイヤLnとが上下に並んで設定されている。レイヤLmには、路面Rに対応する多数の検出点データDrが左右方向に並んでおり、レイヤLnには、歩行者hに対応する検出点データDhがある。そして、これら検出点データDm,Dhがグルーピング処理によりグルーピングされる。つまり、図5の場合においても、路面Rおよび歩行者hの検出点データDh,Dmがグルーピングされることとなる。
FIG. 5 is an example of detection point data when the
ステップS3においては、グルーピング毎に、各レイヤの検出点データの点数を算出する。例えば、図4に示すレイヤL1〜L3を一例に説明すると、レイヤL1が6点、レイヤL2が1点、レイヤL3が1点というように、各レイヤL1〜L3に包含される検出点データD1〜D3の点数がそれぞれ算出される。 In step S3, the score of the detection point data of each layer is calculated for each grouping. For example, the layers L1 to L3 shown in FIG. 4 will be described as an example. The detection point data D1 included in each of the layers L1 to L3 is 6 points for the layer L1, 1 point for the layer L2, and 1 point for the layer L3. A score of .about.D3 is calculated.
次いで、ステップS4においては、各レイヤに包含される検出点データの点数の差が予め設定された閾値以下か否かを判定する。
ステップS4の判定結果が「Yes」(閾値以下)である場合は、ステップS5に進み、「No」(閾値より大)である場合は、ステップS6に進む。ステップS4における判定結果が「No」(閾値より大)である場合は、ステップS6に進み、最多レイヤと、それ以外のレイヤに分離して、両方の検出点データを抽出して本ルーチンを一旦終了する。
Next, in step S4, it is determined whether or not the difference in the number of detection point data included in each layer is equal to or less than a preset threshold value.
If the determination result in step S4 is “Yes” (below the threshold value), the process proceeds to step S5. If the determination result in step S4 is “No” (greater than the threshold value), the process proceeds to step S6, where the most frequent layer and the other layers are separated, both detection point data are extracted, and this routine is temporarily executed. finish.
ここで、各レイヤの検出点データの点数が多くなるほど物体の幅寸法が大となる。例えば、図4に示す案内標識10の場合、自車両C側から見て相対的に横幅が大きい看板部10と、横幅が小さい支柱部12とが一つにグルーピングされるが、この図4の一例の場合、各レイヤL1〜L3の検出点データD1〜D3の点数の差が閾値よりも大きく異なると判定されてステップS4の判定結果が「No」となり、横幅の差が大きい二つ以上の物体の組み合わせであると推定される。図5の一例の場合も同様であり、路面Rに照射されているレイヤLmと歩行者hに照射されているレイヤLnとの検出点データDh,Drの点数の差が閾値よりも大きいと判定される。なお、上記検出点データの点数の差の閾値は、衝突可能性の判定を行うことが想定される物体の形状に応じて予め適宜の値に設定される。
Here, the width dimension of the object increases as the number of detection point data of each layer increases. For example, in the case of the
ステップS5においては、検出点データの点数が最多のレイヤ(以下、単に最多レイヤと称す)を判定して、最多レイヤの検出点データを抽出して本ルーチンを一旦終了する。すなわち、最多レイヤに含まれる検出点データ(点列)のみが抽出されて、この抽出された検出点データが衝突可能性の判定に供される。 In step S5, the layer having the largest number of detection point data (hereinafter, simply referred to as the most layer) is determined, the detection point data of the most layer is extracted, and this routine is terminated once. That is, only the detection point data (point sequence) included in the most layers is extracted, and the extracted detection point data is used for determination of the possibility of collision.
一方、ステップS6においては、最多レイヤを判定するとともに、最多レイヤとそれ以外のレイヤとを分離して、最多レイヤとそれ以外のレイヤとの検出点データを個別に抽出する。すなわち、図6に示すように、最多レイヤであるレイヤL1の検出点データD1が抽出されるとともに、それ以外のレイヤであるレイヤL2の検出データD2およびレイヤL3の検出点データD3がひとくくりにされて抽出される(図6中、実線で囲む)。また、図7の一例の場合、最多レイヤである路面Rの検出点データRmを含むレイヤLmから検出点データDrが抽出されるとともに、それ以外のレイヤであるレイヤLnから検出点データDhが抽出されることとなる。これにより、最多レイヤであるレイヤLmの検出点データDrによる衝突可能性の判定と、それ以外のレイヤであるレイヤLnの検出点データDhによる衝突可能性の判定とが個別に行われることとなる。なお、路面Rの検出点データDrは、レイヤLmの照射位置から路面Rであることが分かるため、衝突可能性の判定対象から除外することができる。 On the other hand, in step S6, the most frequent layer is determined, the most frequent layer and the other layers are separated, and detection point data of the most frequent layer and the other layers are individually extracted. That is, as shown in FIG. 6, the detection point data D1 of the layer L1 that is the most layer is extracted, and the detection data D2 of the layer L2 and the detection point data D3 of the layer L3 that are other layers are gathered together. And extracted (enclosed by a solid line in FIG. 6). In the example of FIG. 7, the detection point data Dr is extracted from the layer Lm including the detection point data Rm of the road surface R which is the most layer, and the detection point data Dh is extracted from the layer Ln which is the other layer. Will be. As a result, the determination of the possibility of collision based on the detection point data Dr of the layer Lm that is the most layer and the determination of the possibility of collision based on the detection point data Dh of the layer Ln that is the other layer are performed separately. . Note that the detection point data Dr on the road surface R can be excluded from the determination target of the collision possibility because it is known that the road surface R is the irradiation position of the layer Lm.
ここで、例えば案内標識10の場合、最多レイヤの検出点データのみを用いて衝突可能性が判定されると、グルーピングされた物体の幅が最多レイヤの幅となるので、支柱12の側方の通過可能な部分まで衝突可能性があると判定されてしまうが、図6に示すように看板部11の検出点データD1と支柱12の検出点データD2,D3とがそれぞれ個別に衝突可能性の判定に供されるので、自車両Cよりも上方に存在する上方物である看板部11は衝突可能性が低い(又は無い)非制御対象物と判定され、さらに支柱12の相対位置に応じて衝突可能性が判定される。そして、衝突可能性がある場合には、上述した衝突時間TTC等に基づき適切に警報や車体制御等が行われることとなる。
Here, for example, in the case of the
一方、図7に示すように歩行者hの検出点データDhと、路面Rの検出点データDrとが個別に衝突可能性の判定に供されることで、自車両Cよりも下方に存在する下方物である路面Rは衝突可能性が低い(又は無い)非制御対象物と判定され、歩行者hの相対位置に応じて衝突可能性が判定されて、衝突可能性がある場合には、衝突時間TTC等に基づき適切に警報や車体制御等が行われることとなる。 On the other hand, as shown in FIG. 7, the detection point data Dh of the pedestrian h and the detection point data Dr of the road surface R are individually provided for the determination of the possibility of collision, and thus exist below the host vehicle C. When the road surface R which is a downward object is determined as a non-control target object with low (or no) collision possibility, the collision possibility is determined according to the relative position of the pedestrian h, and when there is a collision possibility, Based on the collision time TTC and the like, alarms and vehicle body control are appropriately performed.
したがって、上述した実施形態によれば、グルーピング処理によって各レイヤにて得られた複数の検出点データを結合して物体を認識する場合に、各レイヤ内にある検出点データ数がレイヤ間で大きく異なると、一つの物体としてグルーピングが行われずにそれぞれ別の物体であると認識され、例えば、検出点データ数が最多の最多レイヤと、それ以外のレイヤとを個別に認識させることができるため、上方物や下方物といった非制御対象物に対する検出点データを個別に車体制御に必要か否か判定することができる。 Therefore, according to the above-described embodiment, when an object is recognized by combining a plurality of detection point data obtained in each layer by the grouping process, the number of detection point data in each layer is large between layers. If they are different, they are recognized as different objects without being grouped as one object.For example, the most frequent layer with the largest number of detection point data and the other layers can be recognized separately. It is possible to determine whether or not detection point data for an uncontrolled object such as an upper object or a lower object is individually required for vehicle body control.
なお、この発明は上述した実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲で設計変更可能である。
例えば、上述した実施形態では、制御対象物として、案内標識10や歩行者hを一例に説明したが、衝突可能性のあるものであれば案内標識10や歩行者hに限られるものではない。
In addition, this invention is not restricted to the structure of embodiment mentioned above, A design change is possible in the range which does not deviate from the summary.
For example, in the above-described embodiment, the
1 車両用制御対象物判定装置
L1〜L3,Lm,Ln レイヤ
2 レーダー装置(物体検出手段)
D1〜D3,Dh,Dr 検出点データ
ステップS2 グルーピング手段
DESCRIPTION OF
D1 to D3, Dh, Dr detection point data Step S2 Grouping means
Claims (1)
前記物体検出手段により各レイヤにて得られた複数の検出点データを結合し、一つの物体として認識するグルーピング手段と、を備えた車両用制御対象物判定装置において、
前記グルーピング手段は、前記複数のレイヤの各々の検出点データの個数の差が所定以上である場合は、前記検出点データの個数の差が所定以上である各レイヤにて検出された検出点データをグルーピングすることなく、それぞれ別の部材であると認識することを特徴とする車両用制御対象物判定装置。 Object detection means for detecting an object in front of the vehicle based on a plurality of layers set at different heights in the vertical direction;
In the vehicle control object determination device comprising: a plurality of detection point data obtained in each layer by the object detection means, and a grouping means for recognizing as one object
When the difference in the number of detection point data of each of the plurality of layers is equal to or greater than a predetermined value, the grouping unit detects the detection point data detected in each layer where the difference in the number of detection point data is equal to or greater than a predetermined value. The vehicle control object determination device is characterized by recognizing that they are different members without grouping them.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011107594A JP2012237683A (en) | 2011-05-12 | 2011-05-12 | Vehicle control object discrimination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011107594A JP2012237683A (en) | 2011-05-12 | 2011-05-12 | Vehicle control object discrimination device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012237683A true JP2012237683A (en) | 2012-12-06 |
Family
ID=47460694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011107594A Withdrawn JP2012237683A (en) | 2011-05-12 | 2011-05-12 | Vehicle control object discrimination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012237683A (en) |
-
2011
- 2011-05-12 JP JP2011107594A patent/JP2012237683A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6115576B2 (en) | Vehicle travel control device | |
JP6237694B2 (en) | Travel control device | |
CN107848537B (en) | Automatic driving assistance device, automatic driving assistance method, and non-transitory recording medium | |
KR101552074B1 (en) | Vehicle driving support system | |
CN106064626B (en) | Controlling device for vehicle running | |
JP6318864B2 (en) | Driving assistance device | |
JP5765431B2 (en) | Vehicle driving support system | |
US8977435B2 (en) | Vehicle control apparatus | |
JP5761360B2 (en) | Vehicle driving support system | |
JP6152673B2 (en) | Lane change support device | |
JP2016212630A (en) | Travel control device | |
EP3527450B1 (en) | Vehicle control apparatus | |
JP2013109705A (en) | Apparatus and method for driving assistance | |
JP2010079565A (en) | Drive assist device | |
JP6304011B2 (en) | Vehicle travel control device | |
WO2021054051A1 (en) | Electronic control device | |
JP2018106487A (en) | Vehicle collision avoidance support apparatus and vehicle collision avoidance support method | |
EP3418152B1 (en) | Vehicle control device | |
JP2014108711A (en) | Parking support system | |
JP5771930B2 (en) | Traveling track creation device | |
JP5726263B2 (en) | Driving support device and driving support method | |
JP2009140145A (en) | Vehicle travel-supporting device | |
JP2017073059A (en) | Lane change support device | |
JP2010095078A (en) | Route prediction device | |
JP2017114194A (en) | Vehicle control apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140805 |