JP2003536137A - Situation awareness processor - Google Patents

Situation awareness processor

Info

Publication number
JP2003536137A
JP2003536137A JP2002502625A JP2002502625A JP2003536137A JP 2003536137 A JP2003536137 A JP 2003536137A JP 2002502625 A JP2002502625 A JP 2002502625A JP 2002502625 A JP2002502625 A JP 2002502625A JP 2003536137 A JP2003536137 A JP 2003536137A
Authority
JP
Japan
Prior art keywords
vehicle
data
host vehicle
situation
events
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002502625A
Other languages
Japanese (ja)
Other versions
JP2003536137A5 (en
Inventor
シャン コング,
レオナルド ダブリュー. ベア,
ジェームス ピー. エブリング,
Original Assignee
オートモーティブ システムズ ラボラトリー インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オートモーティブ システムズ ラボラトリー インコーポレーテッド filed Critical オートモーティブ システムズ ラボラトリー インコーポレーテッド
Publication of JP2003536137A publication Critical patent/JP2003536137A/en
Publication of JP2003536137A5 publication Critical patent/JP2003536137A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/902Application using ai with detail of the ai system
    • Y10S706/903Control
    • Y10S706/905Vehicle or aerospace

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Instructional Devices (AREA)

Abstract

(57)【要約】 自車両(16)が運転される状況を表わす複数の事象(S)を、少なくとも1組の関連事象(Sη)を含めて選択する。入力データ(e)は、自車両(16)の視野内の目標物(18)を表わす第1の組のデータ、自車両(16)の位置または移動を表わす第2の組のデータ、または自車両(16)の環境(30)を表わす第3の組のデータのいずれかから推論エンジンに供給される。推論エンジンは推論方法に従って作動して、入力データ(e)、および場合によっては過去の時刻(k−1)における1つまたは複数の出力(pk−1)に応じて、前記1組の事象の少なくとも1つの事象(Sλ)の発生確率を表わす出力を生成する。対策(34)は、1つまたは複数の推論エンジンからの1つまたは複数の出力(p)に応答して起動することができる。 (57) [Summary] A plurality of events (S) representing a situation in which the host vehicle (16) is driven are selected, including at least one set of related events (S η ). The input data (e i ) is a first set of data representing a target (18) in the field of view of the vehicle (16), a second set of data representing the position or movement of the vehicle (16), or Any of a third set of data representing the environment (30) of the vehicle (16) is provided to the inference engine. The inference engine operates in accordance with the inference method to respond to the input data (e i ) and possibly one or more outputs (p k-1 ) at a past time (k-1) to the set of inferences. An output is generated that represents the probability of occurrence of at least one of the events (S λ ). Solution (34) may be invoked in response to one or more outputs (p k ) from one or more inference engines.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】 自車両の環境を、十分な範囲と精度で検知かつ識別することが可能であり、そ
れによって衝突を回避するか、あるいは衝突による自車両の乗員または自車両外
部の歩行者への傷害を軽減するために、適切な対策を選択し、かつ十分早期に実
施することのできる、自動車用途の改良型予測式衝突センシングまたは衝突回避
システムへの要求がある。本願において使用する予測衝突センシングシステムの
用語は、衝突回避システムも意味するものであり、自車両の環境において目標物
を検知して追跡し、次いで安全を向上させる対策を提示するか、あるいはそれを
自動的に起動させる。
It is possible to detect and identify the environment of the own vehicle with sufficient range and accuracy, thereby avoiding a collision or injuring an occupant of the own vehicle or a pedestrian outside the own vehicle due to the collision. There is a need for an improved predictive collision sensing or collision avoidance system for automotive applications, in which appropriate measures can be selected and implemented early enough to reduce The term predictive collision sensing system as used in this application also means a collision avoidance system, which detects and tracks a target in the environment of the vehicle and then presents a measure to improve safety or Start automatically.

【0002】 一般に、予測式センシングシステムでは、その環境に対する自車両の運動また
はその逆を、例えば関連する目標物トラッカを備えるレーダシステムを用いて追
跡する。環境には、静的目標物および移動目標物の両方が含まれる。自動車環境
は、他の目標物追跡環境、例えば航空機または船舶とは、自動車が道路によって
拘束される環境で主として運転されるものである点において異なっている。もち
ろんこれには例外があり、例えば駐車場またはオフロードの運転条件があるが、
これらの例外は、一般に車両運転時間の比較的小さな割合を占めるか、あるいは
予測式衝突センシングによって便益を受けるような衝突危険が比較的少ない。
In general, predictive sensing systems track the movement of the vehicle relative to its environment or vice versa, for example using a radar system with an associated target tracker. The environment includes both static and moving targets. The vehicle environment differs from other target tracking environments, such as aircraft or ships, in that the vehicle is primarily driven in a road restrained environment. Of course there are exceptions to this, for example parking or off-road driving conditions,
These exceptions generally account for a relatively small percentage of vehicle operating time, or have a relatively low collision risk that would benefit from predictive collision sensing.

【0003】 図1〜3を参照すると、状況認識システム10が、自車両16に組み込まれた
レーダシステム14からのレーダデータを処理するレーダ処理システム12内に
示されている。一般に、自車両16には、その環境内の目標物18を検知するた
めのセンサが組み込まれると共に、1つまたは複数の目標物に対する自車両16
の相対運動に応じて、関連する対策を起動および/または制御するためのシステ
ムが組み込まれている。目標物18を検知するセンサは、例えばレーダセンサシ
ステムまたはライダー(lidar)センサシステムであり、これらは自車両16に
対する目標物18の位置を検知して追跡し、本願に参照として組み入れる共同所
有の米国特許第6085151号に開示されているものと同様に、自車両16と
目標物18とが衝突する可能性があるかどうかを予測する。
Referring to FIGS. 1-3, a situational awareness system 10 is shown within a radar processing system 12 that processes radar data from a radar system 14 incorporated into a vehicle 16. Generally, the vehicle 16 incorporates a sensor for detecting a target 18 in its environment and the vehicle 16 for one or more targets.
A system for activating and / or controlling the associated measures in response to the relative movement of the. The sensor for detecting the target 18 is, for example, a radar sensor system or a lidar sensor system that detects and tracks the position of the target 18 with respect to the vehicle 16 and is a co-owned U.S.A. Similar to the one disclosed in Japanese Patent No. 6085151, it is predicted whether the own vehicle 16 and the target object 18 may collide.

【0004】 図1を参照すると、自車両16がX方向に自速度20で1つまたは複数の目標
物18を含む環境を移動しており、それぞれの目標物は、自車両16に対して関
連する角度22および距離24において、関連する進行方位(heading)28に
関連する目標物速度26を有する。一般に、目標物18は、自車両16の環境3
0に対して、静止しているか、または移動している可能性がある。 図2はレーダ処理システム12のブロック図を示しており、ブロック図の各ブ
ロックは、自車両に搭載されたレーダシステム14が提供するデータを受け取り
、準備および/または処理する関連のソフトウエアを含む。レーダシステム14
からのデータはプリプロセッサ32によって前処理され、それによって例えば距
離、距離変化率、方位角などの目標物追跡に適したレーダデータを生成する。レ
ーダレーダは、一般に自車両前方の比較的広い視野、少なくとも自車両の長手方
向軸から±5°を範囲に含み、レーダおよび関連するアンテナ構成に応じて、場
合によっては±180°に拡がっている。この例に示すシステムは、±55°の
視野を有する。
Referring to FIG. 1, an own vehicle 16 is moving in an X direction at an own speed 20 in an environment including one or more targets 18, and each target is associated with the own vehicle 16. At an angle 22 and a distance 24, the target velocity 26 is associated with the associated heading 28. Generally, the target object 18 is the environment 3 of the vehicle 16.
For 0, it may be stationary or moving. FIG. 2 shows a block diagram of the radar processing system 12, with each block of the block including associated software for receiving, preparing and / or processing the data provided by the radar system 14 mounted on the vehicle. . Radar system 14
The data from is pre-processed by a preprocessor 32, which produces radar data suitable for target tracking, such as range, rate of change of distance, azimuth, etc. Radar Radar generally covers a relatively wide field of view in front of the vehicle, at least ± 5 ° from the longitudinal axis of the vehicle, and depending on the radar and associated antenna configuration, may extend to ± 180 °. The system shown in this example has a field of view of ± 55 °.

【0005】 トラッカ34は、レーダ出力データ(距離、距離変化率および方位角)を、目
標物速度、および目標物の位置を規定するX‐Y座標に変換する。例えば、米国
特許第6085151号は、複数の目標物を追跡し、かつ関連するレーダデータ
を単一の目標物についてのクラスタに形成するシステムを開示している。アソシ
エータ36は、古い追跡データを、最近の走査によるものに関係づけて、各目標
物の追跡履歴を編集する。 追跡マップジェネレータ38は、自車両に対する目標物運動の進展の記録とし
て、進行方位および品質情報のグリッドを含む追跡マップを、追跡データから生
成する。追跡マップは、自車両16の視野に進入する後続の目標物18からの追
跡データで更新され、古いデータは時間と共にマップから消えて行く。したがっ
て、追跡マップは、目標物18が追従する経路の、自車両16に対する表現を提
供し、この経路は通常、自車両16の環境30内の関連する道路によって拘束さ
れる。例えば、2001年6月8日付けで別個に申請された、「Track Map Genera
tor(追跡マップジェネレータ)」という名称の米国特許出願第09/____
_号に追跡マップジェネレータ38が開示されている。
The tracker 34 converts the radar output data (distance, rate of change in distance and azimuth angle) into XY coordinates that define the velocity of the target and the position of the target. For example, US Pat. No. 6,085,151 discloses a system for tracking multiple targets and forming related radar data into clusters for a single target. The associator 36 correlates old tracking data with those from recent scans and edits the tracking history of each target. The tracking map generator 38 generates a tracking map including a traveling direction and a grid of quality information from the tracking data as a record of the progress of the target object movement with respect to the own vehicle. The tracking map is updated with tracking data from subsequent targets 18 entering the field of view of the vehicle 16 and old data disappears from the map over time. Thus, the tracking map provides a representation for the vehicle 16 of the path followed by the target 18, which path is typically bound by the associated road in the environment 30 of the vehicle 16. For example, “Track Map Genera, which was separately applied as of June 8, 2001,
US patent application Ser. No. 09 / _____
The tracking map generator 38 is disclosed in _ issue.

【0006】 状況認識プロセッサ10は、1)追跡マップ、2)自車両16の位置および/
または運動を示す獲得データ、すなわち自車両情報40、および場合によっては
3)環境データ42を使用し、これによって一組の可能性のある運転状況から最
も可能性の高い、または適切な運転状況を判断する。例えば、環境データ42は
、ナビゲーションシステム44からのナビゲーションデータ、デジタル地図、高
速道路形状および近傍車両のリアルタイム無線入力、高速道路上に構築された電
磁気マーカまたは光学マーカなどのリアルタイムトランスポンダからのデータを
含んでもよく、トラッカ34/アソシエータ36からの目標物追跡データと共に
、道路曲率エスティメータ46において使用することにより、道路曲率の推定値
を状況認識プロセッサ10に提供してもよい。例えば、車両の位置および方向な
どのナビゲーションデータは、GPS受信機によって計測するか、コンパスもし
くは方位ジャイロスコープによる車両の進行方位の測定値、および車輪の速度も
しくは回転の測定値による車両の距離および進行方位を使用する推測航法(dead
reckoning)によるか、またはこれら2つの組み合わせによって可能である。
The situation recognition processor 10 has 1) a tracking map, 2) the position of the own vehicle 16 and / or
Alternatively, the acquired data indicating the movement, that is, the own vehicle information 40 and, in some cases, 3) the environmental data 42, is used to determine the most probable or appropriate driving situation from a set of possible driving situations. to decide. For example, the environmental data 42 includes navigation data from the navigation system 44, digital maps, real-time wireless input of highway shapes and nearby vehicles, data from real-time transponders such as electromagnetic or optical markers built on highways. Alternatively, an estimate of road curvature may be provided to the situation awareness processor 10 for use in the road curvature estimator 46, along with target tracking data from the tracker 34 / associator 36. For example, navigation data such as the position and direction of the vehicle is measured by a GPS receiver, or the traveling direction of the vehicle is measured by a compass or a direction gyroscope, and the distance and the traveling direction of the vehicle are measured by measuring the speed or rotation of the wheels. Dead Reckoning Using Bearing (dead
reckoning) or a combination of the two.

【0007】 状況認識プロセッサ10は、追跡マップジェネレータ38からの追跡マップを
記憶、かつ説明し、いくつかの追跡の時間経過を比較する。追跡目標物の相対位
置と進行を推定することによって、例えば位置状況、交通状況、運転操作状況、
あるいは突発事象の発生などの様々な運転状況を識別することが可能となる。状
況の識別にはいくつかの技法を用いることができ、例えば集合理論的推論(例え
ば不規則集合理論(random set theory)または証拠推論(evidential reasonin
g))、ベイズの推論、またはニューラルネットワークがある。 位置状況の例としては、分離型高速道路(divided highway)または非分離型
高速道路、交差点、高速道路入口もしくは出口、駐車場もしくはオフハイウエイ
状況、自車両の左側または右側の停止物体などがある。交通状況の例としては、
混雑交通、閑散交通、通常交通がある。運転操作状況の例としては、目標物割り
込み、自車両のレーン変更もしくは速度変更、または目標物の速度変化がある。
The situational awareness processor 10 stores and describes the tracking map from the tracking map generator 38 and compares the time course of several tracking. By estimating the relative position and progress of the tracking target, for example, position situation, traffic situation, driving situation,
Alternatively, it becomes possible to identify various driving situations such as occurrence of a sudden event. Several techniques can be used to identify situations, such as set theory reasoning (eg, random set theory or evidence reasoning).
g)), Bayesian inference, or neural networks. Examples of location situations are divided highways or non-separated highways, intersections, highway entrances or exits, parking or off-highway situations, stationary objects to the left or right of the vehicle. As an example of traffic situation,
There are crowded traffic, quiet traffic, and normal traffic. Examples of the driving operation status include a target interruption, a lane change or speed change of the host vehicle, or a target speed change.

【0008】 状況認識プロセッサ10が推定した状況は、衝突エスティメータ48および衝
突破壊重大度(crash severity)エスティメータ50からの衝突および衝突破壊
重大度推定値を共に、応答ジェネレータ52への入力として使用し、例えば決定
マトリクス(decision matrix)を使用して適切な対策手段54を選択する。応
答ジェネレータ52による具体的な応答の決定は、例えばルールベースシステム
(エキスパートシステム)、ニューラルネットワーク、または別の決定手段に基
づいてもよい。
The situation estimated by the situation awareness processor 10 uses both the crash and crash damage severity estimates from the crash estimator 48 and crash severity estimator 50 as inputs to the response generator 52. Then, the appropriate countermeasures 54 are selected using, for example, a decision matrix. The specific response determination by the response generator 52 may be based on, for example, a rule-based system (expert system), a neural network, or another determination means.

【0009】 起動させることのできる対策手段54の例としては、ドライバに修正操作を行
うことを警告する警報装置、例えば3次元音響警報(例えば本願に参照として組
み入れる共有の米国特許第5979586号に開示されているように)、衝突を
回避するために回避操作を行うための、例えばエンジンスロットル、車両変速機
、車両ブレーキシステム、または車両ステアリングシステムなどの様々な手段、
および衝突が回避不能の場合に、例えば自動安全ベルトプリテンショナ、または
内部または外部エアバッグなどの乗員への傷害を軽減するための様々な手段があ
る。選択される特定の1つまたは複数の対策手段54、および前記1つまたは複
数の対策手段54を起動、操作、または制御する方法は、状況認識プロセッサ2
4によって識別される状況と、衝突および衝突破壊重大度の推定値に依存する。
例としてあげると、1つの可能性のある状況としては、自車両の走行レーンへの
侵入に対する応答は、目標物が反対方向から接近しているか、あるいは自車両と
同じ方向に進行しているが、自車両の走路に割り込んできたのかによって、異な
る応答を必要とすることがある。危険を発生する交通状況を考慮することによっ
て、その危険を軽減するように対策手段54を適合させることができる。レーダ
システム、または一般的には予測式衝突センシングシステムを使用して自車両の
範囲にある目標物を検知することによって、実際の衝突の以前に対策手段54を
実施することによって、衝突を回避するか、または衝突による乗員傷害を軽減す
ることができる。
An example of a countermeasure 54 that can be activated is an alarm device that alerts the driver to take corrective action, such as a three-dimensional audible alarm (eg, as disclosed in commonly owned US Pat. No. 5,979,586, incorporated herein by reference). Various means, such as engine throttles, vehicle transmissions, vehicle braking systems, or vehicle steering systems, for performing avoidance maneuvers to avoid collisions, as described above.
And there are various means for mitigating injury to the occupant, such as an automatic safety belt pretensioner or internal or external airbags, if a collision is unavoidable. The particular one or more countermeasures 54 selected and the method of activating, operating or controlling the one or more countermeasures 54 are described in the context awareness processor 2.
4 and the estimates of crash and crash severity.
By way of example, one possible situation is that the response to your vehicle entering the driving lane is that the target is approaching from the opposite direction or traveling in the same direction as your vehicle. , Different responses may be required depending on whether the vehicle has interrupted the road. By taking into account the traffic situation that poses a risk, the countermeasures 54 can be adapted to reduce the risk. Avoiding collisions by implementing countermeasures 54 prior to the actual collision by detecting targets within range of the vehicle using a radar system, or typically a predictive collision sensing system. Or, occupant injury due to a collision can be reduced.

【0010】 図3を参照すると、レーダシステム14およびレーダ処理システム12が、自
車両16に組み込まれており、自車両情報40は、例えば生成された自車両情報
40を状況認識プロセッサ10に提供する車両プロセッサ56に動作可能に接続
された関連するセンサによって提供される。例えば、1つまたは複数の車輪速セ
ンサ58によって、1つまたは複数の関連する車輪からの車輪速測定値を得るこ
とができ、横方向に対向する車輪についての車輪速の平均値から、車両速度の測
度が得られ、車輪速の差から、ヨーレートの測度が得られる。代替手法、あるい
は追加として、車両速度は変速機出力軸の回転から測定してもよい。ステアリン
グシャフトに動作可能に接続された操舵角センサ60によって、ドライバによる
ステアリングホイールの回転に応じた操舵角の測度が得られる。自車両16のヨ
ーレートは、代替的または追加的にジャイロ62によって検知してもよく、ヨー
レートを積分することによって自車両16の進行方位の測度が得られる。
Referring to FIG. 3, the radar system 14 and the radar processing system 12 are incorporated in the host vehicle 16, and the host vehicle information 40 provides, for example, the generated host vehicle information 40 to the situation recognition processor 10. Provided by an associated sensor operably connected to the vehicle processor 56. For example, one or more wheel speed sensors 58 can provide wheel speed measurements from one or more associated wheels, and the vehicle speed can be calculated from the average wheel speed for laterally opposed wheels. Is obtained, and the yaw rate is obtained from the difference in wheel speed. Alternatively, or in addition, vehicle speed may be measured from rotation of the transmission output shaft. A steering angle sensor 60 operably connected to the steering shaft provides a measure of the steering angle as the driver rotates the steering wheel. The yaw rate of the host vehicle 16 may alternatively or additionally be detected by the gyro 62, and integrating the yaw rate provides a measure of the heading of the host vehicle 16.

【0011】 状況認識プロセッサ10は、様々なセンサで収集したセンサ情報を、運転環境
と整合する理解に変換し、緊急事態に応じてより適切な応答を起動することがで
きる。換言すると、状況認識プロセッサ10は、センサデータの意味を解釈する
。状況認識プロセッサ10への入力は、「状態」ドメインから「事象」ドメイン
へと変換される。状態ドメインにおける変数は通常数値的に表されるが、事象ド
メインの変数は、一般に事象として、またその発生の信頼度によって表される。
状況認識プロセッサ10は、特定の「状況」に対応する「事象」を識別する。表1
〜3に、様々な事象の例と、関連する定義を示してある。
The situational awareness processor 10 can translate the sensor information collected by the various sensors into an understanding that is consistent with the driving environment and trigger a more appropriate response in response to an emergency. In other words, situational awareness processor 10 interprets the meaning of the sensor data. Input to the situational awareness processor 10 is translated from the "state" domain to the "event" domain. Variables in the state domain are usually represented numerically, whereas variables in the event domain are generally represented as events and by the reliability of their occurrence.
The situational awareness processor 10 identifies the "event" that corresponds to a particular "situation." Table 1
Examples of various events and associated definitions are provided in.

【0012】 関係する事象を識別するための入力は、レーダ情報、自車両速度およびヨーレ
ート、GPS自車位置情報およびデジタル地図情報などの元のセンサ情報を処理
することによって得られる。これらの入力には、それに限定はされないが、表4
に列記したものがあり、その情報は、自車の絶対位置、道路種類、および進入道
路構造を除き、図1の座標系によって解釈される。自車両絶対位置は、デジタル
地図の座標系で定義され、道路種類および進入道路構造は事象によって表される
Inputs for identifying related events are obtained by processing original sensor information such as radar information, vehicle speed and yaw rate, GPS vehicle position information and digital map information. These inputs include, but are not limited to, Table 4
The information is interpreted by the coordinate system of FIG. 1, except for the absolute position of the vehicle, the road type, and the approach road structure. The own vehicle absolute position is defined by the coordinate system of the digital map, and the road type and approach road structure are represented by events.

【表1】 [Table 1]

【表2】 [Table 2]

【表3】 [Table 3]

【表4】 [Table 4]

【0013】 状況認識プロセッサ10の出力は、識別された事象のリストおよび関連する信
頼度レベルを含む。この事象は全体として現在の運転状況を定義する。信頼度は
、確率(probability)や可能性(possibility)などのいくつかの方法で表すこ
とができ、それぞれ以下に述べる異なる推論機構によって生成される。出力は、
推論過程によって求められ、この推論過程は事象と関連かつ対応する入力とを関
係づける再帰的意思決定過程(recursive decision making process)である。
決定は、特定の事象の発生に対する信頼度によって与えられる。事象の信頼度を
計算する一般式は、以下で与えられる。 ここで、pkは信頼度レベルであり、eiは時間kにおける入力である。
The output of the situational awareness processor 10 includes a list of identified events and associated confidence levels. This event as a whole defines the current driving situation. Confidence can be expressed in several ways, such as probability and possibility, each generated by a different inference mechanism, described below. The output is
Obtained by an inference process, which is a recursive decision making process that associates an event with a corresponding input.
A decision is given by the confidence in the occurrence of a particular event. A general formula for calculating the reliability of an event is given below. Where p k is the confidence level and e i is the input at time k.

【0014】 再帰的更新機構を規定する推論エンジンにおいては、様々な方法を用いること
ができる。とりわけ最も広く使用されるのは、1)デンプスター・シェーファー
の証拠推論、2)ファジイ論理推論、3)ベイズ推論、および4)ニューラルネ
ットワークである。証拠推論またはファジイ論理推論の代わるより一般的な手法
として、不規則集合理論を用いることもできる。 特定の推論エンジンを使用するための準備においては、上述の事象は最初にい
くつかのクラスにグループ化されて、それぞれがある数の互いに排他的な微小な
事象(atomic event)を含む。1つの推論エンジンの出力は、別の推論エンジン
の入力としてフィードバックすることもできるが、推論は各クラス内で実行され
る。現在の運転状況の性質についての決定は、すべての推論エンジンの集合出力
に応じて実施される。例えば、表5は表1〜3に一覧表示した事象に基づいて再
編成された1組の事象クラスを、一覧表示している。
Various methods can be used in an inference engine that defines a recursive update mechanism. Among the most widely used are 1) Dempster-Schafer evidence reasoning, 2) fuzzy logic reasoning, 3) Bayesian reasoning, and 4) neural networks. Irregular set theory can also be used as a more general alternative to evidence or fuzzy logic reasoning. In preparation for using a particular inference engine, the above-mentioned events are first grouped into classes, each containing a certain number of mutually exclusive atomic events. The inference is performed within each class, although the output of one inference engine can also be fed back as the input of another inference engine. The decision about the nature of the current driving situation is made as a function of the collective output of all inference engines. For example, Table 5 lists a set of event classes reorganized based on the events listed in Tables 1-3.

【0015】 再編成された事象に基づく決定過程は、本質的にネットワーク化した推論エン
ジンを形成し、この全体を図4に示し、より詳細を図5に示してある。 次に例として、進入道路構造のベイズ推論を導出することによって、決定過程
を説明する。ベイズ定理は以下の通りである。
The reorganized event-based decision process essentially forms a networked inference engine, which is shown generally in FIG. 4 and in more detail in FIG. Next, as an example, the decision process will be described by deriving the Bayesian inference of the approach road structure. The Bayes theorem is as follows.

【0016】 推論エンジンが利用できるすべての情報を で表し、{e}をすべての利用可能な入力の収集とすると、eは全体として追
跡マップが伝えるすべての情報を指し、これはさらにG個のグリッドの組、すな
わち に分解可能であり、ここで および は、それぞれグリッドξの進行方位および品質情報である。N個の目標物に対し
て、e=Nとなる。上付き文字は、目標物を区別するために使用することがで
き、例えば、 および は、目標物r(r=1,2,‥N)の速度、進行方位、および目標物の位置を示
す。目標物情報の内、各 は、XおよびY座標おける目標物の位置を定義し、 となる。道路種類および進入道路構造は、本質的に事象である。各事象は、先に
定義した可能性のある事象のクラスに属する。一般に、上付きも文字は、ある事
象を、そのクラス内の別の事象と区別するのに使用し、例えば および は、それぞれ道路種類および進入道路構造を指定する。
All the information available to the inference engine , And let {e k } be the collection of all available inputs, e a refers to all the information that the tracking map conveys as a whole, which in turn is a set of G grids, ie Can be disassembled into and Are the heading and the quality information of the grid ξ, respectively. For N targets, e e = N. Superscripts can be used to distinguish targets, for example: and Indicates the speed, traveling direction, and position of the target object r (r = 1, 2, ... N). Each of the target information Defines the position of the target in X and Y coordinates, Becomes Road types and approach road structures are events in nature. Each event belongs to a class of events that may have been defined previously. In general, superscript letters are also used to distinguish one event from another in its class, eg and Specifies the road type and approach road structure, respectively.

【表5】 [Table 5]

【0017】 推論ネットワークの出力は、先に定義した7つのクラスからの7つの事象を含
み、ここで事象はSで表し、下付き文字は事象のクラスを示し、上付き文字は下
付き文字で指定されるクラスの目的の事象を表すのに用いる。したがって、 は、クラスηの出力事象であり、そのクラスの事象λである。例えば、η=1、
λ=2の場合には、 はフリーウエイ入口を意味する。 上記のように定義すると、進入道路構造に対するベイズ推論は、次のように導
出できる。ベイズの枠組みにおいては、推論の結果は、所与の事象の事後確率(
posterior probability)となる。進入道路構造に対して、推定しようとする確
率は、 であり、証拠の収集{e}およびクラスSの関連する知識が与えられると、 となり、ここで は道路種類のクラスに属する事象の指標である。
The output of the inference network contains 7 events from the 7 classes defined above, where the events are represented by S, the subscript indicates the class of the event, and the superscript is the subscript. Used to represent the desired event of the specified class. Therefore, Is an output event of the class η and an event λ of the class. For example, η = 1,
When λ = 2, Means the freeway entrance. Defined as above, the Bayesian inference for approach road structure can be derived as follows. In the Bayesian framework, the result of inference is the posterior probability of a given event (
posterior probability). The probability of trying to estimate the approach road structure is And given the collection of evidence {e k } and relevant knowledge of class S 2 , Next to here Is an index of events belonging to the road type class.

【0018】 現在の を近似するために、以前に得た を用いることにより、次の再帰的確率更新方程式が得られる。 ここで、 は、事象 および が真である条件における、集合{e}の確率密度である。{e}の各要素を
考慮すると、次のようになる。 ここで、個々の条件付きの確率密度は次のようになる。 ここで、 かつ の場合には、 となる。
Current Obtained earlier to approximate By using, the following recursive probability update equation is obtained. here, Is the event and Is the probability density of the set {e k } under the condition that is true. Considering each element of {e k }, it becomes as follows. Here, the probability density with each condition is as follows. here, And In Case of, Becomes

【0019】 をモデル化するのに適した方法は、ガウスの混合分布(Guassian mixture)を用
いる方法、すなわち次のような、いくつかのガウス分布の和を含む近似の方法で
ある。 ここで、 は、進入道路構造に対して選択する特徴の数である。例えば、交差点に対して、
次のようなパラメータを選択してもよい。 ,μ=0°,μ=90°,μ=90°,σ=σ=σ=10° 分布、 は、均一分布として、以下のようにモデル化してもよい。 と同様に扱うことができる。
[0019] A suitable method for modeling is a method that uses a Gaussian mixture distribution, that is, an approximation method that includes the sum of several Gaussian distributions as follows. here, Is the number of features to select for the approach road structure. For example, for an intersection,
The following parameters may be selected. , Μ 1 = 0 °, μ 2 = 90 °, μ 3 = 90 °, σ 1 = σ 2 = σ 3 = 10 ° distribution, May be modeled as follows as a uniform distribution. Can be treated like.

【0020】 事象型入力 の確率は、次のように求めることができる。 ここで、 は、GPS/マップマッチングの品質測度によって得ることができる。 は、 と同様に扱うことができる。 上記の確率項の実際の形式とパラメータは、計算上の負荷を軽減するために簡
略化して実験に基づいて求めるものである。
[0020] Event type input The probability of can be calculated as follows. here, Can be obtained by a GPS / map matching quality measure. Is Can be treated like. The actual form and parameters of the above stochastic term are simplified and empirically determined in order to reduce the computational load.

【0021】 上記の推論エンジンは、広く利用されている他の3つの推論技法、すなわちフ
ァジー論理推論、デンプスター・シェーファー証拠推論、およびニューラルネッ
トワークのいずれとでも置き換えることができる。特に、微小な事象(atomic ev
ents)の収集は、例えば表6に示すように、認識すべき事象のクラスに基づいて
設定することが可能である。
The above inference engine can be replaced by any of the other three widely used inference techniques: fuzzy logic inference, Dempster-Schafer evidence inference, and neural networks. In particular, small events (atomic ev
The collection of ents) can be set based on the class of events to be recognized, as shown in Table 6, for example.

【表6】 [Table 6]

【0022】 設定された微小な事象は、状況とは厳密には同一でないことに留意すべきであ
る。微小な事象のあるものは、いくつかの事象が交差したものであったり、事象
が一体化したものであったり、状況の一部であったり、また定義されないものも
ある。しかし、これらの微小なセットは、集合的に先に定義した状況を表わすこ
とができる。 微小な事象のセットが定義されると、出力事象は、表7に示すように、微小な
事象を結合することによって得ることができる。 事象に割り当てられたデンプスター・シェーファー塊関数は、実験に基づいて
得ることができる。また塊関数更新も証拠推論理論に基づいて行うことができる
It should be noted that the set minute event is not exactly the same as the situation. Some micro-events are the intersection of several events, the events are united, part of a situation, and some are undefined. However, these small sets can collectively represent the situations defined above. Once the set of tiny events is defined, the output events can be obtained by combining the tiny events as shown in Table 7. The Dempster-Schafer mass function assigned to the event can be obtained empirically. Also, the update of the block function can be performed based on the evidence reasoning theory.

【表7】 [Table 7]

【0023】 前記の詳細な説明においては、特定の実施態様について詳細に記載し、添付の
図面に示したが、当業者であれば、本開示の全般的な教示によって、これらの詳
細に対して様々な修正態様と代替態様を考案することが可能であることを理解す
るであろう。したがって、開示した特定の配設は、説明のためだけのものであり
、本発明の範囲を制限するものではなく、本発明に対しては添付の請求項とその
等価物のすべての最も広い範囲が付与されるべきである。
Although specific embodiments have been described in detail in the foregoing detailed description and illustrated in the accompanying drawings, those of ordinary skill in the art will be directed to these details by the general teaching of the disclosure. It will be appreciated that various modifications and alternatives can be devised. Therefore, the particular arrangements disclosed are for the purpose of illustration only and are not intended to limit the scope of the invention, which is intended to be the broadest scope of all appended claims and their equivalents. Should be given.

【図面の簡単な説明】[Brief description of drawings]

【図1】 自車両の局所座標系における自車両から見た目標物を示す図である。[Figure 1]   It is a figure which shows the target object seen from the own vehicle in the local coordinate system of the own vehicle.

【図2】 状況認識プロセッサが組み込まれたブロック図である。[Fig. 2]   It is a block diagram which incorporated the situation recognition processor.

【図3】 状況認識プロセッサが組み込まれたブロック図である。[Figure 3]   It is a block diagram which incorporated the situation recognition processor.

【図4】 状況認識プロセッサの全体的な推論過程を示す図である。[Figure 4]   It is a figure which shows the whole reasoning process of a situation recognition processor.

【図5】 状況認識システムの推論過程の例を示す図である。[Figure 5]   It is a figure which shows the example of the inference process of a situation recognition system.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 エブリング, ジェームス ピー. アメリカ合衆国 ミシガン州48105、アン アーバー、ジェニングズ ロード 6940 Fターム(参考) 2C032 HB05 HB22 HC08 HD03 HD07 2F029 AA02 AB07 AC02 AC14 AC16 5H180 AA01 AA21 BB19 CC14 EE02 FF04 FF22 FF32 LL01 LL04 LL06 LL17 ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Ebring, James P.             Ann, United States Michigan 48105               Arbor, Jennings Road 6940 F-term (reference) 2C032 HB05 HB22 HC08 HD03 HD07                 2F029 AA02 AB07 AC02 AC14 AC16                 5H180 AA01 AA21 BB19 CC14 EE02                       FF04 FF22 FF32 LL01 LL04                       LL06 LL17

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 a)複数の事象を選択するステップであって、前記複数の事
象の各事象が、自車両が運転される状況を表わし、前記事象の少なくとも2つが
互いに異なるステップと、 b)自車両が運転される状況に関係する少なくとも1組の前記事象を選択する
ステップと、 c)1組のデータを、第1の組のデータ、第2の組のデータ、および第3の組
のデータの内の少なくとも1つから提供するステップであって、前記第1の組の
データが自車両の視野内の目標物を表わし、前記第2の組のデータが自車両の位
置または運動を表わし、前記第3の組のデータが前記自車両の環境を表わすステ
ップと、 d)第1の推論エンジンのための推論方法を選択するステップであって、前記
推論エンジンが少なくとも1つの入力と1つの出力とを含むステップと、 e)前記推論エンジンへの第1の入力として、前記第1の組のデータ、前記第
2の組のデータ、および前記第3の組のデータの少なくとも1つの要素を選択す
るステップと、 f)前記第1の入力に応答して前記第1の推論エンジンから第1の出力を生成
するステップであって、前記第1の出力が、前記1組の前記事象の少なくとも1
つの事象が発生する確率を表わすステップとを含む、自車両が運転される状況を
識別する方法。
1. A step of: selecting a plurality of events, each event of the plurality of events representing a situation in which a host vehicle is driven, at least two of the events being different from each other; b. B) selecting at least one set of said events related to the situation in which the host vehicle is driven; and c) a set of data, a first set of data, a second set of data, and a third set of data. Providing from at least one of the sets of data, the first set of data representing an object in the field of view of the vehicle and the second set of data being the position or movement of the vehicle. And d) selecting the inference method for the first inference engine, wherein the inference engine has at least one input. One output and And e) selecting, as a first input to the inference engine, at least one element of the first set of data, the second set of data, and the third set of data. F) generating a first output from the first inference engine in response to the first input, the first output being at least one of the set of the events.
And a step of representing a probability that one event will occur.
【請求項2】 複数の事象が、自車両の位置に関係する、請求項1に記載の
自車両が運転される状況を識別する方法。
2. A method for identifying a situation in which a vehicle is driven according to claim 1, wherein the plurality of events relate to the position of the vehicle.
【請求項3】 自車両の位置に関係する複数の事象のそれぞれが、分離型ま
たは非分離型高速道路近傍での自車両の運転、交差点の近傍での自車両の運転、
フリーウエイの近傍での自車両の運転、フリーウエイ入口への入口または出口の
近傍での自車両の運転、駐車場近傍での自車両の運転、およびオフハイウエイ環
境での自車両の運転から選択される状況である、請求項2に記載の自車両が運転
される状況を識別する方法。
3. Each of a plurality of events related to the position of the own vehicle is driving the own vehicle in the vicinity of a separation type or non-separation type highway, driving the own vehicle in the vicinity of an intersection,
Select from driving your vehicle near the freeway, driving your vehicle near the entrance or exit to the freeway entrance, driving your vehicle near the parking lot, or driving your vehicle in an off-highway environment The method for identifying a situation in which the host vehicle of claim 2, which is a situation in which the vehicle is driven.
【請求項4】 複数の事象が交通状況に関係する、請求項1に記載の自車両
が運転される状況を識別する方法。
4. The method of identifying a situation in which a vehicle is driven according to claim 1, wherein the plurality of events relate to traffic situations.
【請求項5】 交通状況に関係する複数の事象のそれぞれが、混雑交通、閑
散交通、通常交通から選択される環境での自車両の運転と、自車両の左側または
右側の移動物体または静止物体と、自車両のレーン内の移動物体または静止物体
とを含む、請求項4に記載の自車両の運転される状況を認識する方法。
5. Each of a plurality of events related to traffic conditions includes driving the own vehicle in an environment selected from crowded traffic, off-peak traffic, and normal traffic, and moving or stationary objects on the left or right side of the own vehicle. And a moving object or a stationary object in a lane of the host vehicle, the method of recognizing a driving situation of the host vehicle according to claim 4.
【請求項6】 複数の事象が、自車両に対する目標物の相対位置変化に関係
する、請求項1に記載の自車両の運転される状況を識別する方法。
6. The method of identifying the driven situation of a host vehicle of claim 1, wherein the plurality of events relate to changes in the relative position of the target object with respect to the host vehicle.
【請求項7】 自車両に対する目標物の相対位置変化に関係する複数の事象
のそれぞれが、自車両の左側または右側から自車両のレーンに割り込む物体、左
または右にレーン変更をする自車両、自車両の左側または右側の交通の速度変化
、自車両と同じレーンの交通の速度変化、自車両の速度変化、交通の左または右
への進路変更、および自車両の左または右への進路変更から選択される、請求項
6に記載の自車両の運転される状況を識別する方法。
7. An object in which each of a plurality of events related to a change in the relative position of a target object with respect to the host vehicle interrupts the lane of the host vehicle from the left side or the right side of the host vehicle, the host vehicle changing the lane to the left or right, Traffic speed change on the left or right side of the host vehicle, traffic speed change on the same lane as the host vehicle, speed change of the host vehicle, traffic redirection to the left or right, and vehicle redirection to the left or right 7. A method of identifying the driving situation of a host vehicle according to claim 6, selected from:
【請求項8】 1組の事象の少なくとも2つの事象が互いに排他的である、
請求項1に記載の自車両が運転される状況を識別する方法。
8. At least two events of the set of events are mutually exclusive.
A method for identifying a situation in which the host vehicle according to claim 1 is driven.
【請求項9】 第1の組のデータが、自車両の視野内の目標物の数、目標物
の進行方位、目標物速度、自車両に対する目標物位置から選択されると共に、前
記第1の組のデータの少なくとも一部が、レーダシステムに動作可能に接続され
たトラッカによって生成される、請求項1に記載の自車両の運転される状況を認
識する方法。
9. The first set of data is selected from the number of targets in the field of view of the vehicle, the heading of the target, the velocity of the target, the position of the target with respect to the vehicle, and the data of the first set is selected. The method of claim 1, wherein at least some of the data is generated by a tracker operably connected to a radar system.
【請求項10】 第2の組のデータが、自車両の速度、自車両のヨーレート
、自車両の位置から選択される、請求項1に記載の自車両の運転される状況を識
別する方法。
10. The method for identifying the driving situation of a host vehicle according to claim 1, wherein the second set of data is selected from the speed of the host vehicle, the yaw rate of the host vehicle, and the position of the host vehicle.
【請求項11】 ナビゲーションシステムからの自車両の位置の読み取りを
提供するステップをさらに含む、請求項10に記載の自車両の運転される状況を
識別する方法。
11. The method of identifying a driven situation of a host vehicle of claim 10, further comprising the step of providing a reading of the position of the host vehicle from the navigation system.
【請求項12】 第3の組のデータが、自車両の環境における目標物の複合
経路を表わす追跡マップ、自車両が運転される道路の曲率または種類、自車両の
視野内の固定構造物を表わすデータ、道路表面のデジタル地図から選択され、前
記追跡マップが、追跡マップジェネレータによって、レーダシステムに動作可能
に接続されたトラッカによって生成されるデータから生成される、請求項1に記
載の自車両の運転される状況を識別する方法。
12. A third set of data includes a tracking map representing a complex route of a target in the environment of the vehicle, a curvature or type of a road on which the vehicle is driven, a fixed structure in the field of view of the vehicle. The vehicle of claim 1, wherein the tracking map is generated from data represented by a digital map of a road surface and the tracking map is generated by a tracking map generator from data generated by a tracker operably connected to a radar system. How to identify the driving situation of a car.
【請求項13】 推論方法が、デンプスター・シェーファー証拠推論法、フ
ァジー論理推論法、ベイズ推論法、ニューラルネットワーク、不規則集合理論に
基づく推論法から選択される、請求項1に記載の自車両の運転される状況を識別
する方法。
13. The vehicle according to claim 1, wherein the inference method is selected from a Dempster-Schafer evidence inference method, a fuzzy logic inference method, a Bayesian inference method, a neural network, and an inference method based on irregular set theory. How to identify the driving situation.
【請求項14】 a)前記推論エンジンへの第2の入力として推論エンジン
からの出力を選択するステップであって、前記出力が第1の入力に対して過去の
ものであるステップと、 b)前記第1の推論エンジンから、前記第1および第2の入力に応答して、出
力を生成するステップとをさらに含む、請求項1に記載の自車両が運転される状
況を識別する方法。
14. A) selecting an output from an inference engine as a second input to the inference engine, said output being a past one for the first input; and b). Generating a output in response to the first and second inputs from the first inference engine.
【請求項15】 少なくとも1つの推論エンジンの少なくとも1つの出力に
応答して対策を選択するステップをさらに含む、請求項1に記載の自車両の運転
される状況を識別する方法。
15. The method of identifying a driven situation of a vehicle of claim 1, further comprising the step of selecting a response in response to at least one output of at least one inference engine.
JP2002502625A 2000-06-09 2001-06-11 Situation awareness processor Pending JP2003536137A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US21087800P 2000-06-09 2000-06-09
US60/210,878 2000-06-09
PCT/US2001/018717 WO2001095141A1 (en) 2000-06-09 2001-06-11 Situation awareness processor

Publications (2)

Publication Number Publication Date
JP2003536137A true JP2003536137A (en) 2003-12-02
JP2003536137A5 JP2003536137A5 (en) 2008-07-31

Family

ID=22784643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002502625A Pending JP2003536137A (en) 2000-06-09 2001-06-11 Situation awareness processor

Country Status (4)

Country Link
US (1) US6470272B2 (en)
EP (1) EP1297445A4 (en)
JP (1) JP2003536137A (en)
WO (1) WO2001095141A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101170094B1 (en) 2010-11-04 2012-07-31 목포대학교산학협력단 System Controlling Collision Evision for Multiple Traffic Vessels
KR101391324B1 (en) * 2012-10-23 2014-05-27 메타빌드주식회사 Method for recognizing traffic condition based on event rule using data detected by a radar and apparatus thereof

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3690311B2 (en) * 2001-06-14 2005-08-31 日産自動車株式会社 Vehicle front and rear wheel steering angle control device
DE60106899T2 (en) * 2001-07-05 2005-11-03 Ford Global Technologies, LLC, Dearborn Method for avoiding and reducing collisions
DE10212985A1 (en) * 2002-03-22 2003-10-02 Bosch Gmbh Robert Method and device for signaling dangerous situations in a motor vehicle
US7522091B2 (en) 2002-07-15 2009-04-21 Automotive Systems Laboratory, Inc. Road curvature estimation system
CN100365430C (en) * 2002-07-15 2008-01-30 汽车系统实验室公司 Road curvature estimation and automotive target state estimation system
US6937165B2 (en) 2002-09-23 2005-08-30 Honeywell International, Inc. Virtual rumble strip
US7421334B2 (en) * 2003-04-07 2008-09-02 Zoom Information Systems Centralized facility and intelligent on-board vehicle platform for collecting, analyzing and distributing information relating to transportation infrastructure and conditions
JP4055656B2 (en) * 2003-05-30 2008-03-05 トヨタ自動車株式会社 Collision prediction device
JP4361434B2 (en) * 2003-08-29 2009-11-11 富士フイルム株式会社 Mask, mask manufacturing method, and material processing method
JP3941770B2 (en) * 2003-10-28 2007-07-04 株式会社デンソー Collision possibility judgment device
US20050222895A1 (en) * 2004-04-03 2005-10-06 Altusys Corp Method and Apparatus for Creating and Using Situation Transition Graphs in Situation-Based Management
US20050222810A1 (en) * 2004-04-03 2005-10-06 Altusys Corp Method and Apparatus for Coordination of a Situation Manager and Event Correlation in Situation-Based Management
US7788109B2 (en) * 2004-04-03 2010-08-31 Altusys Corp. Method and apparatus for context-sensitive event correlation with external control in situation-based management
US8694475B2 (en) * 2004-04-03 2014-04-08 Altusys Corp. Method and apparatus for situation-based management
US7409295B2 (en) * 2004-08-09 2008-08-05 M/A-Com, Inc. Imminent-collision detection system and process
JP4483486B2 (en) * 2004-09-01 2010-06-16 マツダ株式会社 Vehicle travel control device
JP4367293B2 (en) * 2004-09-01 2009-11-18 マツダ株式会社 Vehicle travel control device
DE102004047084A1 (en) * 2004-09-29 2006-03-30 Robert Bosch Gmbh Driver assistance system for control of automobiles uses radar and video input to unit using fuzzy logic interpretation
DE102005003192A1 (en) * 2005-01-24 2006-07-27 Robert Bosch Gmbh Course prediction method in driver assistance systems for motor vehicles
US9601015B2 (en) 2005-02-25 2017-03-21 Concaten, Inc. Maintenance decision support system and method for vehicular and roadside applications
US7355509B2 (en) 2005-02-25 2008-04-08 Iwapi Inc. Smart modem device for vehicular and roadside applications
EP1749687B1 (en) * 2005-08-04 2008-04-23 Ford Global Technologies, LLC Automatic collision management system
DE102005047591A1 (en) * 2005-10-05 2007-04-12 Bayerische Motoren Werke Ag Method for relieving the driver when operating a motor vehicle
JP4793094B2 (en) * 2006-05-17 2011-10-12 株式会社デンソー Driving environment recognition device
JP4189028B2 (en) * 2006-08-30 2008-12-03 株式会社トヨタマップマスター Road image generation system
US20080065328A1 (en) 2006-09-08 2008-03-13 Andreas Eidehall Method and system for collision avoidance
EP1898232B1 (en) * 2006-09-08 2010-09-01 Ford Global Technologies, LLC Method and system for collision avoidance
JP2008191781A (en) * 2007-02-01 2008-08-21 Hitachi Ltd Collision avoidance system
DE102007024391A1 (en) * 2007-05-25 2008-11-27 Robert Bosch Gmbh Collision warning device with guardrail detection
US9864957B2 (en) 2007-06-29 2018-01-09 Concaten, Inc. Information delivery and maintenance system for dynamically generated and updated data pertaining to road maintenance vehicles and other related information
US8275522B1 (en) 2007-06-29 2012-09-25 Concaten, Inc. Information delivery and maintenance system for dynamically generated and updated data pertaining to road maintenance vehicles and other related information
US8231270B2 (en) 2008-01-03 2012-07-31 Concaten, Inc. Integrated rail efficiency and safety support system
US20090173822A1 (en) * 2008-01-07 2009-07-09 Arnold Kravitz Distributed infrared countermeasure installation for fixed wing aircraft
EP2291302A4 (en) * 2008-05-06 2013-04-03 Jeff R Crandall System and method for minimizing occupant injury during vehicle crash events
US8055445B2 (en) * 2008-09-24 2011-11-08 Delphi Technologies, Inc. Probabilistic lane assignment method
US8244408B2 (en) * 2009-03-09 2012-08-14 GM Global Technology Operations LLC Method to assess risk associated with operating an autonomic vehicle control system
US8831869B2 (en) * 2009-03-31 2014-09-09 GM Global Technology Operations LLC Using V2X-based in-network message generation, aggregation, distribution and processing protocols to enable road hazard condition warning applications
EP2316705B1 (en) * 2009-10-28 2012-06-20 Honda Research Institute Europe GmbH Behavior-based learning of visual characteristics from real-world traffic scenes for driver assistance systems
JP5618744B2 (en) * 2010-05-26 2014-11-05 三菱電機株式会社 Road shape estimation apparatus, computer program, and road shape estimation method
US8902081B2 (en) 2010-06-02 2014-12-02 Concaten, Inc. Distributed maintenance decision and support system and method
DE102010050167B4 (en) * 2010-10-30 2012-10-25 Audi Ag Method and device for determining a plausible lane for guiding a vehicle and motor vehicles
US10996073B2 (en) 2010-12-02 2021-05-04 Telenav, Inc. Navigation system with abrupt maneuver monitoring mechanism and method of operation thereof
US9902402B2 (en) * 2012-02-24 2018-02-27 Toyota Jidosha Kabushiki Kaisha Vehicle state estimation system, vehicle state estimation method, and operation support system
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
DE102013208709A1 (en) * 2013-05-13 2014-11-13 Bayerische Motoren Werke Aktiengesellschaft Method for determining input data of a driver assistance unit
US9361575B2 (en) * 2013-12-11 2016-06-07 Volvo Car Corporation Method of programming a neural network computer
EP2923911B1 (en) * 2014-03-24 2019-03-13 Honda Research Institute Europe GmbH A method and system for predicting movement behavior of a target traffic object
US10002470B2 (en) * 2014-04-30 2018-06-19 Ford Global Technologies, Llc Method and apparatus for predictive driving demand modeling
WO2015187768A1 (en) * 2014-06-03 2015-12-10 The Security Oracle, Inc Defense and denial method
KR101697645B1 (en) * 2014-10-06 2017-01-18 현대모비스 주식회사 System and Method for Complex Navigation using Dead Reckoning and GPS
US9849852B1 (en) * 2015-09-04 2017-12-26 Waymo Llc Intelligent deployment of safety mechanisms for autonomous vehicles
US9817397B1 (en) 2015-09-04 2017-11-14 Waymo Llc Active safety mechanisms for an autonomous vehicle
US9802568B1 (en) 2015-09-04 2017-10-31 Waymo Llc Interlocking vehicle airbags
EP3358550A4 (en) * 2015-09-30 2019-06-12 Sony Corporation Information processing device and information processing method
US10488504B2 (en) * 2017-01-19 2019-11-26 Veoneer Us, Inc. System and method for automatic trailer detection
US10586455B2 (en) * 2017-10-19 2020-03-10 Veoneer Us, Inc. Systems and methods for vehicle lane change detection
US11203318B2 (en) 2018-06-18 2021-12-21 Waymo Llc Airbag extension system
US11827237B2 (en) * 2019-12-27 2023-11-28 Toyota Connected North America, Inc. Systems and methods for real-time crash detection using telematics data
US11586862B2 (en) * 2020-02-14 2023-02-21 Ford Global Technologies, Llc Enhanced object detection with clustering
US11994582B2 (en) * 2021-09-13 2024-05-28 Texas Instruments Incorporated Inverse radar sensor model and evidential grid mapping processors

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2709804A (en) 1945-09-14 1955-05-31 Chance Britton Automatic range and azimuth tracking system
US3177485A (en) 1960-03-02 1965-04-06 Jr John W Taylor Automatic radar target tracking system
US3603994A (en) 1966-04-26 1971-09-07 Hughes Aircraft Co System for automatically generating smoothing parameters in an automatic track-while-scan radar system
US3699573A (en) 1966-05-05 1972-10-17 Hughes Aircraft Co System for automatic initiation of target tracking in track-while-scan radar
US3725918A (en) 1970-11-18 1973-04-03 Sperry Rand Corp Collision avoidance display apparatus for maneuverable craft
GB1430389A (en) 1972-06-21 1976-03-31 Solartron Electronic Group Computing apparatus for tracking movinb objects
US3971018A (en) 1974-06-24 1976-07-20 Sperry Rand Corporation Marine traffic conflict assessment system
GB8304686D0 (en) 1983-02-19 1983-03-23 Sperry Ltd Collision avoidance apparatus
US5170440A (en) 1991-01-30 1992-12-08 Nec Research Institute, Inc. Perceptual grouping by multiple hypothesis probabilistic data association
US5051751A (en) 1991-02-12 1991-09-24 The United States Of America As Represented By The Secretary Of The Navy Method of Kalman filtering for estimating the position and velocity of a tracked object
US5307289A (en) 1991-09-12 1994-04-26 Sesco Corporation Method and system for relative geometry tracking utilizing multiple distributed emitter/detector local nodes and mutual local node tracking
US5138321A (en) 1991-10-15 1992-08-11 International Business Machines Corporation Method for distributed data association and multi-target tracking
IL100175A (en) 1991-11-27 1994-11-11 State Of Isreal Ministry Of De Collision warning apparatus for a vehicle
US5202691A (en) 1992-04-28 1993-04-13 The United States Of America As Represented By The Secretary Of The Air Force Hick's probabilistic data association method
US5598164A (en) 1992-08-10 1997-01-28 Reppas; George S. Vehicle obstacle avoidance system
US5406289A (en) 1993-05-18 1995-04-11 International Business Machines Corporation Method and system for tracking multiple regional objects
US5983161A (en) 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US6553130B1 (en) 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
US5633642A (en) 1993-11-23 1997-05-27 Siemens Aktiengesellschaft Radar method and device for carrying out the method
US5959574A (en) 1993-12-21 1999-09-28 Colorado State University Research Foundation Method and system for tracking multiple regional objects by multi-dimensional relaxation
US5537119A (en) 1993-12-21 1996-07-16 Colorado State University Research Foundation Method and system for tracking multiple regional objects by multi-dimensional relaxation
JP3189560B2 (en) 1994-03-25 2001-07-16 株式会社デンソー Inter-vehicle distance detection device and inter-vehicle distance alarm device
DE19514654B4 (en) 1994-04-20 2009-07-09 Denso Corporation, Kariya Collision alarm system for a motor vehicle
US5594414A (en) 1994-08-02 1997-01-14 Namngani; Abdulatif Collision probability detection system
GB9417170D0 (en) 1994-08-25 1994-10-12 Isis Innovation Non-linear filtering
US5689264A (en) 1994-10-05 1997-11-18 Mazda Motor Corporation Obstacle detecting system for vehicles
US5703593A (en) 1995-12-12 1997-12-30 Northrop Grumman Corporation Adaptive DPCA subsystem
US5646613A (en) 1996-05-20 1997-07-08 Cho; Myungeun System for minimizing automobile collision damage
US5948043A (en) 1996-11-08 1999-09-07 Etak, Inc. Navigation system using GPS data
US6085151A (en) * 1998-01-20 2000-07-04 Automotive Systems Laboratory, Inc. Predictive collision sensing system
US6275231B1 (en) * 1997-08-01 2001-08-14 American Calcar Inc. Centralized control and management system for automobiles
US6161071A (en) 1999-03-12 2000-12-12 Navigation Technologies Corporation Method and system for an in-vehicle computing architecture

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101170094B1 (en) 2010-11-04 2012-07-31 목포대학교산학협력단 System Controlling Collision Evision for Multiple Traffic Vessels
KR101391324B1 (en) * 2012-10-23 2014-05-27 메타빌드주식회사 Method for recognizing traffic condition based on event rule using data detected by a radar and apparatus thereof

Also Published As

Publication number Publication date
US20020019697A1 (en) 2002-02-14
US6470272B2 (en) 2002-10-22
EP1297445A1 (en) 2003-04-02
EP1297445A4 (en) 2005-11-23
WO2001095141A9 (en) 2003-02-06
WO2001095141A1 (en) 2001-12-13

Similar Documents

Publication Publication Date Title
JP2003536137A (en) Situation awareness processor
CN110488802B (en) Decision-making method for dynamic behaviors of automatic driving vehicle in internet environment
US6420997B1 (en) Track map generator
US10026317B2 (en) Autonomous probability control
US10289113B2 (en) Autonomous occupant attention-based control
CN107121979B (en) Autonomous confidence control
EP3091370B1 (en) Method and arrangement for determining safe vehicle trajectories
JP5407764B2 (en) Driving assistance device
CN112154455B (en) Data processing method, equipment and movable platform
JP6003349B2 (en) Vehicle behavior prediction device
JP4823520B2 (en) How to estimate the state of a target vehicle on the road
US20170248953A1 (en) Autonomous peril control
US20170247040A1 (en) Autonomous vehicle control transitioning
US20070027597A1 (en) Method and device for recognising lane changing operations for a motor vehicle
Eidehall Tracking and threat assessment for automotive collision avoidance
US11731661B2 (en) Systems and methods for imminent collision avoidance
EP3451017A1 (en) Road-specific object estimation
Leonhardt et al. Fusion of driver behaviour analysis and situation assessment for probabilistic driving manoeuvre prediction
Peng et al. A Method for Vehicle Collision Risk Assessment through Inferring Driver's Braking Actions in Near-Crash Situations
Sun et al. A new algorithm for lane level irregular driving identification
Amditis et al. Real-time traffic and environment risk estimation for the optimisation of human-machine interaction
JP2024047442A (en) Automatic Driving Device
CN118144822A (en) Rear-end collision prevention method for automatic driving
PARTHASARADHY et al. DEVELOPMENT OF WIRELESS SENSOR NETWORK FOR COLLISION AVOIDANCE SYSTEM USING EMERGENCY SITUATION PREDICTION MECHANISM

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101130