JP2017102795A - Traveling capability evaluation device - Google Patents
Traveling capability evaluation device Download PDFInfo
- Publication number
- JP2017102795A JP2017102795A JP2015236914A JP2015236914A JP2017102795A JP 2017102795 A JP2017102795 A JP 2017102795A JP 2015236914 A JP2015236914 A JP 2015236914A JP 2015236914 A JP2015236914 A JP 2015236914A JP 2017102795 A JP2017102795 A JP 2017102795A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- driving
- scene
- unit
- comparative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 49
- 238000004364 calculation method Methods 0.000 claims abstract description 51
- 230000000052 comparative effect Effects 0.000 claims description 49
- 238000001514 detection method Methods 0.000 claims description 19
- 230000001133 acceleration Effects 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000012423 maintenance Methods 0.000 claims description 3
- 230000007423 decrease Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 19
- 238000000034 method Methods 0.000 description 18
- 230000007704 transition Effects 0.000 description 12
- 230000010354 integration Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
本発明は、車両が走行する能力を評価する走行能力評価装置に関する。 The present invention relates to a traveling ability evaluation device that evaluates the ability of a vehicle to travel.
車両の走行挙動に関連する制御を、ドライバの運転操作特性に基づいて設定する技術が知られている。たとえば、特許文献1では、警報出力タイミングを、ドライバ固有の運転操作特性に基づいて設定する。
There is known a technique for setting control related to the running behavior of a vehicle based on driving operation characteristics of a driver. For example, in
また、車両の走行挙動に関連する制御を、車両特性に基づいて設定する技術も知られている。たとえば、特許文献2では、報知タイミングを、車両の衝突回避性能に基づいて設定している。また、車両の種々の運転シーンを認識する運転シーン認識装置が知られている(たとえば特許文献3)。
There is also known a technique for setting control related to the running behavior of a vehicle based on vehicle characteristics. For example, in
特許文献1では、ドライバの運転特性に基づいて警報出力タイミングを設定しているが、同じ運転操作特性のドライバであったとしても、車両特性が異なれば、車両の挙動は同じにはならない。
In
特許文献2では、車両の衝突回避性能に基づいて報知タイミングを設定しているが、車両の衝突回避性能が同じであったとしても、ドライバの運転能力が異なれば、車両の挙動は同じにはならない。
In
車両の挙動を推定するためには、ドライバの運転特性と、挙動に関する車両の特性とを合わせて評価する必要がある。本明細書では、ドライバの運転特性と、挙動に関する車両の特性とを合わせて、走行能力とする。 In order to estimate the behavior of the vehicle, it is necessary to evaluate the driving characteristics of the driver together with the characteristics of the vehicle related to the behavior. In this specification, the driving characteristics of the driver and the characteristics of the vehicle related to the behavior are combined to determine the driving ability.
特許文献1の技術は車両の特性を評価しておらず、特許文献2の技術はドライバの特性を評価していない。したがって、特許文献1、2の技術は、いずれも、精度よく走行能力を評価できていない。
The technique of
本発明は、この事情に基づいて成されたものであり、その目的とするところは、走行能力を精度よく評価することができる走行能力評価装置を提供することにある。 The present invention has been made based on this situation, and an object of the present invention is to provide a travel capability evaluation apparatus that can accurately evaluate the travel capability.
上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、発明の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 The above object is achieved by a combination of the features described in the independent claims, and the subclaims define further advantageous embodiments of the invention. Reference numerals in parentheses described in the claims indicate a correspondence relationship with specific means described in the embodiments described later as one aspect, and do not limit the technical scope of the present invention. .
上記目的を達成するための本発明は、車両の走行能力を評価する走行能力評価装置であって、走行能力評価装置を搭載した車両である自車両について、車速および進行方向の少なくとも一方を含んだ走行状態を表している運転シーンを認識する自車両シーン認識部(41)と、自車両にとっての先行車両および直近後続車両のいずれかである比較車両の運転シーンを認識する比較車両シーン認識部(42)と、自車両シーン認識部が認識した自車両の運転シーンと、比較車両シーン認識部が認識した比較車両の運転シーンとの一致度を算出する一致度算出部(43)と、一致度算出部が算出した一致度に基づいて、自車両および比較車両のいずれかである対象車両の走行能力を逐次評価する走行能力評価部(44)と、を備える。 The present invention for achieving the above object is a travel capability evaluation device for evaluating the travel capability of a vehicle, and includes at least one of a vehicle speed and a traveling direction of the own vehicle, which is a vehicle equipped with the travel capability evaluation device. A host vehicle scene recognition unit (41) for recognizing a driving scene representing a traveling state, and a comparison vehicle scene recognition unit for recognizing a driving scene of a comparison vehicle that is one of a preceding vehicle and a nearest succeeding vehicle for the host vehicle ( 42), a coincidence degree calculation unit (43) for calculating a coincidence between the driving scene of the own vehicle recognized by the own vehicle scene recognition unit and the driving scene of the comparison vehicle recognized by the comparison vehicle scene recognition unit, A running ability evaluation unit (44) that sequentially evaluates the running ability of the target vehicle, which is one of the host vehicle and the comparison vehicle, based on the degree of coincidence calculated by the calculation unit.
本発明では、自車両の運転シーンと比較車両の運転シーンの一致度を算出している。運転シーンは、車速および進行方向の少なくとも一方を含んだ走行状態を表している。加速、減速の仕方はドライバにより変化し、ハンドル操作もドライバにより異なる。したがって、運転シーンにはドライバの運転特性が反映される。 In the present invention, the degree of coincidence between the driving scene of the host vehicle and the driving scene of the comparative vehicle is calculated. The driving scene represents a traveling state including at least one of the vehicle speed and the traveling direction. The method of acceleration and deceleration varies depending on the driver, and the steering wheel operation varies depending on the driver. Therefore, the driving characteristics of the driver are reflected in the driving scene.
また、車速の変化は車両の加減速性能により変化し、車両の進行方向の変化は、車両の操舵性能により変化する。したがって、運転シーンは、ドライバの運転特性と挙動に関する車両の特性が両方の影響を受ける。 The change in the vehicle speed changes depending on the acceleration / deceleration performance of the vehicle, and the change in the traveling direction of the vehicle changes depending on the steering performance of the vehicle. Therefore, the driving scene is affected by both the driving characteristics of the driver and the vehicle characteristics related to the behavior.
この運転シーンを、自車両と、自車両にとっての先行車両および直近後続車両のいずれかである比較車両との間で比較すると、自車両と比較車両のうち後ろ側のドライバの運転能力が高い場合、後ろ側のドライバの運転能力が低い場合よりも、運転シーンは一致する傾向にある。また、自車両と比較車両のうち後ろ側の車両の挙動に関する能力が高いほど、後ろ側の車両は、前側の車両に早期に運転シーンが追従できる可能性が高くなる。そのため、運転シーンの一致度には、ドライバの運転能力の高さと、挙動に関する車両の能力の高さとが反映される。 When this driving scene is compared between the own vehicle and a comparison vehicle that is one of the preceding vehicle and the nearest succeeding vehicle for the own vehicle, the driving ability of the driver behind the own vehicle and the comparison vehicle is high. The driving scenes tend to coincide with each other than when the driving ability of the driver on the rear side is low. In addition, the higher the ability related to the behavior of the rear vehicle of the host vehicle and the comparative vehicle, the higher the possibility that the rear vehicle can follow the driving scene at an early stage. Therefore, the degree of coincidence between driving scenes reflects the high driving ability of the driver and the high ability of the vehicle related to the behavior.
走行能力評価部は、この運転シーンの一致度に基づいて対象車両の走行能力を評価するので、精度よく走行能力を評価できる。 Since the running ability evaluation unit evaluates the running ability of the target vehicle based on the degree of coincidence of the driving scenes, the running ability can be accurately evaluated.
<第1実施形態>
以下、本発明の実施形態を図面に基づいて説明する。第1実施形態の走行能力評価装置1は、図1に示すように、自車両2に搭載されており、前方センサ10、自車両挙動センサ20、通信部30、制御部40を備える。なお、自車両2は、この走行能力評価装置1が搭載される車両を意味する。図1に示す状態では、自車両2は、本実施形態における比較車両である先行車両3の直後を走行している。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the traveling
本実施形態では、先行車両3は走行能力評価装置100を搭載している。走行能力評価装置100は、前方センサ110、車両挙動センサ120、通信部130、制御部140を備えている。走行能力評価装置100および走行能力評価装置100が備える各構成は、説明の便宜上、符号を異ならせているが、走行能力評価装置1および走行能力評価装置1が備える各構成において同一の名称の構成と同じものである。
In the present embodiment, the preceding
[走行能力評価装置1の構成]
図2に示しているブロック図を用いて、走行能力評価装置1の構成を説明する。前方センサ10は、自車両2の直近前方を走行する先行車両3の、自車両2に対する相対挙動に関連する値を検出するためのセンサである。先行車両3の自車両2に対する相対挙動に関連する値は、請求項の比較車両挙動値に相当するので、前方センサ10は、請求項の比較車両挙動センサに相当する。
[Configuration of Traveling Capacity Evaluation Device 1]
With reference to the block diagram shown in FIG. 2, the configuration of the traveling
前方センサ10が検出する情報は、具体的には、自車両2に対する先行車両3の相対位置である。自車両2に対する先行車両3の相対位置を検出するので、前方センサ10は、自車両2と先行車両3との車間距離も検出する。この前方センサ10は、たとえば、ミリ波やレーザなどを計測媒体としたレーダを用いることができる。また、カメラを前方センサ10として用いてもよい。
Specifically, the information detected by the
自車両挙動センサ20は、自車両2の挙動に関連する値である自車両挙動値を検出するセンサである。自車両2の挙動は、車速、および、現在までの走行軌跡に対する相対的な進行方向により規定できる。また、相対的な進行方向は、ステアリング操作により変化する。したがって、本実施形態では、自車両挙動センサ20として、車速センサとステアリング角センサを備え、自車両挙動値として、車速とステアリング角を逐次検出する。さらに、自車両挙動センサ20として、アクセル開度センサ、ブレーキ油圧センサを備え、自車両挙動値として、アクセル開度とブレーキマスタシリンダ圧を逐次検出する。この自車両挙動センサ20は請求項の自車両挙動検出部に相当する。
The host
通信部30は、近距離無線通信により車車間通信を行う機能を備えており、先行車両3などの他車両に通信装置が搭載されている場合に、その通信装置との間で通信を行う。通信部30が用いる周波数は、たとえば、5.8GHz帯や700MHz帯などである。通信部30は後述する先行車両挙動値を受信する。先行車両挙動値は請求項の比較車両挙動値に相当する。したがって、通信部30は請求項の受信部に相当する。また、通信部30は、自車両挙動値を逐次、周囲に送信する。また、自車両挙動値に加えて、後述する自車両微分値も、逐次、周囲に送信してもよい。
The
制御部40は、CPU、ROM、RAM等を備えたコンピュータである。CPUが、RAMの一時記憶機能を利用しつつ、ROMなどの非遷移的実体的記録媒体(non-transitory tangible storage medium)に記憶されているプログラムを実行する。このプログラムを実行することで、制御部40は、自車両シーン認識部41、先行車両シーン認識部42、一致度算出部43、走行能力評価部44、衝突予測値算出部45、運転支援部46として機能する。これらの機能を実行すると、プログラムに対応する方法が実行される。なお、制御部40が実行する機能の一部または全部を、一つあるいは複数のIC等によりハードウェア的に構成してもよい。
The
自車両シーン認識部41は、自車両2の運転シーンを認識する。運転シーンは、車速および進行方向の少なくとも一方を含んだ車両の走行状態を表すものである。なお、ここでの進行方向は、前述した相対的な進行方向である。
The own vehicle
自車両シーン認識部41は、この運転シーンを認識するために、自車両挙動センサ20が検出した信号を逐次取得する。本実施形態での運転シーンは、一つまたは複数のドライビング記号からなるドライビングワードにより表される。
The own vehicle
自車両シーン認識部41は、図3に示すように、詳細構成として、自車両微分値算出部411、記号化部412、記号統合部413を備える。自車両微分値算出部411は、自車両挙動センサ20が検出した自車両挙動値のうち、予め設定された種類の自車両挙動値の微分値(以下、自車両微分値)を逐次算出する。たとえば、自車両微分値算出部411は、ブレーキマスタシリンダ圧の微分値、および、ステアリング角の微分値を算出する。
As shown in FIG. 3, the host vehicle
記号化部412は、図4に示すように、経時的に連続して検出あるいは算出される自車両挙動値および自車両微分値に基づき、自車両2の走行状態を、区分単位となる区分走行状態に区分けする。そして、区分けした区分走行状態を対応するドライビング記号によって表す。これにより、ドライビング記号の記号列を生成する。この記号列は請求項の自車両記号列に相当し、記号化部412は請求項の自車両記号化部に相当する。
As shown in FIG. 4, the symbolizing
区分走行状態への区分けは、自車両挙動値および自車両微分値からなる多次元の空間において、各値から把握される各種の走行状態をクラスターとする。そして、各値がいずれのクラスターに属するかを統計的に処理することにより、各値を区分単位となる区分走行状態ごと(つまり、クラスターごと)に区分けする。 In the classification into the traveling state, the various traveling states grasped from the respective values are clustered in a multidimensional space composed of the own vehicle behavior value and the own vehicle differential value. Then, by statistically processing which cluster each value belongs to, each value is classified into each segment running state (that is, each cluster) as a segment unit.
たとえば、記号化部412は、特許文献3と同様、隠れ状態とその状態間の確率的遷移で表現されるモデルの一つである階層ディリクレ過程隠れマルコフモデル(以下、HDP−HMM)を利用して記号列を生成する。HDP−HMMは、HMMに無限次元の隠れ状態を仮定することにより、入力される各値に応じて隠れ状態の数を決定するものであり、隠れ状態数を事前に設計する必要がない。
For example, the
特に、HDP−HMMとして、スティッキーHDP−HMMを用いることが好ましい。スティッキーHDP−HMMは、HDP−HMMの自己遷移確率にバイアスを付加したものである。スティッキーHDP−HMMは、自己遷移確率を大きくすることにより、隠れ状態の過剰遷移を抑えることができ、動作の連続性を仮定するモデリングを効率的に行うことが可能となる。 In particular, it is preferable to use sticky HDP-HMM as the HDP-HMM. The sticky HDP-HMM is obtained by adding a bias to the self-transition probability of the HDP-HMM. By increasing the self-transition probability, the sticky HDP-HMM can suppress the excessive transition of the hidden state, and can efficiently perform modeling assuming the continuity of the operation.
記号化部412は、上述したHDP−HMMに限らず、他のモデルを利用して、記号列を生成することも可能である。例えば、一般的なHMMやN字マルコフモデル、階層マルコフモデル、スイッチングARモデル、スイッチングマルマンフィルタなどのモデルを用いることも可能である。この場合、例えば、予め各モデルの隠れ状態数の設計を行うとともに、各隠れ状態間の遷移確率を記号遷移データベースに保存しておく。そして、それらのモデル及び隠れ状態の遷移確率に基づき、隠れ状態の事後確率を算出することにより、最も尤もらしい隠れ状態を得ることができる。なお、HDP−HMMを用いる場合、隠れ状態間の遷移確率の算出、更新も自動的に行われるので、予め隠れ状態の遷移確率を定めておく必要はない。
The
さらに、上述したモデルを用いることなく、記号列を生成するためのより簡易な手法として、以下のような手法を採用しても良い。すなわち、経時的に連続して検出あるいは算出される各値に対して、各値の大きさを区分するための閾値をそれぞれ設定しておく。さらに、各値の大きさの区分の全ての組み合わせに対して、それぞれ異なるドライビング記号を対応付けておく。そして、検出あるいは算出された各値の大きさがいずれの区分に属するか判定するとともに、それらの区分の組み合わせに応じたドライビング記号を付与するという処理を繰り返すことにより記号列を生成する。 Furthermore, the following method may be employed as a simpler method for generating a symbol string without using the above-described model. That is, for each value that is continuously detected or calculated over time, a threshold for classifying the magnitude of each value is set. Further, different driving symbols are associated with all combinations of the size categories. Then, a symbol string is generated by determining which category each detected or calculated value belongs to, and repeating a process of assigning a driving symbol corresponding to the combination of the categories.
記号統合部413は請求項の自車両分節化部に相当する。この記号統合部413は、記号化部412から出力される記号列を、所定の走行状態を意味するドライビングワードに統合する。これにより、図4に示すように、記号列がドライビングワードに分節化される。そして、記号統合部413は、そのドライビングワードを運転シーンとして認識する。本実施形態では、この記号統合部413として、統計情報を利用した離散文字列の教師なしチャンク化手法の1例であるNested Pitman-Yor Language Model(NPYLM)を利用する。統計情報を利用することで複数種類のドライビングワードが生成され、それら複数種類のドライビングワードにより、複数種類の走行状態が表される。また、統計情報を利用してドライビングワードを定めることから、ドライビングワードすなわち運転シーンは、複数種類のドライビングワード(すなわち複数種類の走行状態)の中から定められることになる。
The
上記NPYLMは、Hierarchical Pitman-Yor Language Model(HPYLM)に単語のN-gramモデルを組み込むことにより拡張したものであり、辞書データなしでの形態素解析を実現したものである。HPYLMは、N-gram言語モデルにPitman-Yor過程によるスムージングを行うことで、未知語や低頻度語に対する頑強性を向上させ、適切な単語の分節化を可能としたものである。 The NPYLM is expanded by incorporating an N-gram model of words into the Hierarchical Pitman-Yor Language Model (HPYLM), and realizes morphological analysis without dictionary data. HPYLM improves the robustness against unknown words and low-frequency words by smoothing the N-gram language model by the Pitman-Yor process, and enables appropriate word segmentation.
NPYLM及びHPYLMに関しては、「階層Pitman-Yor言語モデルを用いた動作解析」(第25回人工知能学会全国大会, 3B1-OS22c-8 .(2011))に詳しく説明されているので、これ以上の説明は省略する。 NPYLM and HPYLM are described in detail in “Analysis of Behavior Using Hierarchical Pitman-Yor Language Model” (The 25th Annual Conference of the Japanese Society for Artificial Intelligence, 3B1-OS22c-8. (2011)). Description is omitted.
記号統合部413は、上述したNPYLMを用いて、記号列をドライビングワードに分節化する際、ドライビングワードの並びからなる文章の生成確率が最大となり、かつ辞書のサイズ(すなわち、ドライビングワードの数)ができるだけ小さくなるようにする。これにより、計算量を抑えつつ、記号列の分節化を行うことが可能になる。ライビングワード間の遷移確率、及びドライビングワードの生成確率は、訓練時に学習され、単語遷移データベース14に保存される。
When the
なお、上述したNPYLMは、記号列の分節化を行うための一例に過ぎず、他の手法によって分節化を行なってもよい。例えば、車両を各種の走行状態で走行させたときに生成された記号列に基づいて予めドライビングワードを設定し、ドライビングワード辞書を作成するとともに、各ドライビングワードの遷移確率や生成確率のデータベースを作成する。これらドライビングワード辞書およびデータベースを所定の記憶部に記憶させておく。そして、これらのドライビングワード辞書、遷移確率データベース、及び生成確率データベースを参照して、入力された記号列を最も確からしいドライビングワードごとに分節化するようにしても良い。 Note that the above-described NPYLM is merely an example for segmentation of a symbol string, and segmentation may be performed by other methods. For example, driving words are set in advance based on symbol strings generated when the vehicle is driven in various driving conditions, a driving word dictionary is created, and a database of transition probabilities and generation probabilities of each driving word is created. To do. These driving word dictionaries and databases are stored in a predetermined storage unit. Then, referring to these driving word dictionaries, transition probability database, and generation probability database, the input symbol string may be segmented for each most probable driving word.
先行車両シーン認識部42は、先行車両3の運転シーンを認識する。運転シーンの意味は、自車両シーン認識部41における運転シーンと同じである。本実施形態において先行車両3は請求項の比較車両に相当することから、先行車両シーン認識部42は請求項の比較車両シーン認識部に相当する。先行車両シーン認識部42は、詳細構成として、図5に示すように、先行車両微分値算出部421と、記号化部422と、記号結合部423を備える。
The preceding vehicle
先行車両微分値算出部421は、先行車両3の挙動に関連する値である先行車両挙動値であって、自車両微分値算出部411が取得するものと同じ種類の値を、通信部30および前方センサ10の一方または両方を用いて取得する。そして、取得した先行車両挙動値の微分値(以下、先行車両微分値)を逐次算出する。先行車両3は比較車両に相当するので、周辺車両微分値は請求項の比較車両微分値に相当し、先行車両微分値算出部421は請求項の比較車両微分値算出部に相当する。
The preceding vehicle differential
請求項の比較車両記号列生成部に相当する記号化部422は、先行車両挙動値であって、自車両シーン認識部41が備える記号化部412と同じ種類の値を逐次取得する。そして、記号化部422は、この取得した先行車両挙動値に基づき、先行車両3の走行状態を区分走行状態に区分けし、区分けした区分走行状態を対応するドライビング記号によって表す。区分走行状態は、自車両シーン認識部41の記号化部412で説明したものと同じであり、区分走行状態への区分方法も、自車両シーン認識部41の記号化部412と同じ方法を用いる。記号化部422はドライビング記号を逐次出力するので、記号化部422からはドライビング記号の記号列が出力される。この記号列は請求項の比較車両記号列に相当する。
The
請求項の比較車両分節化部に相当する記号結合部423は、記号化部422から出力される記号列を、所定の走行状態を意味するドライビングワードに統合する。統合方法は、自車両シーン認識部41が備える記号結合部423と同じである。
The
一致度算出部43は、自車両シーン認識部41が認識した自車両2の運転シーンと、先行車両シーン認識部42が認識した先行車両3の運転シーンとの一致度Mを算出する。本実施形態の一致度算出部43は、図6に示す詳細構成を備える。
The
具体的には、本実施形態の一致度算出部43は、運転シーン記憶部431と、切り替わり検出部432と、時間差算出部433と、内容比較部434と、計算部435とを備えている。
Specifically, the coincidence
運転シーン記憶部431は、書き込み可能な記憶媒体であり、自車両2の運転シーンと先行車両3の運転シーンが逐次記憶される。切り替わり検出部432が、自車両2の運転シーンが切り替わったことを検出すると、切り替わり前の自車両2の運転シーンが、切り替わり検出部432により、この運転シーン記憶部431に記憶される。運転シーンの切り替わり時点で、切り替わり前の運転シーンが確定するので、運転シーンの切り替わり時点で切り替わり前の運転シーンを記憶するのである。また、切り替わり検出部432が、先行車両3の運転シーンが切り替わったことを検出すると、切り替わり前の先行車両3の運転シーンが、切り替わり検出部432により、この運転シーン記憶部431に記憶される。
The driving
一方、計算部435が一致度Mを計算した場合、自車両2の運転シーン、および、先行車両3の運転シーンは、計算部435により、運転シーン記憶部431から消去される。これにより、運転シーン記憶部431には、一致度Mが算出されていない運転シーンのみが残るので、一致度Mを算出してない運転シーン同士で一致度Mを算出することになる。
On the other hand, when the
切り替わり検出部432は、自車両シーン認識部41が認識した自車両2の運転シーンを逐次取得する。新たに自車両シーン認識部41から運転シーンを取得した場合、自車両2の運転シーンが切り替わったとする。
The
また、切り替わり検出部432は、先行車両シーン認識部42が認識した先行車両3の運転シーンを逐次取得し、新たに先行車両シーン認識部42から運転シーンを取得した場合、先行車両3の運転シーンが切り替わったとする。
Further, when the switching
そして、切り替わり検出部432は、運転シーンが切り替わったことを検出した場合、自車両シーン認識部41あるいは先行車両シーン認識部42から新たに取得した運転シーンを、運転シーン記憶部431に記憶する。本実施形態における運転シーンは、具体的にはドライビングワードであるが、ドライビングワードに加えて、ドライビングワードを構成するドライビング記号も、運転シーン記憶部431に記憶する。さらに、切り替わり検出部432は、運転シーンが切り替わったことを検出した場合、そのことを時間差算出部433に出力する。
When the switching
時間差算出部433は、切り替わり検出部432が運転シーンの切り替わりを検出し、他方の運転シーンが運転シーン記憶部431に記憶されている場合、それら2つの運転シーンがそれぞれ切り替わった時刻間の時間差Δtを算出する。
When the switching
なお、本実施形態において後側車両である自車両2の運転シーンが、前側車両である先行車両3の運転シーンよりも先に切り替わった場合、時間差Δtを0とする。このようにすることで、後側車両である自車両2のドライバが先行車両3の挙動を予測して先回り運転をしたにも関わらず、走行能力が低く評価されてしまうことを抑制できる。自車両2の運転シーンが、先行車両3の運転シーンよりも先に切り替わる例は、図8を用いて後述する。
In the present embodiment, the time difference Δt is set to 0 when the driving scene of the
内容比較部434は、時間差算出部433が時間差Δtを算出した2つの運転シーンの内容を比較して、それら2つの運転シーンの内容の一致度sを決定する。内容の一致度sは、予め設定した、内容同士の一致度表を用いて決定する。より具体的には、本実施形態では、運転シーンとしてドライビングワードを認識しており、ドライビングワードは、1つまたは複数のドライビング記号により構成される。そこで、本実施形態の内容比較部434は、ドライビングワードを構成するドライビング記号同士の一致度表(以下、ドライビング記号一致度表)を予め作成しておく。図7は、このドライビング記号一致度表の一例である。このドライビング記号一致度表を用いて、2つの運転シーンの内容の一致度sを算出する。
The
比較する2つのドライビングワードを構成するドライビング記号について、先頭から順番に、ドライビング記号一致度表を用いて、一致度sを算出する。ドライビングワードは、その内容により、構成するドライビング記号の数が異なる。そのため、ドライビング記号一致度表には、記号なしの欄が設けられている。記号なしの欄に記載されている「a」は予め設定された定数である。 For the driving symbols constituting the two driving words to be compared, the matching score s is calculated using the driving symbol matching table in order from the top. The number of driving symbols constituting the driving word differs depending on the content thereof. Therefore, a column without symbols is provided in the driving symbol coincidence table. “A” described in the column without a symbol is a preset constant.
各ドライビング記号について、ドライビング記号一致度表を用いて一致度を算出した後、算出した全部を掛け合わせた値を、2つの運転シーンの内容の一致度sとする。あるいは、各ドライビング記号について一致度を算出した後、算出した全部の一致度の平均値を、2つの運転シーンの内容の一致度sとしてもよい。 For each driving symbol, the degree of coincidence is calculated using the driving symbol coincidence table, and the value obtained by multiplying all the calculated values is defined as the degree of coincidence s of the contents of the two driving scenes. Alternatively, after the degree of coincidence is calculated for each driving symbol, the average value of all the calculated degrees of coincidence may be used as the degree of coincidence s of the contents of the two driving scenes.
計算部435は、切り替わり検出部432が運転シーンの切り替わりを検出する毎に、切り替わりを検出した運転シーンと、対応する運転シーンとの一致度Mを計算する。ここでの対応する運転シーンは、切り替わり検出部432が切り替わりを検出した運転シーンが、自車両2の運転シーンであれば、対応する運転シーンは先行車両3の運転シーンである。これらの運転シーンは、運転シーン記憶部431に記憶されているものを用いる。
The
ただし、自車両2の運転シーンおよび先行車両3の運転シーンのうちいずれかが一方が2つ以上、運転シーン記憶部431に記憶されている場合には、次のようにする。2つ以上、運転シーン記憶部431に記憶されている側の運転シーンは、最も古い時刻に記憶された運転シーンのみ、他方の運転シーンとの一致度Mを算出する。2つ以上、運転シーン記憶部431に記憶されている側の運転シーンのうち、最も古い時刻に記憶された運転シーン以外は、対応する運転シーンは無いとして、運転シーンの一致度Mを計算する。
However, when one of the driving scenes of the
対応する運転シーンが無いことになる状況は、一方の運転シーンが次の運転シーンに切り替わる前に、他方の運転シーンが複数回切り替わる状況である。たとえば、図8に示すように、先行車両3の運転シーンがシーンAである間に、自車両2の運転シーンがシーンCからシーンDさらにはシーンEに切り替わった場合、シーンAに対応する運転シーンはシーンCになる。シーンDは対応する運転シーンが無いとして一致度Mを計算する。そして、一致度Mを計算した後は、計算部435は、シーンA、シーンC、シーンDを、運転シーン記憶部431から消去する。これにより、次回は、シーンEとシーンBが互いに対応する運転シーンとなる。シーンEが始まる時刻とシーンBが始まる時刻を比較すると、後続車両である自車両2の運転シーンであるシーンEの方が先に始まっている。よって、シーンEとシーンBの一致度Mを算出する際は、時間差Δtを0とする。
The situation where there is no corresponding driving scene is a situation where the other driving scene is switched a plurality of times before one driving scene is switched to the next driving scene. For example, as shown in FIG. 8, when the driving scene of the
一致度Mの計算は、対応する運転シーンがある場合には、時間差算出部433が算出した時間差Δtに基づいて定まる係数f(Δt)に、内容比較部434が決定した内容の一致度sを乗じた値とする。したがって、式1により一致度Mは計算できる。
(式1) M=f(Δt)×s
係数f(Δt)は、図9に示すように、時間差Δtの値によらず、1よりも小さい値であり、かつ、時間差Δtが大きいほど係数fは小さくなる。時間差Δtに対する係数f(Δt)がこのような傾向になっていることで、時間差Δtが大きいほど一致度Mは小さくなる。
When there is a corresponding driving scene, the degree of coincidence M is calculated by setting the degree of coincidence s determined by the
(Formula 1) M = f (Δt) × s
As shown in FIG. 9, the coefficient f (Δt) is a value smaller than 1 regardless of the value of the time difference Δt, and the coefficient f decreases as the time difference Δt increases. Since the coefficient f (Δt) with respect to the time difference Δt has such a tendency, the degree of coincidence M decreases as the time difference Δt increases.
これに対して、図8のシーンDのように、対応する運転シーンがない場合には、一致度Mを、運転シーンを比較しないで決定できる所定値θとする。この所定値θは、たとえば、予め設定された固定値でもよいし、算出済みの一致度Mのうちの最新の値としてもよい。対応する運転シーンがない場合に、一致度Mを所定値θとすることで、対応する運転シーンがない場合に決定する一致度Mが走行能力に与える影響を小さくできる。 On the other hand, when there is no corresponding driving scene as in the scene D of FIG. 8, the matching degree M is set to a predetermined value θ that can be determined without comparing the driving scenes. This predetermined value θ may be, for example, a fixed value set in advance, or may be the latest value of the calculated matching degrees M. When there is no corresponding driving scene, the coincidence degree M is set to the predetermined value θ, so that the influence of the matching degree M determined when there is no corresponding driving scene on the driving ability can be reduced.
一致度算出部43が算出した一致度Mは、図2に示す走行能力評価部44に入力される。走行能力評価部44は、一致度Mに加えて、前方センサ10が検出した車間距離も取得する。そして、これら一致度Mと車間距離とから、本実施形態における対象車両である自車両2の走行能力を逐次評価する。以下では、走行能力を数値で表し、数値が高いほど走行能力が高いことを示すものとして説明する。なお、走行能力を表す値には上限と下限があり、その範囲を超えた値は取らないものとする。
The coincidence degree M calculated by the coincidence
図10に示すように、走行能力評価部44は、詳細構成として、走行能力記憶部441と走行能力更新部442とを備える。走行能力記憶部441は、走行能力更新部442により逐次更新される最新の走行能力を記憶する。走行能力更新部442は、一致度Mと車間距離を取得し、それら一致度Mと車間距離と、図11に示す走行能力増減表とから、走行能力の増減値を決定する。
As shown in FIG. 10, the travel
図11に示す走行能力増減表は予め設定されている。この走行能力増減表から定まる走行能力の増減値は、図11に示されているように、車間距離が閾値距離THd以下であれば、一致度Mによらず、車間距離が短いほど、走行能力の増減値は絶対値が大きくなっている。閾値距離THdは、後続車両があまり先行車両に追従した挙動をしなくなる距離であり、予め実験に基づいて決定されている。 The running ability increase / decrease table shown in FIG. 11 is set in advance. As shown in FIG. 11, the increase / decrease value of the travel capability determined from this travel capability increase / decrease table is as long as the inter-vehicle distance is shorter as the inter-vehicle distance is shorter than the threshold distance THd. The absolute value of the increase / decrease value of is large. The threshold distance THd is a distance at which the following vehicle does not behave so much as following the preceding vehicle, and is determined in advance based on experiments.
車間距離が短い場合には、走行能力の増減値の最大値は0であり、一致度Mが低いほど、走行能力の増減値が小さい値、すなわちマイナスの値であって絶対値が大きい値になっている。 When the inter-vehicle distance is short, the maximum value of the increase / decrease value of the driving ability is 0, and the lower the coincidence M, the smaller the increase / decrease value of the driving ability, that is, a negative value with a larger absolute value. It has become.
一致度Mが低いほど走行能力の増減値を小さい値にする理由は、次の理由からである。一致度Mは、先行車両3の運転シーンと後続車両である自車両2の運転シーンとが一致する程度を表す値である。したがって、一致度Mが低いほど、後続車両である自車両2は、先行車両3に合わせた走行ができていないことになる。そこで、一致度Mが低いほど走行能力の増減値を小さい値にしている。また、車間距離が短い場合における走行能力の増減値の最大値を0にしている理由は、一致度Mが高くても、車間距離が短すぎるのであれば、走行能力に影響を与える要素であるドライバの運転特性を高く評価することができないからである。
The reason why the increase / decrease value of the driving ability is made smaller as the matching degree M is lower is as follows. The degree of coincidence M is a value that represents the degree to which the driving scene of the preceding
同じ一致度Mで見ると、最も小さい走行能力の増減値がマイナスである場合には、車間距離が長くなるほど、走行能力の増減値は0に近くなり、最も車間距離が長い場合には、走行能力の増減値は0になる。このようになっている理由は、車間距離が長いほど、先行車両3に追従して走行する必要性が低下することから、走行能力が高くても、車間距離が長いと、運転シーンは一致しない可能性が高くなる。そこで、車間距離が長い場合、走行能力をあまり大きく更新しないようにしているのである。
Looking at the same degree of coincidence M, if the increase / decrease value of the smallest driving ability is negative, the increase / decrease value of the driving ability becomes closer to 0 as the inter-vehicle distance increases, and if the inter-vehicle distance is the longest, Increase / decrease value of ability is 0. The reason for this is that the longer the inter-vehicle distance, the lower the need to travel following the preceding
車間距離が中程度である場合には、一致度Mが最も高いと、走行能力の増減値をプラスにしている。これは、車間距離が中程度であれば、車間距離が短すぎる場合と異なり、車間距離を理由としてドライバの運転特性を低く評価する必要はなく、かつ、運転シーンの一致度Mが高いのであるから、走行能力の増減値をプラスにしているのである。 When the inter-vehicle distance is medium, when the degree of coincidence M is the highest, the increase / decrease value of the driving ability is made positive. This is because, if the inter-vehicle distance is medium, unlike the case where the inter-vehicle distance is too short, it is not necessary to evaluate the driving characteristics of the driver low because of the inter-vehicle distance, and the matching degree M of the driving scene is high. Therefore, the increase / decrease value of the driving ability is made positive.
走行能力の増減値を決定したら、走行能力記憶部441から走行能力を取得し、取得した走行能力に決定した増減値を加算する。そして、走行能力記憶部441に記憶されている走行能力を、加算後の走行能力に更新する。
When the increase / decrease value of the travel capability is determined, the travel capability is acquired from the travel
図2に説明を戻す。衝突予測値算出部45は、前方センサ10から自車両2と先行車両3との車間距離を逐次取得する。この車間距離の変化から、自車両2に対する先行車両3の相対速度を算出する。そして、それら先行車両3の相対速度と車間距離から、衝突する可能性を表す衝突予測値を算出する。衝突予測値として、本実施形態では、TTC(Time-To-Collision)を算出する。
Returning to FIG. The collision predicted
運転支援部46は、衝突予測値算出部45が算出した衝突予測値と、走行能力評価部44が評価した最新の走行能力とに基づいて、運転支援制御を実行するか否かを決定する。運転支援制御を実行するか否かを決定するために、衝突予測値と最新の走行能力に加えて、図12に示す、走行能力と衝突予測値から運転支援を実行するか否かが定まる予め記憶された関係を用いる。図12に示す関係は、走行能力がある範囲内であると、走行能力が高くなるほど、運転支援を実行することに決定する衝突予測値が高くなる関係である。換言すれば、図12に示す関係は、走行能力がある範囲内であると、走行能力が低くなるほど、運転支援を実行することに決定する衝突予測値が低くなる関係、すなわち支援実行条件が成立しやすくなる関係である。
The driving
このような関係になっている理由は、走行能力が低いほど、早めに運転支援を実行しないと、衝突回避など、運転支援により達成しようとする状態を実現しにくくなるからである。また、図12のような関係になっている理由は、走行能力が高い場合には、衝突予測値を低下させる挙動を速やかに実行することができるので、不要な制御を実行させないようにするためである、と言うこともできる。 The reason for this relationship is that the lower the running ability, the more difficult it is to achieve a state to be achieved by driving assistance, such as collision avoidance, unless driving assistance is executed earlier. Further, the reason why the relationship is as shown in FIG. 12 is that when the driving ability is high, the behavior of lowering the predicted collision value can be quickly executed, so that unnecessary control is not executed. It can be said that.
[第1実施径形態の効果]
以上、説明した第1実施形態では、自車両2の運転シーンと先行車両3の運転シーンの一致度Mを算出している。自車両2の運転シーンは、自車両2の挙動に関連する値である自車両挙動値とその微分値である自車両微分値を記号化して統合したものであるから、車速および進行方向の少なくとも一方を含んだ走行状態を表している。また、先行車両3の運転シーンも、自車両2の運転シーンと同様にして認識している。よって、先行車両3の運転シーンも、車速および進行方向の少なくとも一方を含んだ走行状態を表している。加速、減速の仕方、および、ハンドル操作は、ドライバにより異なる。したがって、運転シーンにはドライバの運転特性が反映される。
[Effect of first embodiment diameter embodiment]
As described above, in the first embodiment described above, the degree of coincidence M between the driving scene of the
また、車速の変化は車両の加減速性能により変化し、車両の進行方向の変化は、車両の操舵性能により変化する。これらのことから、運転シーンは、ドライバの運転特性と挙動に関する車両の特性が両方の影響を受ける。 The change in the vehicle speed changes depending on the acceleration / deceleration performance of the vehicle, and the change in the traveling direction of the vehicle changes depending on the steering performance of the vehicle. For these reasons, the driving scene is affected by both the driving characteristics of the driver and the characteristics of the vehicle related to the behavior.
この運転シーンを自車両2と先行車両3との間で比較すると、ドライバの運転能力が高い場合には、ドライバの運転能力が低い場合よりも運転シーンが一致する傾向にある。また、後続車両である自車両2の挙動に関する能力が高いほど、自車両2の運転シーンは、先行車両3に早期に追従できる可能性が高くなる。反対に、自車両2がトラックなど、自車両2の挙動に関する能力が低い場合には、自車両2の運転シーンが、先行車両3に追従するまでに時間がかかる。そのため、運転シーンの一致度Mには、ドライバの運転能力の高さと、挙動に関する車両の能力の高さとが反映される。
When this driving scene is compared between the
走行能力評価部44は、この運転シーンの一致度Mに基づいて自車両2の走行能力を評価するので、精度よく走行能力を評価できる。
Since the traveling
また、本実施形態では、図4に示すように、運転シーンをドライビングワードにより表しており、ドライビングワードは明確に切り替わりを検出することができる。これにより、一致度Mを、ドライビングワードが切り替わる時間差Δtに基づいて算出することができる。自車両2のドライバの運転能力が低い場合、先行車両3が減速してから、自車両2が減速するまでの時間が長くなる傾向にあるなど、自車両2のドライバの運転能力が低い場合、先行車両3に追従して自車両2の挙動が変化するまでの時間が長くなる傾向にある。
In the present embodiment, as shown in FIG. 4, the driving scene is represented by a driving word, and the driving word can clearly detect switching. Thereby, the coincidence degree M can be calculated based on the time difference Δt at which the driving word is switched. When the driving capability of the driver of the
また、自車両2の加減速能力が低いと、ある程度の加減速となるのに要する時間が長くなる傾向にあるなど、自車両2の挙動に関する能力が低い場合も、先行車両3に追従して自車両2の挙動が変化するまでの時間が長くなる傾向にある。
In addition, when the ability of the
これらのことから、時間差Δtは、走行能力をよく表すと考えることができる。この時間差Δtに基づいて一致度Mを算出している。これにより、特に走行能力を精度よく評価できる。 From these things, it can be considered that the time difference Δt well represents the running ability. The degree of coincidence M is calculated based on this time difference Δt. As a result, the running ability can be evaluated particularly accurately.
さらに、本実施形態では、一致度Mを、内容の一致度sも考慮して決定している。これにより、さらに走行能力を精度よく評価できる。 Further, in the present embodiment, the degree of coincidence M is determined in consideration of the degree of coincidence s of contents. As a result, the running ability can be further accurately evaluated.
また、本実施形態では、時間差Δtに基づいて一致度Mを算出するようになっており、かつ、運転シーンが切り替わった時刻が、後側車両である自車両2のほうが先行車両3よりも早い場合、時間差Δtを0として一致度Mを算出する。これにより、先回り運転をした自車両2の走行能力が低く評価されてしまうことを抑制できる。
In the present embodiment, the degree of coincidence M is calculated based on the time difference Δt, and the time at which the driving scene is switched is earlier in the
また、本実施形態では、対応する運転シーンがない場合には、一致度Mを、運転シーンを比較しないで決定できる所定値θとする。これにより、対応する運転シーンがない場合に決定する一致度Mが走行能力に与える影響を小さくできる。 In the present embodiment, when there is no corresponding driving scene, the coincidence degree M is set to a predetermined value θ that can be determined without comparing driving scenes. Thereby, the influence which the matching degree M determined when there is no corresponding driving scene has on the driving ability can be reduced.
また、本実施形態の運転支援部46は、図12に示したように、走行能力が低くなるほど支援実行条件が成立しやすくしていることから、走行能力に応じた適切な状況で運転支援を実行することができる。
In addition, as shown in FIG. 12, the driving
<第2実施形態>
次に、第2実施形態を説明する。この第2実施形態以下の説明において、それまでに使用した符号と同一番号の符号を有する要素は、特に言及する場合を除き、それ以前の実施形態における同一符号の要素と同一である。また、構成の一部のみを説明している場合、構成の他の部分については先に説明した実施形態を適用できる。
Second Embodiment
Next, a second embodiment will be described. In the following description of the second embodiment, elements having the same reference numerals as those used so far are the same as elements having the same reference numerals in the previous embodiments unless otherwise specified. Further, when only a part of the configuration is described, the above-described embodiment can be applied to the other parts of the configuration.
前述した第1実施形態では、統計的に処理により区分走行状態を決定し、この区分走行状態を表したドライビング記号を、さらに統計処理して生成してしたドライビングワードを運転シーンとしていた。これに対して、第2実施形態では、図13に示す各運転シーンを設定している。具体的には、図13には、運転シーンとして、停止、加速、減速、定常走行、右左折、カーブ走行、その他が設定されている。また、図13には、各運転シーンであると認識する運転シーン条件も設定されている。なお、図13において、速度変動は、予め設定されている時間、たとえば、数秒〜10秒程度における速度変動である。 In the first embodiment described above, the segment traveling state is statistically determined by processing, and the driving word generated by further statistically processing the driving symbol representing the segment traveling state is used as the driving scene. On the other hand, in the second embodiment, each driving scene shown in FIG. 13 is set. Specifically, in FIG. 13, stop, acceleration, deceleration, steady travel, right / left turn, curve travel, and others are set as driving scenes. In FIG. 13, driving scene conditions for recognizing each driving scene are also set. In FIG. 13, the speed fluctuation is a speed fluctuation in a preset time, for example, about several seconds to 10 seconds.
第2実施形態では、自車両シーン認識部41および先行車両シーン認識部42は、図13に示す運転シーン条件が成立する場合に、対応する運転シーンであると認識する。
In 2nd Embodiment, the own vehicle
第2実施形態において一致度算出部43は、第1実施形態と同様、式1により一致度Mを算出する。ただし、内容の一致度sは、図14に示す一致度表を用いて決定する。図14の一致度表を構成する各一致度sの値は、予め決定されている。
In the second embodiment, the degree of
第1実施形態の運転支援部46は、図12に示す関係を用いて運転支援を実行するか否かを決定していた。これに対して、第2実施形態では、運転支援部46は、図15に示す表により、運転支援レベルを決定する。そして、決定した運転支援レベルに応じて定まる運転支援を実行する。運転支援レベルLv0は、運転支援を実行しないことを意味し、数字が大きくなるほど、高度な運転支援を実行する。たとえば、運転支援レベルLv1〜4までは報知のみであるが、段階的に、危険が高いことを意味する報知に変更する。運転支援レベルLv5では車両の挙動を自動で制御する。図15に示す表は、走行能力が低いほど、運転支援を実行する衝突予測値が低くなっている。これにより、走行能力が低いほど、早いタイミングで運転支援が実行される。
The driving
<第3実施形態>
第3実施形態では、図14に示した一致度表に代えて、図16に示す一致度表を用いる。図16は、先行車両3の運転シーンが加速である場合における一致度sが、図14に示した一致度表によりも高くなっている。
<Third Embodiment>
In the third embodiment, the coincidence degree table shown in FIG. 16 is used instead of the coincidence degree table shown in FIG. In FIG. 16, the coincidence s when the driving scene of the preceding
その結果、運転シーンとして、同じ加速と定常走行(すなわち速度維持)であっても、先行車両3が定常走行であり自車両2が加速である場合よりも、先行車両3が加速であり自車両2が定常走行である場合の一致度sの方が高くなっている。
As a result, even if the driving scene is the same acceleration and steady running (that is, speed maintenance), the preceding
これにより、自車両2が無理に加速する必要のない場面において、走行能力が低く評価されてしまうことを抑制できる。
Thereby, in the scene where the
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、次の変形例も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施できる。 As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, The following modification is also contained in the technical scope of this invention, Furthermore, the summary other than the following is also included. Various modifications can be made without departing from the scope.
<変形例1>
たとえば、第1実施形態、第2実施形態では、自車両2が後続車両であって、その自車両2の走行能力を評価していた。しかし、これに限られず、自車両2が先行車両であり、自車両2の直近後続車両の走行能力を、自車両2に搭載された走行能力評価装置1が評価してもよい。この場合、直近後続車両が請求項の比較車両および対象車両になる。
<
For example, in the first embodiment and the second embodiment, the
直近後続車両の走行能力を評価する場合、直近後続車両の挙動関連値を、その直近後続車両から通信部30により無線通信で取得する。また、自車両2の後部に、後方の車両の挙動を検出する後方センサを備え、その後方センサにより、直近後続車両の挙動関連値の一部または全部を検出してもよい。
When evaluating the driving ability of the immediately following vehicle, the behavior-related value of the immediately following vehicle is acquired from the immediately following vehicle by wireless communication by the
なお、直近後続車両の走行能力を評価する場合、直近後続車両が別の車両に変化したら、それまで評価していた走行能力を破棄して、走行能力の評価を最初から行う。直近後続車両の走行能力は、直近後続車両に該当する具体的な車両毎に異なるからである。これに対して、自車両2が後続車両であり、自車両2の走行能力を評価する場合には、先行車両が変化しても、走行能力の評価を最初から行う必要はない。
In the case of evaluating the driving ability of the immediately following vehicle, when the immediately following vehicle changes to another vehicle, the driving ability evaluated so far is discarded and the driving ability is evaluated from the beginning. This is because the traveling ability of the nearest succeeding vehicle is different for each specific vehicle corresponding to the nearest succeeding vehicle. On the other hand, when the
<変形例2>
運転シーンを比較車両が認識して、認識した運転シーンを無線により周辺に送信するようにしてもよい。この場合、通信部30が比較車両から送信された運転シーンを受信し、先行車両シーン認識部42は、通信部30が受信した、比較車両から送信された運転シーンを取得する。
<
The driving scene may be recognized by the comparison vehicle, and the recognized driving scene may be transmitted to the surroundings wirelessly. In this case, the
<変形例3>
前術の実施形態では、一致度Mを、時間差Δtと内容の一致度sとから算出していたが、これらのうち、いずれか一方のみから一致度Mを決定してもよい。
<
In the previous embodiment, the degree of coincidence M is calculated from the time difference Δt and the degree of coincidence s of the contents, but the degree of coincidence M may be determined from only one of them.
<変形例4>
第2実施形態では、7種類の運転シーンが設定されていたが、減速シーンおよびその他の2種類の運転シーンのみが設定されていてもよい。また、それら2種類の運転シーンに加えて、それらとは異なる運転シーンを追加して3種類〜6種類の運転シーンが設定されていてもよい。また、8種類以上の運転シーンが設定されていてもよい。
<
In the second embodiment, seven types of driving scenes are set, but only a deceleration scene and other two types of driving scenes may be set. In addition to these two types of driving scenes, three to six types of driving scenes may be set by adding different driving scenes. Further, eight or more types of driving scenes may be set.
<変形例5>
第1実施形態では、各ドライビングワードを1つの運転シーンとしていたが、ドライビングワードの並び、すなわち、複数のドライビングワードを1つの運転シーンとして認識してもよい。
<
In the first embodiment, each driving word is set as one driving scene. However, a row of driving words, that is, a plurality of driving words may be recognized as one driving scene.
<変形例6>
第1実施形態において、図15に示す表を用いて運転支援レベルを決定してもよい。また、第2実施形態において、図11、図12に基づいて、運転支援を実行するか否かを決定してもよい。
<Modification 6>
In the first embodiment, the driving support level may be determined using the table shown in FIG. In the second embodiment, it may be determined based on FIGS. 11 and 12 whether or not driving assistance is executed.
1:走行能力評価装置 2:自車両 3:先行車両 10:前方センサ 14:単語遷移データベース 20:自車両挙動センサ 30:通信部 40:制御部 41:自車両シーン認識部 42:先行車両シーン認識部 43:一致度算出部 44:走行能力評価部 45:衝突予測値算出部 46:運転支援部 100:走行能力評価装置 110:前方センサ 120:車両挙動センサ 130:通信部 140:制御部 411:自車両微分値算出部 412:記号化部 413:記号統合部 421:先行車両微分値算出部 422:記号化部 423:記号結合部 431:運転シーン記憶部 432:検出部 433:時間差算出部 434:内容比較部 435:計算部 441:走行能力記憶部 442:走行能力更新部
1: Driving ability evaluation device 2: Own vehicle 3: Leading vehicle 10: Forward sensor 14: Word transition database 20: Own vehicle behavior sensor 30: communication unit 40: control unit 41: own vehicle scene recognition unit 42: preceding vehicle scene recognition Unit 43: coincidence calculation unit 44: driving ability evaluation unit 45: collision prediction value calculation unit 46: driving support unit 100: driving ability evaluation device 110: forward sensor 120: vehicle behavior sensor 130: communication unit 140: control unit 411: Own vehicle differential value calculation unit 412: Symbolization unit 413: Symbol integration unit 421: Preceding vehicle differential value calculation unit 422: Symbolization unit 423: Symbol combination unit 431: Driving scene storage unit 432: Detection unit 433: Time difference calculation unit 434 : Content comparison unit 435: Calculation unit 441: Running
Claims (13)
前記走行能力評価装置を搭載した車両である自車両について、車速および進行方向の少なくとも一方を含んだ走行状態を表している運転シーンを認識する自車両シーン認識部(41)と、
前記自車両にとっての先行車両および直近後続車両のいずれかである比較車両の前記運転シーンを認識する比較車両シーン認識部(42)と、
前記自車両シーン認識部が認識した前記自車両の前記運転シーンと、前記比較車両シーン認識部が認識した前記比較車両の前記運転シーンとの一致度を算出する一致度算出部(43)と、
前記一致度算出部が算出した前記一致度に基づいて、前記自車両および前記比較車両のいずれかである対象車両の走行能力を逐次評価する走行能力評価部(44)と、を備える走行能力評価装置。 A driving capability evaluation device for evaluating the driving capability of a vehicle,
A host vehicle scene recognition unit (41) for recognizing a driving scene representing a driving state including at least one of a vehicle speed and a traveling direction with respect to the host vehicle, which is a vehicle equipped with the driving ability evaluation device;
A comparison vehicle scene recognition unit (42) for recognizing the driving scene of the comparison vehicle that is one of the preceding vehicle and the immediately following vehicle for the host vehicle;
A degree of coincidence calculation unit (43) for calculating a degree of coincidence between the driving scene of the host vehicle recognized by the host vehicle scene recognition unit and the driving scene of the comparison vehicle recognized by the comparison vehicle scene recognition unit;
A driving capability evaluation unit comprising a driving capability evaluation unit (44) that sequentially evaluates the driving capability of the target vehicle that is one of the host vehicle and the comparison vehicle based on the matching score calculated by the matching score calculation unit. apparatus.
前記運転シーンは、複数種類の走行状態の中から定められ、
前記一致度算出部は、前記自車両の前記運転シーンが切り替わった時刻と、前記比較車両の前記運転シーンが切り替わった時刻との時間差に基づいて、前記一致度を算出する走行能力評価装置。 In claim 1,
The driving scene is determined from a plurality of types of driving states,
The coincidence calculation unit is a driving ability evaluation device that calculates the coincidence based on a time difference between a time when the driving scene of the host vehicle is switched and a time when the driving scene of the comparative vehicle is switched.
前記運転シーンは、複数種類の走行状態の中から定められ、
前記一致度算出部は、前記自車両の前記運転シーンと、前記比較車両の前記運転シーンの内容の一致度に基づいて、前記一致度を算出する走行能力評価装置。 In claim 1 or 2,
The driving scene is determined from a plurality of types of driving states,
The degree of coincidence calculation unit is a driving ability evaluation device that calculates the degree of coincidence based on the degree of coincidence between the driving scene of the host vehicle and the content of the driving scene of the comparison vehicle.
前記走行能力評価部は、前記自車両と前記比較車両の間の車間距離が予め設定された閾値距離以下のとき、前記車間距離が短いほど、前記一致度に基づいて前記走行能力を変更する程度を大きくする走行能力評価装置。 In any one of Claims 1-3,
When the inter-vehicle distance between the host vehicle and the comparative vehicle is equal to or less than a preset threshold distance, the travel capability evaluation unit changes the travel capability based on the degree of coincidence as the inter-vehicle distance is shorter. Driving ability evaluation device that increases
前記一致度算出部は、
前記自車両シーン認識部が認識した前記自車両の前記運転シーンを逐次取得するとともに、前記比較車両シーン認識部が認識した前記比較車両の前記運転シーンを逐次取得し、前記一致度を算出していない前記運転シーン同士で前記一致度を算出するようになっており、
かつ、前記自車両および前記比較車両のうち前側を走行する車両である前側車両の前記運転シーンが切り替った時刻と、前記自車両および前記比較車両のうち後側を走行する車両である後側車両の前記運転シーンが切り替わった時刻との時間差に基づいて前記一致度を算出するようになっており、
前記運転シーンが切り替わった時刻が、前記後側車両のほうが前記前側車両よりも早い場合、前記時間差を0として前記一致度を算出することを特徴とする走行能力評価装置。 In claim 2,
The coincidence calculation unit
The driving scene of the host vehicle recognized by the host vehicle scene recognition unit is sequentially acquired, the driving scene of the comparison vehicle recognized by the comparison vehicle scene recognition unit is sequentially acquired, and the degree of coincidence is calculated. The degree of coincidence is calculated between the driving scenes that are not,
And the time when the driving scene of the front vehicle, which is a vehicle traveling on the front side of the host vehicle and the comparison vehicle, and the rear side, which is a vehicle traveling on the rear side of the host vehicle and the comparison vehicle, are The degree of coincidence is calculated based on the time difference from the time when the driving scene of the vehicle is switched,
The travel capability evaluation apparatus according to claim 1, wherein when the driving scene is switched, the time difference is set to 0 and the degree of coincidence is calculated when the rear vehicle is earlier than the front vehicle.
前記一致度算出部は、
前記一致度を算出する前記前側車両の前記運転シーンが切り替わる前に、前記前側車両の前記運転シーンとの一致度を算出する前記後側車両の前記運転シーンに続く前記後側車両の前記運転シーンが切り替わった場合、
前記一致度を算出する前記前側車両の前記運転シーンが切り替わる前に切り替わり、かつ、前記前側車両の前記運転シーンとの一致度を算出していない前記後側車両の前記運転シーンについては、前記前側車両の前記運転シーンと比較することなく決定できる前記一致度とする走行能力評価装置。 In claim 5,
The coincidence calculation unit
The driving scene of the rear vehicle following the driving scene of the rear vehicle that calculates the degree of coincidence with the driving scene of the front vehicle before the driving scene of the front vehicle that calculates the degree of matching is switched. When is switched,
For the driving scene of the rear vehicle that is switched before the driving scene of the front vehicle for which the degree of coincidence is switched and that does not calculate the degree of coincidence with the driving scene of the front vehicle, the front side A travel capability evaluation device having the degree of coincidence that can be determined without comparing with the driving scene of the vehicle.
前記一致度算出部は、
前記自車両と前記比較車両のうち前側を走行する車両である前側車両の前記運転シーンが加速に関する前記運転シーンであり、前記自車両と前記比較車両のうち後側を走行する車両である後側車両の前記運転シーンが、速度維持に関する前記運転シーンである場合の前記一致度を、
前記前側車両の前記運転シーンが速度維持に関する前記運転シーンであり、前記後側車両の前記運転シーンが加速に関する前記運転シーンである場合の前記一致度よりも高くする走行能力評価装置。 In any one of Claims 1-4,
The coincidence calculation unit
The driving scene of the front vehicle, which is a vehicle that travels in front of the host vehicle and the comparison vehicle, is the driving scene relating to acceleration, and the rear side, which is a vehicle that travels in the rear of the host vehicle and the comparison vehicle. The degree of coincidence when the driving scene of the vehicle is the driving scene related to speed maintenance,
The driving ability evaluation device that makes the degree of coincidence higher when the driving scene of the front vehicle is the driving scene related to speed maintenance and the driving scene of the rear vehicle is the driving scene related to acceleration.
支援実行条件が成立したら、所定の運転支援制御を実行する運転支援部(46)を備え、
前記運転支援部は、前記走行能力評価部が逐次評価した前記走行能力が低いほど、前記支援実行条件を成立しやすい条件に変更する走行能力評価装置。 In any one of Claims 1-7,
When the support execution condition is satisfied, the vehicle is provided with a driving support unit (46) for executing predetermined driving support control,
The driving support unit is a driving capability evaluation device that changes the support execution condition to a condition that is more likely to be established as the driving capability evaluated sequentially by the driving capability evaluation unit is lower.
前記自車両の挙動に関連する値である自車両挙動値を検出する自車両挙動検出部(20)と、
前記自車両挙動検出部が検出した前記自車両挙動値の微分値である自車両微分値を算出する自車両微分値算出部(411)と、
前記自車両挙動検出部が検出した前記自車両挙動値および前記自車両微分値算出部が算出した前記自車両微分値に基づいて、前記自車両の前記走行状態を、区分単位となる区分走行状態に区分けし、区分けした前記区分走行状態を対応する記号によって表すことにより自車両記号列を生成する自車両記号化部(412)と、
前記自車両記号化部が生成した前記自車両記号列を、所定の走行状態を意味するドライビングワードごとに分節化する自車両分節化部(413)とを備え、
前記自車両シーン認識部は、前記自車両分節化部が分節化した前記ドライビングワードから、前記自車両の前記運転シーンを認識する走行能力評価装置。 In any one of Claims 1-8,
A host vehicle behavior detection unit (20) for detecting a host vehicle behavior value which is a value related to the behavior of the host vehicle;
A host vehicle differential value calculation unit (411) that calculates a host vehicle differential value that is a differential value of the host vehicle behavior value detected by the host vehicle behavior detection unit;
Based on the own vehicle behavior value detected by the own vehicle behavior detection unit and the own vehicle differential value calculated by the own vehicle differential value calculation unit, the traveling state of the own vehicle is classified into divisional traveling states as a unit of division. A host vehicle symbolization unit (412) that generates a host vehicle symbol string by representing the segmented traveling state by the corresponding symbol.
A host vehicle segmentation unit (413) for segmenting the host vehicle symbol string generated by the host vehicle symbolization unit for each driving word meaning a predetermined traveling state;
The host vehicle scene recognizing unit recognizes the driving scene of the host vehicle from the driving word segmented by the host vehicle segmenting unit.
前記比較車両の挙動に関連する値である比較車両挙動値を検出する比較車両挙動センサ(10)と、
前記比較車両挙動センサが検出した前記比較車両挙動値の微分値である比較車両微分値を算出する比較車両微分値算出部(421)と、
前記比較車両挙動センサが検出した前記比較車両挙動値および前記比較車両微分値算出部が算出した前記比較車両微分値に基づいて、前記比較車両の前記走行状態を前記区分走行状態に区分けし、区分けした前記区分走行状態を対応する記号によって表すことにより比較車両記号列を生成する比較車両記号列生成部(422)と、
前記比較車両記号列生成部が生成した前記比較車両記号列を前記ドライビングワードごとに分節化する比較車両分節化部(423)とを備え、
前記比較車両シーン認識部は、前記比較車両分節化部が分節化した前記ドライビングワードから、前記比較車両の前記運転シーンを認識する走行能力評価装置。 In claim 9,
A comparative vehicle behavior sensor (10) for detecting a comparative vehicle behavior value that is a value related to the behavior of the comparative vehicle;
A comparative vehicle differential value calculation unit (421) that calculates a comparative vehicle differential value that is a differential value of the comparative vehicle behavior value detected by the comparative vehicle behavior sensor;
Based on the comparative vehicle behavior value detected by the comparative vehicle behavior sensor and the comparative vehicle differential value calculated by the comparative vehicle differential value calculation unit, the traveling state of the comparative vehicle is classified into the divided traveling state and classified. A comparison vehicle symbol string generation unit (422) that generates a comparison vehicle symbol string by representing the segmented traveling state by a corresponding symbol;
A comparison vehicle segmentation unit (423) that segments the comparison vehicle symbol string generated by the comparison vehicle symbol string generation unit for each driving word;
The comparative vehicle scene recognizing unit recognizes the driving scene of the comparative vehicle from the driving word segmented by the comparative vehicle segmenting unit.
前記比較車両から送信された、前記比較車両の挙動に関連する値である比較車両挙動値を受信する受信部(30)と、
前記受信部が受信した前記比較車両挙動値の微分値である比較車両微分値を算出する比較車両微分値算出部(421)と、
前記受信部が受信した前記比較車両挙動値および前記比較車両微分値算出部が算出した前記比較車両微分値に基づいて、前記比較車両の前記走行状態を前記区分走行状態に区分けし、区分けした前記区分走行状態を対応する記号によって表すことにより比較車両記号列を生成する比較車両記号列生成部(422)と、
前記比較車両記号列生成部が生成した前記比較車両記号列を前記ドライビングワードごとに分節化する比較車両分節化部(423)とを備え、
前記比較車両シーン認識部は、前記比較車両分節化部が分節化した前記ドライビングワードから、前記比較車両の前記運転シーンを認識する走行能力評価装置。 In claim 9,
A receiving unit (30) for receiving a comparative vehicle behavior value, which is a value related to the behavior of the comparative vehicle, transmitted from the comparative vehicle;
A comparative vehicle differential value calculation unit (421) that calculates a comparative vehicle differential value that is a differential value of the comparative vehicle behavior value received by the reception unit;
Based on the comparative vehicle behavior value received by the receiving unit and the comparative vehicle differential value calculated by the comparative vehicle differential value calculation unit, the traveling state of the comparative vehicle is divided into the divided traveling states, and the divided vehicle state is divided. A comparison vehicle symbol string generation unit (422) that generates a comparison vehicle symbol string by representing the segment traveling state by a corresponding symbol;
A comparison vehicle segmentation unit (423) that segments the comparison vehicle symbol string generated by the comparison vehicle symbol string generation unit for each driving word;
The comparative vehicle scene recognizing unit recognizes the driving scene of the comparative vehicle from the driving word segmented by the comparative vehicle segmenting unit.
前記比較車両から送信された、前記比較車両の前記運転シーンを表す情報を受信する受信部(30)を備え、
前記比較車両シーン認識部は、前記受信部が受信した前記比較車両の前記運転シーンを表す情報から、前記比較車両の前記運転シーンを認識する走行能力評価装置。 In claim 9,
A receiving unit (30) for receiving information representing the driving scene of the comparison vehicle transmitted from the comparison vehicle;
The comparative vehicle scene recognition unit is a driving ability evaluation device that recognizes the driving scene of the comparative vehicle from information representing the driving scene of the comparative vehicle received by the receiving unit.
前記自車両シーン認識部は、前記自車両の前記運転シーンとして、減速シーンを含む2種類以上の前記運転シーンを認識し、
前記比較車両シーン認識部は、前記比較車両の前記運転シーンとして、前記減速シーンを含む2種類以上の前記運転シーンを認識し、
前記一致度算出部は、前記自車両シーン認識部が認識した前記自車両の前記運転シーンが、前記減速シーン以外の前記運転シーンから前記減速シーンに切り替わった時刻と、前記比較車両シーン認識部が認識した前記比較車両の前記運転シーンが、前記減速シーン以外の前記運転シーンから前記減速シーンに切り替わった時刻との時間差に基づいて、前記一致度を算出する走行能力評価装置。 In any one of Claims 2, 5, and 6,
The own vehicle scene recognition unit recognizes two or more types of the driving scene including a deceleration scene as the driving scene of the own vehicle,
The comparative vehicle scene recognition unit recognizes two or more types of the driving scenes including the deceleration scene as the driving scenes of the comparative vehicle,
The coincidence calculation unit includes a time when the driving scene of the host vehicle recognized by the host vehicle scene recognition unit is switched from the driving scene other than the deceleration scene to the deceleration scene, and the comparison vehicle scene recognition unit A driving ability evaluation device that calculates the degree of coincidence based on a time difference between the recognized driving scene of the comparative vehicle and the time when the driving scene other than the deceleration scene is switched to the deceleration scene.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015236914A JP6508020B2 (en) | 2015-12-03 | 2015-12-03 | Driving capacity evaluation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015236914A JP6508020B2 (en) | 2015-12-03 | 2015-12-03 | Driving capacity evaluation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017102795A true JP2017102795A (en) | 2017-06-08 |
JP6508020B2 JP6508020B2 (en) | 2019-05-08 |
Family
ID=59016542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015236914A Active JP6508020B2 (en) | 2015-12-03 | 2015-12-03 | Driving capacity evaluation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6508020B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220089772A (en) * | 2020-12-21 | 2022-06-29 | 한국전자통신연구원 | Drive ability evaluated method for evaluating driving ability of driver and, human factor evaluation system for performing the method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004206207A (en) * | 2002-12-24 | 2004-07-22 | Toyota Central Res & Dev Lab Inc | Danger sensing degree estimation device, safe driving evaluation device, and alarm device |
JP2005092285A (en) * | 2003-09-12 | 2005-04-07 | Toyota Central Res & Dev Lab Inc | Vehicle driving status estimating device and driver's vehicle driving characteristic estimating device |
JP2009217615A (en) * | 2008-03-11 | 2009-09-24 | Toyota Motor Corp | Driving evaluation apparatus |
JP2009262755A (en) * | 2008-04-24 | 2009-11-12 | Aisin Aw Co Ltd | Vehicle traveling controller, vehicle traveling control method and vehicle traveling control program |
JP2014031086A (en) * | 2012-08-02 | 2014-02-20 | Denso Corp | Vehicle control device |
-
2015
- 2015-12-03 JP JP2015236914A patent/JP6508020B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004206207A (en) * | 2002-12-24 | 2004-07-22 | Toyota Central Res & Dev Lab Inc | Danger sensing degree estimation device, safe driving evaluation device, and alarm device |
JP2005092285A (en) * | 2003-09-12 | 2005-04-07 | Toyota Central Res & Dev Lab Inc | Vehicle driving status estimating device and driver's vehicle driving characteristic estimating device |
JP2009217615A (en) * | 2008-03-11 | 2009-09-24 | Toyota Motor Corp | Driving evaluation apparatus |
JP2009262755A (en) * | 2008-04-24 | 2009-11-12 | Aisin Aw Co Ltd | Vehicle traveling controller, vehicle traveling control method and vehicle traveling control program |
JP2014031086A (en) * | 2012-08-02 | 2014-02-20 | Denso Corp | Vehicle control device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220089772A (en) * | 2020-12-21 | 2022-06-29 | 한국전자통신연구원 | Drive ability evaluated method for evaluating driving ability of driver and, human factor evaluation system for performing the method |
KR102615230B1 (en) | 2020-12-21 | 2023-12-20 | 한국전자통신연구원 | Drive ability evaluated method for evaluating driving ability of driver and, human factor evaluation system for performing the method |
Also Published As
Publication number | Publication date |
---|---|
JP6508020B2 (en) | 2019-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5867296B2 (en) | Driving scene recognition device | |
US9527384B2 (en) | Driving context generation system for generating driving behavior description information | |
JP6742802B2 (en) | Method for improving the performance of a method for predicting the future state of a target object by calculation, a driver assistance system, a vehicle equipped with such a driver assistance system, and a storage medium and program for a corresponding program | |
JP5580852B2 (en) | Method, system, program, and vehicle for predicting movement of traffic participant | |
US20190031100A1 (en) | Intelligent ultrasonic system and rear collision warning apparatus for vehicle | |
US9111400B2 (en) | System for detecting abnormal driving behavior | |
WO2019011268A1 (en) | Game theory-based driver auxiliary system decision-making method and system, and the like | |
EP3523749B1 (en) | Object detection and classification with fourier fans | |
JP6206022B2 (en) | Driving assistance device | |
US20200086868A1 (en) | Apparatus and method for controlling driving of a vehicle | |
KR20210068993A (en) | Device and method for training a classifier | |
US20220343637A1 (en) | Traffic flow machine-learning modeling system and method applied to vehicles | |
JP2017010206A (en) | Driving operation determination device | |
JP2007334554A (en) | Obstacle detection device and obstacle detection method | |
JP2017102795A (en) | Traveling capability evaluation device | |
US20220126818A1 (en) | Systems and methods for identifying high-risk driving situations from driving data | |
JP2011123552A (en) | Device for retrieval of similar image in driving, and program | |
JP6466191B2 (en) | Driving support information generation device, driving support device | |
JP7024577B2 (en) | Driving scene learning device, driving scene estimation device, and driving scene estimation system | |
EP4047566A1 (en) | Prevention of low-speed sideswipe collisions with non-moving objects | |
CN113112525B (en) | Target tracking method, network model, training method, training device and training medium thereof | |
US20220343641A1 (en) | Device and method for processing data of a neural network | |
CN110758402A (en) | Abnormality detector for vehicle control signal | |
US20210012121A1 (en) | Information processing device, information processing method, and computer readable medium | |
US11443184B2 (en) | Methods and systems for predicting a trajectory of a road agent based on an intermediate space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180403 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190228 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190318 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6508020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |