JP2017102795A - Traveling capability evaluation device - Google Patents

Traveling capability evaluation device Download PDF

Info

Publication number
JP2017102795A
JP2017102795A JP2015236914A JP2015236914A JP2017102795A JP 2017102795 A JP2017102795 A JP 2017102795A JP 2015236914 A JP2015236914 A JP 2015236914A JP 2015236914 A JP2015236914 A JP 2015236914A JP 2017102795 A JP2017102795 A JP 2017102795A
Authority
JP
Japan
Prior art keywords
vehicle
driving
scene
unit
comparative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015236914A
Other languages
Japanese (ja)
Other versions
JP6508020B2 (en
Inventor
佑基 篠原
Yuki Shinohara
佑基 篠原
万寿三 江川
Masuzo Egawa
江川  万寿三
映 酒井
Ei Sakai
映 酒井
一仁 竹中
Kazuhito Takenaka
一仁 竹中
謙太郎 人見
Kentaro Hitomi
謙太郎 人見
秀明 三澤
Hideaki Misawa
秀明 三澤
真貴 森
Maki Mori
真貴 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015236914A priority Critical patent/JP6508020B2/en
Publication of JP2017102795A publication Critical patent/JP2017102795A/en
Application granted granted Critical
Publication of JP6508020B2 publication Critical patent/JP6508020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a traveling capability evaluation device capable of accurately evaluating traveling capability.SOLUTION: A traveling capability evaluation device 1 for evaluating a traveling capability of a vehicle comprises: an own vehicle scene recognition part 41 for recognizing a driving scene representing a traveling state including at least one of a vehicle speed and a traveling direction as for an own vehicle as a vehicle loaded with the traveling capability evaluation device 1; a preceding vehicle scene recognition part 42 for recognizing a driving scene of a preceding vehicle; a coincidence degree calculation part 43 for calculating a coincidence degree between the driving scene of the own vehicle recognized by the own vehicle scene recognition part 41 and a driving scene of the preceding vehicle recognized by the preceding vehicle scene recognition part 42; and a traveling capability evaluation part 44 for successively evaluating a traveling capability of the own vehicle on the basis of a coincidence degree M calculated by the coincidence degree calculation part 43.SELECTED DRAWING: Figure 2

Description

本発明は、車両が走行する能力を評価する走行能力評価装置に関する。   The present invention relates to a traveling ability evaluation device that evaluates the ability of a vehicle to travel.

車両の走行挙動に関連する制御を、ドライバの運転操作特性に基づいて設定する技術が知られている。たとえば、特許文献1では、警報出力タイミングを、ドライバ固有の運転操作特性に基づいて設定する。   There is known a technique for setting control related to the running behavior of a vehicle based on driving operation characteristics of a driver. For example, in Patent Document 1, the alarm output timing is set based on the driving operation characteristic unique to the driver.

また、車両の走行挙動に関連する制御を、車両特性に基づいて設定する技術も知られている。たとえば、特許文献2では、報知タイミングを、車両の衝突回避性能に基づいて設定している。また、車両の種々の運転シーンを認識する運転シーン認識装置が知られている(たとえば特許文献3)。   There is also known a technique for setting control related to the running behavior of a vehicle based on vehicle characteristics. For example, in Patent Document 2, the notification timing is set based on the collision avoidance performance of the vehicle. Further, a driving scene recognition device that recognizes various driving scenes of a vehicle is known (for example, Patent Document 3).

特開2007−249539号公報JP 2007-249539 A 特開2012−168811号公報JP 2012-168811 A 特開2013−250663号公報JP 2013-250663 A

特許文献1では、ドライバの運転特性に基づいて警報出力タイミングを設定しているが、同じ運転操作特性のドライバであったとしても、車両特性が異なれば、車両の挙動は同じにはならない。   In Patent Literature 1, the alarm output timing is set based on the driving characteristics of the driver. However, even if the driver has the same driving operation characteristics, the behavior of the vehicle is not the same if the vehicle characteristics are different.

特許文献2では、車両の衝突回避性能に基づいて報知タイミングを設定しているが、車両の衝突回避性能が同じであったとしても、ドライバの運転能力が異なれば、車両の挙動は同じにはならない。   In Patent Document 2, the notification timing is set based on the collision avoidance performance of the vehicle, but even if the collision avoidance performance of the vehicle is the same, if the driving ability of the driver is different, the behavior of the vehicle is not the same. Don't be.

車両の挙動を推定するためには、ドライバの運転特性と、挙動に関する車両の特性とを合わせて評価する必要がある。本明細書では、ドライバの運転特性と、挙動に関する車両の特性とを合わせて、走行能力とする。   In order to estimate the behavior of the vehicle, it is necessary to evaluate the driving characteristics of the driver together with the characteristics of the vehicle related to the behavior. In this specification, the driving characteristics of the driver and the characteristics of the vehicle related to the behavior are combined to determine the driving ability.

特許文献1の技術は車両の特性を評価しておらず、特許文献2の技術はドライバの特性を評価していない。したがって、特許文献1、2の技術は、いずれも、精度よく走行能力を評価できていない。   The technique of Patent Document 1 does not evaluate the characteristics of the vehicle, and the technique of Patent Document 2 does not evaluate the characteristics of the driver. Therefore, none of the techniques of Patent Documents 1 and 2 have been able to accurately evaluate the running ability.

本発明は、この事情に基づいて成されたものであり、その目的とするところは、走行能力を精度よく評価することができる走行能力評価装置を提供することにある。   The present invention has been made based on this situation, and an object of the present invention is to provide a travel capability evaluation apparatus that can accurately evaluate the travel capability.

上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、発明の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   The above object is achieved by a combination of the features described in the independent claims, and the subclaims define further advantageous embodiments of the invention. Reference numerals in parentheses described in the claims indicate a correspondence relationship with specific means described in the embodiments described later as one aspect, and do not limit the technical scope of the present invention. .

上記目的を達成するための本発明は、車両の走行能力を評価する走行能力評価装置であって、走行能力評価装置を搭載した車両である自車両について、車速および進行方向の少なくとも一方を含んだ走行状態を表している運転シーンを認識する自車両シーン認識部(41)と、自車両にとっての先行車両および直近後続車両のいずれかである比較車両の運転シーンを認識する比較車両シーン認識部(42)と、自車両シーン認識部が認識した自車両の運転シーンと、比較車両シーン認識部が認識した比較車両の運転シーンとの一致度を算出する一致度算出部(43)と、一致度算出部が算出した一致度に基づいて、自車両および比較車両のいずれかである対象車両の走行能力を逐次評価する走行能力評価部(44)と、を備える。   The present invention for achieving the above object is a travel capability evaluation device for evaluating the travel capability of a vehicle, and includes at least one of a vehicle speed and a traveling direction of the own vehicle, which is a vehicle equipped with the travel capability evaluation device. A host vehicle scene recognition unit (41) for recognizing a driving scene representing a traveling state, and a comparison vehicle scene recognition unit for recognizing a driving scene of a comparison vehicle that is one of a preceding vehicle and a nearest succeeding vehicle for the host vehicle ( 42), a coincidence degree calculation unit (43) for calculating a coincidence between the driving scene of the own vehicle recognized by the own vehicle scene recognition unit and the driving scene of the comparison vehicle recognized by the comparison vehicle scene recognition unit, A running ability evaluation unit (44) that sequentially evaluates the running ability of the target vehicle, which is one of the host vehicle and the comparison vehicle, based on the degree of coincidence calculated by the calculation unit.

本発明では、自車両の運転シーンと比較車両の運転シーンの一致度を算出している。運転シーンは、車速および進行方向の少なくとも一方を含んだ走行状態を表している。加速、減速の仕方はドライバにより変化し、ハンドル操作もドライバにより異なる。したがって、運転シーンにはドライバの運転特性が反映される。   In the present invention, the degree of coincidence between the driving scene of the host vehicle and the driving scene of the comparative vehicle is calculated. The driving scene represents a traveling state including at least one of the vehicle speed and the traveling direction. The method of acceleration and deceleration varies depending on the driver, and the steering wheel operation varies depending on the driver. Therefore, the driving characteristics of the driver are reflected in the driving scene.

また、車速の変化は車両の加減速性能により変化し、車両の進行方向の変化は、車両の操舵性能により変化する。したがって、運転シーンは、ドライバの運転特性と挙動に関する車両の特性が両方の影響を受ける。   The change in the vehicle speed changes depending on the acceleration / deceleration performance of the vehicle, and the change in the traveling direction of the vehicle changes depending on the steering performance of the vehicle. Therefore, the driving scene is affected by both the driving characteristics of the driver and the vehicle characteristics related to the behavior.

この運転シーンを、自車両と、自車両にとっての先行車両および直近後続車両のいずれかである比較車両との間で比較すると、自車両と比較車両のうち後ろ側のドライバの運転能力が高い場合、後ろ側のドライバの運転能力が低い場合よりも、運転シーンは一致する傾向にある。また、自車両と比較車両のうち後ろ側の車両の挙動に関する能力が高いほど、後ろ側の車両は、前側の車両に早期に運転シーンが追従できる可能性が高くなる。そのため、運転シーンの一致度には、ドライバの運転能力の高さと、挙動に関する車両の能力の高さとが反映される。   When this driving scene is compared between the own vehicle and a comparison vehicle that is one of the preceding vehicle and the nearest succeeding vehicle for the own vehicle, the driving ability of the driver behind the own vehicle and the comparison vehicle is high. The driving scenes tend to coincide with each other than when the driving ability of the driver on the rear side is low. In addition, the higher the ability related to the behavior of the rear vehicle of the host vehicle and the comparative vehicle, the higher the possibility that the rear vehicle can follow the driving scene at an early stage. Therefore, the degree of coincidence between driving scenes reflects the high driving ability of the driver and the high ability of the vehicle related to the behavior.

走行能力評価部は、この運転シーンの一致度に基づいて対象車両の走行能力を評価するので、精度よく走行能力を評価できる。   Since the running ability evaluation unit evaluates the running ability of the target vehicle based on the degree of coincidence of the driving scenes, the running ability can be accurately evaluated.

走行能力評価装置1を搭載した自車両2が、先行車両3の後続車両として走行している状態を示す図である。2 is a diagram showing a state in which a host vehicle 2 equipped with a travel capability evaluation device 1 is traveling as a subsequent vehicle of a preceding vehicle 3. FIG. 図1の走行能力評価装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the driving capability evaluation apparatus 1 of FIG. 図2の自車両シーン認識部41の詳細構成を示す図である。It is a figure which shows the detailed structure of the own vehicle scene recognition part 41 of FIG. 自車両挙動値、自車両微分値、ドライビング記号、ドライビングワードの関係を例示する図である。It is a figure which illustrates the relationship of the own vehicle behavior value, the own vehicle differential value, a driving symbol, and a driving word. 図2の先行車両シーン認識部42の詳細構成を示す図である。It is a figure which shows the detailed structure of the preceding vehicle scene recognition part 42 of FIG. 図2の一致度算出部43の詳細構成を示す図である。It is a figure which shows the detailed structure of the coincidence calculation part 43 of FIG. 図6の内容比較部434で用いるドライビング記号一致度表を例示する図である。It is a figure which illustrates the driving symbol coincidence table used in the content comparison part 434 of FIG. 運転シーンの切り替わりと、運転シーンの対応を説明する図である。It is a figure explaining the change of a driving scene and a response | compatibility of a driving scene. 図6の計算部435において計算する係数f(Δt)をグラフ表示する図である。It is a figure which displays the coefficient f ((DELTA) t) calculated in the calculation part 435 of FIG. 6 on a graph. 図2の走行能力評価部44の詳細構成を示す図である。It is a figure which shows the detailed structure of the driving capability evaluation part 44 of FIG. 図10の走行能力更新部442で用いる走行能力増減表を例示する図である。It is a figure which illustrates the driving capability increase / decrease table used by the driving capability update part 442 of FIG. 図2の運転支援部46で、運転支援を実行するか否かを決定するために用いる関係を示す図である。It is a figure which shows the relationship used in order to determine whether the driving assistance part 46 of FIG. 2 performs driving assistance. 第2実施形態において設定されている運転シーンおよび条件を示す図である。It is a figure which shows the driving scene and conditions set in 2nd Embodiment. 第2実施形態において内容比較部434で一致度sを決定するために用いる一致度表である。It is a coincidence degree table | surface used in order to determine the coincidence degree s in the content comparison part 434 in 2nd Embodiment. 第2実施形態において運転支援部46で運転レベルを決定するために用いる表である。It is a table | surface used in order to determine a driving | running level in the driving assistance part 46 in 2nd Embodiment. 第3実施形態において内容比較部434で一致度sを決定するために用いる一致度表である。It is a coincidence degree table | surface used in order to determine the coincidence degree s in the content comparison part 434 in 3rd Embodiment.

<第1実施形態>
以下、本発明の実施形態を図面に基づいて説明する。第1実施形態の走行能力評価装置1は、図1に示すように、自車両2に搭載されており、前方センサ10、自車両挙動センサ20、通信部30、制御部40を備える。なお、自車両2は、この走行能力評価装置1が搭載される車両を意味する。図1に示す状態では、自車両2は、本実施形態における比較車両である先行車両3の直後を走行している。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the traveling ability evaluation device 1 according to the first embodiment is mounted on the host vehicle 2 and includes a front sensor 10, a host vehicle behavior sensor 20, a communication unit 30, and a control unit 40. In addition, the own vehicle 2 means the vehicle in which this driving capability evaluation apparatus 1 is mounted. In the state shown in FIG. 1, the host vehicle 2 is traveling immediately after the preceding vehicle 3 that is a comparative vehicle in the present embodiment.

本実施形態では、先行車両3は走行能力評価装置100を搭載している。走行能力評価装置100は、前方センサ110、車両挙動センサ120、通信部130、制御部140を備えている。走行能力評価装置100および走行能力評価装置100が備える各構成は、説明の便宜上、符号を異ならせているが、走行能力評価装置1および走行能力評価装置1が備える各構成において同一の名称の構成と同じものである。   In the present embodiment, the preceding vehicle 3 is equipped with a traveling ability evaluation device 100. The driving ability evaluation device 100 includes a front sensor 110, a vehicle behavior sensor 120, a communication unit 130, and a control unit 140. The components included in the driving capability evaluation device 100 and the driving capability evaluation device 100 have different reference numerals for convenience of explanation, but the components having the same names in the components included in the driving capability evaluation device 1 and the driving capability evaluation device 1 Is the same.

[走行能力評価装置1の構成]
図2に示しているブロック図を用いて、走行能力評価装置1の構成を説明する。前方センサ10は、自車両2の直近前方を走行する先行車両3の、自車両2に対する相対挙動に関連する値を検出するためのセンサである。先行車両3の自車両2に対する相対挙動に関連する値は、請求項の比較車両挙動値に相当するので、前方センサ10は、請求項の比較車両挙動センサに相当する。
[Configuration of Traveling Capacity Evaluation Device 1]
With reference to the block diagram shown in FIG. 2, the configuration of the traveling ability evaluation apparatus 1 will be described. The front sensor 10 is a sensor for detecting a value related to the relative behavior of the preceding vehicle 3 traveling immediately in front of the host vehicle 2 with respect to the host vehicle 2. Since the value related to the relative behavior of the preceding vehicle 3 with respect to the host vehicle 2 corresponds to the comparative vehicle behavior value in the claims, the front sensor 10 corresponds to the comparative vehicle behavior sensor in the claims.

前方センサ10が検出する情報は、具体的には、自車両2に対する先行車両3の相対位置である。自車両2に対する先行車両3の相対位置を検出するので、前方センサ10は、自車両2と先行車両3との車間距離も検出する。この前方センサ10は、たとえば、ミリ波やレーザなどを計測媒体としたレーダを用いることができる。また、カメラを前方センサ10として用いてもよい。   Specifically, the information detected by the front sensor 10 is the relative position of the preceding vehicle 3 with respect to the host vehicle 2. Since the relative position of the preceding vehicle 3 with respect to the own vehicle 2 is detected, the front sensor 10 also detects the inter-vehicle distance between the own vehicle 2 and the preceding vehicle 3. As the front sensor 10, for example, a radar using a millimeter wave or a laser as a measurement medium can be used. A camera may be used as the front sensor 10.

自車両挙動センサ20は、自車両2の挙動に関連する値である自車両挙動値を検出するセンサである。自車両2の挙動は、車速、および、現在までの走行軌跡に対する相対的な進行方向により規定できる。また、相対的な進行方向は、ステアリング操作により変化する。したがって、本実施形態では、自車両挙動センサ20として、車速センサとステアリング角センサを備え、自車両挙動値として、車速とステアリング角を逐次検出する。さらに、自車両挙動センサ20として、アクセル開度センサ、ブレーキ油圧センサを備え、自車両挙動値として、アクセル開度とブレーキマスタシリンダ圧を逐次検出する。この自車両挙動センサ20は請求項の自車両挙動検出部に相当する。   The host vehicle behavior sensor 20 is a sensor that detects a host vehicle behavior value that is a value related to the behavior of the host vehicle 2. The behavior of the host vehicle 2 can be defined by the vehicle speed and the relative traveling direction with respect to the traveling locus up to now. Further, the relative traveling direction changes depending on the steering operation. Accordingly, in the present embodiment, the host vehicle behavior sensor 20 includes a vehicle speed sensor and a steering angle sensor, and the vehicle speed and the steering angle are sequentially detected as the host vehicle behavior value. Further, the host vehicle behavior sensor 20 includes an accelerator opening sensor and a brake hydraulic pressure sensor, and the accelerator opening and the brake master cylinder pressure are sequentially detected as the host vehicle behavior value. The own vehicle behavior sensor 20 corresponds to the own vehicle behavior detection unit in the claims.

通信部30は、近距離無線通信により車車間通信を行う機能を備えており、先行車両3などの他車両に通信装置が搭載されている場合に、その通信装置との間で通信を行う。通信部30が用いる周波数は、たとえば、5.8GHz帯や700MHz帯などである。通信部30は後述する先行車両挙動値を受信する。先行車両挙動値は請求項の比較車両挙動値に相当する。したがって、通信部30は請求項の受信部に相当する。また、通信部30は、自車両挙動値を逐次、周囲に送信する。また、自車両挙動値に加えて、後述する自車両微分値も、逐次、周囲に送信してもよい。   The communication unit 30 has a function of performing vehicle-to-vehicle communication by short-range wireless communication. When the communication device is mounted on another vehicle such as the preceding vehicle 3, the communication unit 30 performs communication with the communication device. The frequency used by the communication unit 30 is, for example, a 5.8 GHz band or a 700 MHz band. The communication unit 30 receives a preceding vehicle behavior value described later. The preceding vehicle behavior value corresponds to the comparative vehicle behavior value in the claims. Therefore, the communication unit 30 corresponds to a receiving unit in the claims. In addition, the communication unit 30 sequentially transmits the own vehicle behavior value to the surroundings. Further, in addition to the own vehicle behavior value, a later-described own vehicle differential value may be sequentially transmitted to the surroundings.

制御部40は、CPU、ROM、RAM等を備えたコンピュータである。CPUが、RAMの一時記憶機能を利用しつつ、ROMなどの非遷移的実体的記録媒体(non-transitory tangible storage medium)に記憶されているプログラムを実行する。このプログラムを実行することで、制御部40は、自車両シーン認識部41、先行車両シーン認識部42、一致度算出部43、走行能力評価部44、衝突予測値算出部45、運転支援部46として機能する。これらの機能を実行すると、プログラムに対応する方法が実行される。なお、制御部40が実行する機能の一部または全部を、一つあるいは複数のIC等によりハードウェア的に構成してもよい。   The control unit 40 is a computer that includes a CPU, a ROM, a RAM, and the like. The CPU executes a program stored in a non-transitory tangible storage medium such as a ROM while using the temporary storage function of the RAM. By executing this program, the control unit 40 causes the host vehicle scene recognition unit 41, the preceding vehicle scene recognition unit 42, the coincidence degree calculation unit 43, the driving ability evaluation unit 44, the collision predicted value calculation unit 45, and the driving support unit 46. Function as. When these functions are executed, a method corresponding to the program is executed. Note that part or all of the functions executed by the control unit 40 may be configured by hardware using one or a plurality of ICs.

自車両シーン認識部41は、自車両2の運転シーンを認識する。運転シーンは、車速および進行方向の少なくとも一方を含んだ車両の走行状態を表すものである。なお、ここでの進行方向は、前述した相対的な進行方向である。   The own vehicle scene recognition unit 41 recognizes the driving scene of the own vehicle 2. The driving scene represents a traveling state of the vehicle including at least one of the vehicle speed and the traveling direction. In addition, the advancing direction here is a relative advancing direction mentioned above.

自車両シーン認識部41は、この運転シーンを認識するために、自車両挙動センサ20が検出した信号を逐次取得する。本実施形態での運転シーンは、一つまたは複数のドライビング記号からなるドライビングワードにより表される。   The own vehicle scene recognition unit 41 sequentially acquires signals detected by the own vehicle behavior sensor 20 in order to recognize this driving scene. The driving scene in the present embodiment is represented by a driving word composed of one or a plurality of driving symbols.

自車両シーン認識部41は、図3に示すように、詳細構成として、自車両微分値算出部411、記号化部412、記号統合部413を備える。自車両微分値算出部411は、自車両挙動センサ20が検出した自車両挙動値のうち、予め設定された種類の自車両挙動値の微分値(以下、自車両微分値)を逐次算出する。たとえば、自車両微分値算出部411は、ブレーキマスタシリンダ圧の微分値、および、ステアリング角の微分値を算出する。   As shown in FIG. 3, the host vehicle scene recognition unit 41 includes a host vehicle differential value calculation unit 411, a symbolization unit 412, and a symbol integration unit 413 as a detailed configuration. The own vehicle differential value calculation unit 411 sequentially calculates a differential value (hereinafter referred to as an own vehicle differential value) of a preset type of own vehicle behavior value among the own vehicle behavior values detected by the own vehicle behavior sensor 20. For example, the own vehicle differential value calculation unit 411 calculates the differential value of the brake master cylinder pressure and the differential value of the steering angle.

記号化部412は、図4に示すように、経時的に連続して検出あるいは算出される自車両挙動値および自車両微分値に基づき、自車両2の走行状態を、区分単位となる区分走行状態に区分けする。そして、区分けした区分走行状態を対応するドライビング記号によって表す。これにより、ドライビング記号の記号列を生成する。この記号列は請求項の自車両記号列に相当し、記号化部412は請求項の自車両記号化部に相当する。   As shown in FIG. 4, the symbolizing unit 412 divides the traveling state of the host vehicle 2 into segmented travels based on the host vehicle behavior values and the host vehicle differential values continuously detected or calculated over time. Divide into states. Then, the segmented traveling state is represented by a corresponding driving symbol. As a result, a symbol string of driving symbols is generated. This symbol string corresponds to the host vehicle symbol string in the claims, and the symbolizing unit 412 corresponds to the host vehicle symbolizing unit in the claims.

区分走行状態への区分けは、自車両挙動値および自車両微分値からなる多次元の空間において、各値から把握される各種の走行状態をクラスターとする。そして、各値がいずれのクラスターに属するかを統計的に処理することにより、各値を区分単位となる区分走行状態ごと(つまり、クラスターごと)に区分けする。   In the classification into the traveling state, the various traveling states grasped from the respective values are clustered in a multidimensional space composed of the own vehicle behavior value and the own vehicle differential value. Then, by statistically processing which cluster each value belongs to, each value is classified into each segment running state (that is, each cluster) as a segment unit.

たとえば、記号化部412は、特許文献3と同様、隠れ状態とその状態間の確率的遷移で表現されるモデルの一つである階層ディリクレ過程隠れマルコフモデル(以下、HDP−HMM)を利用して記号列を生成する。HDP−HMMは、HMMに無限次元の隠れ状態を仮定することにより、入力される各値に応じて隠れ状態の数を決定するものであり、隠れ状態数を事前に設計する必要がない。   For example, the encoding unit 412 uses a hierarchical Dirichlet process hidden Markov model (hereinafter referred to as HDP-HMM), which is one of models expressed by a hidden state and a stochastic transition between the states, as in Patent Document 3. To generate a symbol string. The HDP-HMM determines the number of hidden states according to each input value by assuming an infinite dimensional hidden state in the HMM, and it is not necessary to design the number of hidden states in advance.

特に、HDP−HMMとして、スティッキーHDP−HMMを用いることが好ましい。スティッキーHDP−HMMは、HDP−HMMの自己遷移確率にバイアスを付加したものである。スティッキーHDP−HMMは、自己遷移確率を大きくすることにより、隠れ状態の過剰遷移を抑えることができ、動作の連続性を仮定するモデリングを効率的に行うことが可能となる。   In particular, it is preferable to use sticky HDP-HMM as the HDP-HMM. The sticky HDP-HMM is obtained by adding a bias to the self-transition probability of the HDP-HMM. By increasing the self-transition probability, the sticky HDP-HMM can suppress the excessive transition of the hidden state, and can efficiently perform modeling assuming the continuity of the operation.

記号化部412は、上述したHDP−HMMに限らず、他のモデルを利用して、記号列を生成することも可能である。例えば、一般的なHMMやN字マルコフモデル、階層マルコフモデル、スイッチングARモデル、スイッチングマルマンフィルタなどのモデルを用いることも可能である。この場合、例えば、予め各モデルの隠れ状態数の設計を行うとともに、各隠れ状態間の遷移確率を記号遷移データベースに保存しておく。そして、それらのモデル及び隠れ状態の遷移確率に基づき、隠れ状態の事後確率を算出することにより、最も尤もらしい隠れ状態を得ることができる。なお、HDP−HMMを用いる場合、隠れ状態間の遷移確率の算出、更新も自動的に行われるので、予め隠れ状態の遷移確率を定めておく必要はない。   The symbolization unit 412 is not limited to the HDP-HMM described above, and can generate a symbol string using another model. For example, a general HMM, an N-shaped Markov model, a hierarchical Markov model, a switching AR model, a switching Marman filter, or the like can be used. In this case, for example, the number of hidden states of each model is designed in advance, and the transition probabilities between the hidden states are stored in the symbol transition database. Then, the most likely hidden state can be obtained by calculating the posterior probability of the hidden state based on the model and the transition probability of the hidden state. When HDP-HMM is used, the transition probability between hidden states is automatically calculated and updated, so there is no need to determine the hidden state transition probability in advance.

さらに、上述したモデルを用いることなく、記号列を生成するためのより簡易な手法として、以下のような手法を採用しても良い。すなわち、経時的に連続して検出あるいは算出される各値に対して、各値の大きさを区分するための閾値をそれぞれ設定しておく。さらに、各値の大きさの区分の全ての組み合わせに対して、それぞれ異なるドライビング記号を対応付けておく。そして、検出あるいは算出された各値の大きさがいずれの区分に属するか判定するとともに、それらの区分の組み合わせに応じたドライビング記号を付与するという処理を繰り返すことにより記号列を生成する。   Furthermore, the following method may be employed as a simpler method for generating a symbol string without using the above-described model. That is, for each value that is continuously detected or calculated over time, a threshold for classifying the magnitude of each value is set. Further, different driving symbols are associated with all combinations of the size categories. Then, a symbol string is generated by determining which category each detected or calculated value belongs to, and repeating a process of assigning a driving symbol corresponding to the combination of the categories.

記号統合部413は請求項の自車両分節化部に相当する。この記号統合部413は、記号化部412から出力される記号列を、所定の走行状態を意味するドライビングワードに統合する。これにより、図4に示すように、記号列がドライビングワードに分節化される。そして、記号統合部413は、そのドライビングワードを運転シーンとして認識する。本実施形態では、この記号統合部413として、統計情報を利用した離散文字列の教師なしチャンク化手法の1例であるNested Pitman-Yor Language Model(NPYLM)を利用する。統計情報を利用することで複数種類のドライビングワードが生成され、それら複数種類のドライビングワードにより、複数種類の走行状態が表される。また、統計情報を利用してドライビングワードを定めることから、ドライビングワードすなわち運転シーンは、複数種類のドライビングワード(すなわち複数種類の走行状態)の中から定められることになる。   The symbol integration unit 413 corresponds to the own vehicle segmentation unit in the claims. The symbol integration unit 413 integrates the symbol string output from the symbolization unit 412 into a driving word that represents a predetermined traveling state. As a result, the symbol string is segmented into driving words as shown in FIG. Then, the symbol integration unit 413 recognizes the driving word as a driving scene. In this embodiment, Nested Pitman-Yor Language Model (NPYLM), which is an example of an unsupervised chunking technique for discrete character strings using statistical information, is used as the symbol integration unit 413. A plurality of types of driving words are generated by using the statistical information, and a plurality of types of driving states are represented by the plurality of types of driving words. In addition, since the driving word is determined using the statistical information, the driving word, that is, the driving scene, is determined from a plurality of types of driving words (that is, a plurality of types of running states).

上記NPYLMは、Hierarchical Pitman-Yor Language Model(HPYLM)に単語のN-gramモデルを組み込むことにより拡張したものであり、辞書データなしでの形態素解析を実現したものである。HPYLMは、N-gram言語モデルにPitman-Yor過程によるスムージングを行うことで、未知語や低頻度語に対する頑強性を向上させ、適切な単語の分節化を可能としたものである。   The NPYLM is expanded by incorporating an N-gram model of words into the Hierarchical Pitman-Yor Language Model (HPYLM), and realizes morphological analysis without dictionary data. HPYLM improves the robustness against unknown words and low-frequency words by smoothing the N-gram language model by the Pitman-Yor process, and enables appropriate word segmentation.

NPYLM及びHPYLMに関しては、「階層Pitman-Yor言語モデルを用いた動作解析」(第25回人工知能学会全国大会, 3B1-OS22c-8 .(2011))に詳しく説明されているので、これ以上の説明は省略する。   NPYLM and HPYLM are described in detail in “Analysis of Behavior Using Hierarchical Pitman-Yor Language Model” (The 25th Annual Conference of the Japanese Society for Artificial Intelligence, 3B1-OS22c-8. (2011)). Description is omitted.

記号統合部413は、上述したNPYLMを用いて、記号列をドライビングワードに分節化する際、ドライビングワードの並びからなる文章の生成確率が最大となり、かつ辞書のサイズ(すなわち、ドライビングワードの数)ができるだけ小さくなるようにする。これにより、計算量を抑えつつ、記号列の分節化を行うことが可能になる。ライビングワード間の遷移確率、及びドライビングワードの生成確率は、訓練時に学習され、単語遷移データベース14に保存される。   When the symbol integration unit 413 segments the symbol string into driving words using the NPYLM described above, the generation probability of a sentence composed of the driving words is maximized, and the size of the dictionary (that is, the number of driving words) is increased. To be as small as possible. This makes it possible to segment the symbol string while reducing the amount of calculation. The transition probability between the living words and the generation probability of the driving word are learned during training and stored in the word transition database 14.

なお、上述したNPYLMは、記号列の分節化を行うための一例に過ぎず、他の手法によって分節化を行なってもよい。例えば、車両を各種の走行状態で走行させたときに生成された記号列に基づいて予めドライビングワードを設定し、ドライビングワード辞書を作成するとともに、各ドライビングワードの遷移確率や生成確率のデータベースを作成する。これらドライビングワード辞書およびデータベースを所定の記憶部に記憶させておく。そして、これらのドライビングワード辞書、遷移確率データベース、及び生成確率データベースを参照して、入力された記号列を最も確からしいドライビングワードごとに分節化するようにしても良い。   Note that the above-described NPYLM is merely an example for segmentation of a symbol string, and segmentation may be performed by other methods. For example, driving words are set in advance based on symbol strings generated when the vehicle is driven in various driving conditions, a driving word dictionary is created, and a database of transition probabilities and generation probabilities of each driving word is created. To do. These driving word dictionaries and databases are stored in a predetermined storage unit. Then, referring to these driving word dictionaries, transition probability database, and generation probability database, the input symbol string may be segmented for each most probable driving word.

先行車両シーン認識部42は、先行車両3の運転シーンを認識する。運転シーンの意味は、自車両シーン認識部41における運転シーンと同じである。本実施形態において先行車両3は請求項の比較車両に相当することから、先行車両シーン認識部42は請求項の比較車両シーン認識部に相当する。先行車両シーン認識部42は、詳細構成として、図5に示すように、先行車両微分値算出部421と、記号化部422と、記号結合部423を備える。   The preceding vehicle scene recognition unit 42 recognizes the driving scene of the preceding vehicle 3. The meaning of the driving scene is the same as the driving scene in the vehicle scene recognition unit 41. In the present embodiment, the preceding vehicle 3 corresponds to the comparative vehicle in the claims, and therefore the preceding vehicle scene recognition unit 42 corresponds to the comparative vehicle scene recognition unit in the claims. As shown in FIG. 5, the preceding vehicle scene recognizing unit 42 includes a preceding vehicle differential value calculating unit 421, a symbolizing unit 422, and a symbol combining unit 423 as a detailed configuration.

先行車両微分値算出部421は、先行車両3の挙動に関連する値である先行車両挙動値であって、自車両微分値算出部411が取得するものと同じ種類の値を、通信部30および前方センサ10の一方または両方を用いて取得する。そして、取得した先行車両挙動値の微分値(以下、先行車両微分値)を逐次算出する。先行車両3は比較車両に相当するので、周辺車両微分値は請求項の比較車両微分値に相当し、先行車両微分値算出部421は請求項の比較車両微分値算出部に相当する。   The preceding vehicle differential value calculation unit 421 is a preceding vehicle behavior value that is a value related to the behavior of the preceding vehicle 3, and uses the same type of value as that acquired by the own vehicle differential value calculation unit 411. Acquired using one or both of the front sensors 10. And the differential value (henceforth, preceding vehicle differential value) of the acquired preceding vehicle behavior value is calculated sequentially. Since the preceding vehicle 3 corresponds to a comparative vehicle, the peripheral vehicle differential value corresponds to the comparative vehicle differential value in the claims, and the preceding vehicle differential value calculation unit 421 corresponds to the comparative vehicle differential value calculation unit in the claims.

請求項の比較車両記号列生成部に相当する記号化部422は、先行車両挙動値であって、自車両シーン認識部41が備える記号化部412と同じ種類の値を逐次取得する。そして、記号化部422は、この取得した先行車両挙動値に基づき、先行車両3の走行状態を区分走行状態に区分けし、区分けした区分走行状態を対応するドライビング記号によって表す。区分走行状態は、自車両シーン認識部41の記号化部412で説明したものと同じであり、区分走行状態への区分方法も、自車両シーン認識部41の記号化部412と同じ方法を用いる。記号化部422はドライビング記号を逐次出力するので、記号化部422からはドライビング記号の記号列が出力される。この記号列は請求項の比較車両記号列に相当する。   The symbolization unit 422 corresponding to the comparison vehicle symbol string generation unit in the claims sequentially acquires the same type of values as the symbolization unit 412 included in the host vehicle scene recognition unit 41 as the preceding vehicle behavior value. Based on the acquired preceding vehicle behavior value, the symbolizing unit 422 divides the traveling state of the preceding vehicle 3 into segmented traveling states, and represents the segmented segmented traveling states by corresponding driving symbols. The segmented traveling state is the same as that described in the symbolizing unit 412 of the own vehicle scene recognizing unit 41, and the classification method for the segmented traveling state is also the same method as the symbolizing unit 412 of the own vehicle scene recognizing unit 41. . Since the symbolizing unit 422 sequentially outputs driving symbols, the symbolizing unit 422 outputs a symbol string of driving symbols. This symbol string corresponds to the comparative vehicle symbol string in the claims.

請求項の比較車両分節化部に相当する記号結合部423は、記号化部422から出力される記号列を、所定の走行状態を意味するドライビングワードに統合する。統合方法は、自車両シーン認識部41が備える記号結合部423と同じである。   The symbol combination unit 423 corresponding to the comparative vehicle segmentation unit in the claims integrates the symbol string output from the symbolization unit 422 into a driving word meaning a predetermined traveling state. The integration method is the same as the symbol combination unit 423 provided in the host vehicle scene recognition unit 41.

一致度算出部43は、自車両シーン認識部41が認識した自車両2の運転シーンと、先行車両シーン認識部42が認識した先行車両3の運転シーンとの一致度Mを算出する。本実施形態の一致度算出部43は、図6に示す詳細構成を備える。   The coincidence calculation unit 43 calculates the coincidence M between the driving scene of the host vehicle 2 recognized by the host vehicle scene recognition unit 41 and the driving scene of the preceding vehicle 3 recognized by the preceding vehicle scene recognition unit 42. The degree-of-match calculation unit 43 of the present embodiment has a detailed configuration shown in FIG.

具体的には、本実施形態の一致度算出部43は、運転シーン記憶部431と、切り替わり検出部432と、時間差算出部433と、内容比較部434と、計算部435とを備えている。   Specifically, the coincidence degree calculation unit 43 of the present embodiment includes a driving scene storage unit 431, a switching detection unit 432, a time difference calculation unit 433, a content comparison unit 434, and a calculation unit 435.

運転シーン記憶部431は、書き込み可能な記憶媒体であり、自車両2の運転シーンと先行車両3の運転シーンが逐次記憶される。切り替わり検出部432が、自車両2の運転シーンが切り替わったことを検出すると、切り替わり前の自車両2の運転シーンが、切り替わり検出部432により、この運転シーン記憶部431に記憶される。運転シーンの切り替わり時点で、切り替わり前の運転シーンが確定するので、運転シーンの切り替わり時点で切り替わり前の運転シーンを記憶するのである。また、切り替わり検出部432が、先行車両3の運転シーンが切り替わったことを検出すると、切り替わり前の先行車両3の運転シーンが、切り替わり検出部432により、この運転シーン記憶部431に記憶される。   The driving scene storage unit 431 is a writable storage medium, and the driving scene of the host vehicle 2 and the driving scene of the preceding vehicle 3 are sequentially stored. When the switching detection unit 432 detects that the driving scene of the host vehicle 2 has been switched, the driving scene of the host vehicle 2 before switching is stored in the driving scene storage unit 431 by the switching detection unit 432. Since the driving scene before switching is determined when the driving scene is switched, the driving scene before switching is stored when the driving scene is switched. When the switching detection unit 432 detects that the driving scene of the preceding vehicle 3 has been switched, the driving scene of the preceding vehicle 3 before the switching is stored in the driving scene storage unit 431 by the switching detection unit 432.

一方、計算部435が一致度Mを計算した場合、自車両2の運転シーン、および、先行車両3の運転シーンは、計算部435により、運転シーン記憶部431から消去される。これにより、運転シーン記憶部431には、一致度Mが算出されていない運転シーンのみが残るので、一致度Mを算出してない運転シーン同士で一致度Mを算出することになる。   On the other hand, when the calculation unit 435 calculates the degree of coincidence M, the driving scene of the host vehicle 2 and the driving scene of the preceding vehicle 3 are deleted from the driving scene storage unit 431 by the calculating unit 435. As a result, only the driving scene for which the matching degree M has not been calculated remains in the driving scene storage unit 431, and therefore the matching degree M is calculated for driving scenes for which the matching degree M has not been calculated.

切り替わり検出部432は、自車両シーン認識部41が認識した自車両2の運転シーンを逐次取得する。新たに自車両シーン認識部41から運転シーンを取得した場合、自車両2の運転シーンが切り替わったとする。   The switch detection unit 432 sequentially acquires the driving scene of the host vehicle 2 recognized by the host vehicle scene recognition unit 41. When a driving scene is newly acquired from the own vehicle scene recognition unit 41, it is assumed that the driving scene of the own vehicle 2 is switched.

また、切り替わり検出部432は、先行車両シーン認識部42が認識した先行車両3の運転シーンを逐次取得し、新たに先行車両シーン認識部42から運転シーンを取得した場合、先行車両3の運転シーンが切り替わったとする。   Further, when the switching detection unit 432 sequentially acquires the driving scene of the preceding vehicle 3 recognized by the preceding vehicle scene recognition unit 42 and newly acquires the driving scene from the preceding vehicle scene recognition unit 42, the switching scene of the preceding vehicle 3 is acquired. Is switched.

そして、切り替わり検出部432は、運転シーンが切り替わったことを検出した場合、自車両シーン認識部41あるいは先行車両シーン認識部42から新たに取得した運転シーンを、運転シーン記憶部431に記憶する。本実施形態における運転シーンは、具体的にはドライビングワードであるが、ドライビングワードに加えて、ドライビングワードを構成するドライビング記号も、運転シーン記憶部431に記憶する。さらに、切り替わり検出部432は、運転シーンが切り替わったことを検出した場合、そのことを時間差算出部433に出力する。   When the switching detection unit 432 detects that the driving scene has been switched, the switching detection unit 432 stores the driving scene newly acquired from the host vehicle scene recognition unit 41 or the preceding vehicle scene recognition unit 42 in the driving scene storage unit 431. The driving scene in the present embodiment is specifically a driving word, but in addition to the driving word, the driving symbols constituting the driving word are also stored in the driving scene storage unit 431. Furthermore, when the switching detection unit 432 detects that the driving scene has been switched, the switching detection unit 432 outputs this to the time difference calculation unit 433.

時間差算出部433は、切り替わり検出部432が運転シーンの切り替わりを検出し、他方の運転シーンが運転シーン記憶部431に記憶されている場合、それら2つの運転シーンがそれぞれ切り替わった時刻間の時間差Δtを算出する。   When the switching detection unit 432 detects switching of the driving scene and the other driving scene is stored in the driving scene storage unit 431, the time difference calculating unit 433 is configured to detect the time difference Δt between the times when the two driving scenes are switched. Is calculated.

なお、本実施形態において後側車両である自車両2の運転シーンが、前側車両である先行車両3の運転シーンよりも先に切り替わった場合、時間差Δtを0とする。このようにすることで、後側車両である自車両2のドライバが先行車両3の挙動を予測して先回り運転をしたにも関わらず、走行能力が低く評価されてしまうことを抑制できる。自車両2の運転シーンが、先行車両3の運転シーンよりも先に切り替わる例は、図8を用いて後述する。   In the present embodiment, the time difference Δt is set to 0 when the driving scene of the host vehicle 2 that is the rear vehicle is switched before the driving scene of the preceding vehicle 3 that is the front vehicle. By doing in this way, it can suppress that driving ability will be evaluated low although the driver of the own vehicle 2 which is a back side vehicle predicts the behavior of the preceding vehicle 3, and carried out advance driving. An example in which the driving scene of the host vehicle 2 is switched before the driving scene of the preceding vehicle 3 will be described later with reference to FIG.

内容比較部434は、時間差算出部433が時間差Δtを算出した2つの運転シーンの内容を比較して、それら2つの運転シーンの内容の一致度sを決定する。内容の一致度sは、予め設定した、内容同士の一致度表を用いて決定する。より具体的には、本実施形態では、運転シーンとしてドライビングワードを認識しており、ドライビングワードは、1つまたは複数のドライビング記号により構成される。そこで、本実施形態の内容比較部434は、ドライビングワードを構成するドライビング記号同士の一致度表(以下、ドライビング記号一致度表)を予め作成しておく。図7は、このドライビング記号一致度表の一例である。このドライビング記号一致度表を用いて、2つの運転シーンの内容の一致度sを算出する。   The content comparison unit 434 compares the contents of the two driving scenes for which the time difference calculation unit 433 has calculated the time difference Δt, and determines the degree of coincidence s between the two driving scenes. The degree of coincidence s of contents is determined using a coincidence degree table of contents set in advance. More specifically, in the present embodiment, a driving word is recognized as a driving scene, and the driving word is configured by one or a plurality of driving symbols. Therefore, the content comparison unit 434 of the present embodiment creates in advance a matching degree table (hereinafter referred to as a driving symbol matching degree table) between the driving symbols constituting the driving word. FIG. 7 is an example of the driving symbol coincidence table. Using this driving symbol coincidence table, the coincidence s of the contents of the two driving scenes is calculated.

比較する2つのドライビングワードを構成するドライビング記号について、先頭から順番に、ドライビング記号一致度表を用いて、一致度sを算出する。ドライビングワードは、その内容により、構成するドライビング記号の数が異なる。そのため、ドライビング記号一致度表には、記号なしの欄が設けられている。記号なしの欄に記載されている「a」は予め設定された定数である。   For the driving symbols constituting the two driving words to be compared, the matching score s is calculated using the driving symbol matching table in order from the top. The number of driving symbols constituting the driving word differs depending on the content thereof. Therefore, a column without symbols is provided in the driving symbol coincidence table. “A” described in the column without a symbol is a preset constant.

各ドライビング記号について、ドライビング記号一致度表を用いて一致度を算出した後、算出した全部を掛け合わせた値を、2つの運転シーンの内容の一致度sとする。あるいは、各ドライビング記号について一致度を算出した後、算出した全部の一致度の平均値を、2つの運転シーンの内容の一致度sとしてもよい。   For each driving symbol, the degree of coincidence is calculated using the driving symbol coincidence table, and the value obtained by multiplying all the calculated values is defined as the degree of coincidence s of the contents of the two driving scenes. Alternatively, after the degree of coincidence is calculated for each driving symbol, the average value of all the calculated degrees of coincidence may be used as the degree of coincidence s of the contents of the two driving scenes.

計算部435は、切り替わり検出部432が運転シーンの切り替わりを検出する毎に、切り替わりを検出した運転シーンと、対応する運転シーンとの一致度Mを計算する。ここでの対応する運転シーンは、切り替わり検出部432が切り替わりを検出した運転シーンが、自車両2の運転シーンであれば、対応する運転シーンは先行車両3の運転シーンである。これらの運転シーンは、運転シーン記憶部431に記憶されているものを用いる。   The calculation unit 435 calculates the degree of coincidence M between the driving scene in which the switching is detected and the corresponding driving scene each time the switching detection unit 432 detects the switching of the driving scene. The corresponding driving scene here is the driving scene of the preceding vehicle 3 if the driving scene detected by the switching detection unit 432 is the driving scene of the host vehicle 2. As these driving scenes, those stored in the driving scene storage unit 431 are used.

ただし、自車両2の運転シーンおよび先行車両3の運転シーンのうちいずれかが一方が2つ以上、運転シーン記憶部431に記憶されている場合には、次のようにする。2つ以上、運転シーン記憶部431に記憶されている側の運転シーンは、最も古い時刻に記憶された運転シーンのみ、他方の運転シーンとの一致度Mを算出する。2つ以上、運転シーン記憶部431に記憶されている側の運転シーンのうち、最も古い時刻に記憶された運転シーン以外は、対応する運転シーンは無いとして、運転シーンの一致度Mを計算する。   However, when one of the driving scenes of the host vehicle 2 and the driving scene of the preceding vehicle 3 is stored in the driving scene storage unit 431, the following is performed. For the two or more driving scenes stored in the driving scene storage unit 431, only the driving scene stored at the oldest time is calculated as the degree of coincidence M with the other driving scene. Of the two or more driving scenes stored in the driving scene storage unit 431, the driving scene coincidence M is calculated assuming that there is no corresponding driving scene other than the driving scene stored at the oldest time. .

対応する運転シーンが無いことになる状況は、一方の運転シーンが次の運転シーンに切り替わる前に、他方の運転シーンが複数回切り替わる状況である。たとえば、図8に示すように、先行車両3の運転シーンがシーンAである間に、自車両2の運転シーンがシーンCからシーンDさらにはシーンEに切り替わった場合、シーンAに対応する運転シーンはシーンCになる。シーンDは対応する運転シーンが無いとして一致度Mを計算する。そして、一致度Mを計算した後は、計算部435は、シーンA、シーンC、シーンDを、運転シーン記憶部431から消去する。これにより、次回は、シーンEとシーンBが互いに対応する運転シーンとなる。シーンEが始まる時刻とシーンBが始まる時刻を比較すると、後続車両である自車両2の運転シーンであるシーンEの方が先に始まっている。よって、シーンEとシーンBの一致度Mを算出する際は、時間差Δtを0とする。   The situation where there is no corresponding driving scene is a situation where the other driving scene is switched a plurality of times before one driving scene is switched to the next driving scene. For example, as shown in FIG. 8, when the driving scene of the host vehicle 2 is switched from the scene C to the scene D and further to the scene E while the driving scene of the preceding vehicle 3 is the scene A, the driving corresponding to the scene A is performed. The scene becomes scene C. For the scene D, the matching degree M is calculated assuming that there is no corresponding driving scene. After calculating the coincidence degree M, the calculation unit 435 deletes the scene A, the scene C, and the scene D from the driving scene storage unit 431. Thereby, next time, the scene E and the scene B become driving scenes corresponding to each other. When the time when the scene E starts and the time when the scene B starts are compared, the scene E which is the driving scene of the own vehicle 2 which is the succeeding vehicle starts first. Therefore, when calculating the degree of coincidence M between the scene E and the scene B, the time difference Δt is set to zero.

一致度Mの計算は、対応する運転シーンがある場合には、時間差算出部433が算出した時間差Δtに基づいて定まる係数f(Δt)に、内容比較部434が決定した内容の一致度sを乗じた値とする。したがって、式1により一致度Mは計算できる。
(式1) M=f(Δt)×s
係数f(Δt)は、図9に示すように、時間差Δtの値によらず、1よりも小さい値であり、かつ、時間差Δtが大きいほど係数fは小さくなる。時間差Δtに対する係数f(Δt)がこのような傾向になっていることで、時間差Δtが大きいほど一致度Mは小さくなる。
When there is a corresponding driving scene, the degree of coincidence M is calculated by setting the degree of coincidence s determined by the content comparison unit 434 to a coefficient f (Δt) determined based on the time difference Δt calculated by the time difference calculation unit 433. The value multiplied. Therefore, the degree of coincidence M can be calculated from Equation 1.
(Formula 1) M = f (Δt) × s
As shown in FIG. 9, the coefficient f (Δt) is a value smaller than 1 regardless of the value of the time difference Δt, and the coefficient f decreases as the time difference Δt increases. Since the coefficient f (Δt) with respect to the time difference Δt has such a tendency, the degree of coincidence M decreases as the time difference Δt increases.

これに対して、図8のシーンDのように、対応する運転シーンがない場合には、一致度Mを、運転シーンを比較しないで決定できる所定値θとする。この所定値θは、たとえば、予め設定された固定値でもよいし、算出済みの一致度Mのうちの最新の値としてもよい。対応する運転シーンがない場合に、一致度Mを所定値θとすることで、対応する運転シーンがない場合に決定する一致度Mが走行能力に与える影響を小さくできる。   On the other hand, when there is no corresponding driving scene as in the scene D of FIG. 8, the matching degree M is set to a predetermined value θ that can be determined without comparing the driving scenes. This predetermined value θ may be, for example, a fixed value set in advance, or may be the latest value of the calculated matching degrees M. When there is no corresponding driving scene, the coincidence degree M is set to the predetermined value θ, so that the influence of the matching degree M determined when there is no corresponding driving scene on the driving ability can be reduced.

一致度算出部43が算出した一致度Mは、図2に示す走行能力評価部44に入力される。走行能力評価部44は、一致度Mに加えて、前方センサ10が検出した車間距離も取得する。そして、これら一致度Mと車間距離とから、本実施形態における対象車両である自車両2の走行能力を逐次評価する。以下では、走行能力を数値で表し、数値が高いほど走行能力が高いことを示すものとして説明する。なお、走行能力を表す値には上限と下限があり、その範囲を超えた値は取らないものとする。   The coincidence degree M calculated by the coincidence degree calculation unit 43 is input to the driving ability evaluation unit 44 shown in FIG. In addition to the degree of coincidence M, the travel capability evaluation unit 44 also acquires the inter-vehicle distance detected by the front sensor 10. Then, from the coincidence degree M and the inter-vehicle distance, the traveling ability of the host vehicle 2 that is the target vehicle in the present embodiment is sequentially evaluated. In the following description, the traveling ability is expressed by a numerical value, and it is assumed that the higher the numerical value is, the higher the traveling ability is. In addition, there is an upper limit and a lower limit in the value representing the driving ability, and a value exceeding the range is not taken.

図10に示すように、走行能力評価部44は、詳細構成として、走行能力記憶部441と走行能力更新部442とを備える。走行能力記憶部441は、走行能力更新部442により逐次更新される最新の走行能力を記憶する。走行能力更新部442は、一致度Mと車間距離を取得し、それら一致度Mと車間距離と、図11に示す走行能力増減表とから、走行能力の増減値を決定する。   As shown in FIG. 10, the travel capability evaluation unit 44 includes a travel capability storage unit 441 and a travel capability update unit 442 as detailed configurations. The travel capability storage unit 441 stores the latest travel capability that is sequentially updated by the travel capability update unit 442. The travel capability update unit 442 acquires the coincidence degree M and the inter-vehicle distance, and determines an increase / decrease value of the travel capability from the coincidence degree M, the inter-vehicle distance, and the travel capability increase / decrease table shown in FIG.

図11に示す走行能力増減表は予め設定されている。この走行能力増減表から定まる走行能力の増減値は、図11に示されているように、車間距離が閾値距離THd以下であれば、一致度Mによらず、車間距離が短いほど、走行能力の増減値は絶対値が大きくなっている。閾値距離THdは、後続車両があまり先行車両に追従した挙動をしなくなる距離であり、予め実験に基づいて決定されている。   The running ability increase / decrease table shown in FIG. 11 is set in advance. As shown in FIG. 11, the increase / decrease value of the travel capability determined from this travel capability increase / decrease table is as long as the inter-vehicle distance is shorter as the inter-vehicle distance is shorter than the threshold distance THd. The absolute value of the increase / decrease value of is large. The threshold distance THd is a distance at which the following vehicle does not behave so much as following the preceding vehicle, and is determined in advance based on experiments.

車間距離が短い場合には、走行能力の増減値の最大値は0であり、一致度Mが低いほど、走行能力の増減値が小さい値、すなわちマイナスの値であって絶対値が大きい値になっている。   When the inter-vehicle distance is short, the maximum value of the increase / decrease value of the driving ability is 0, and the lower the coincidence M, the smaller the increase / decrease value of the driving ability, that is, a negative value with a larger absolute value. It has become.

一致度Mが低いほど走行能力の増減値を小さい値にする理由は、次の理由からである。一致度Mは、先行車両3の運転シーンと後続車両である自車両2の運転シーンとが一致する程度を表す値である。したがって、一致度Mが低いほど、後続車両である自車両2は、先行車両3に合わせた走行ができていないことになる。そこで、一致度Mが低いほど走行能力の増減値を小さい値にしている。また、車間距離が短い場合における走行能力の増減値の最大値を0にしている理由は、一致度Mが高くても、車間距離が短すぎるのであれば、走行能力に影響を与える要素であるドライバの運転特性を高く評価することができないからである。   The reason why the increase / decrease value of the driving ability is made smaller as the matching degree M is lower is as follows. The degree of coincidence M is a value that represents the degree to which the driving scene of the preceding vehicle 3 and the driving scene of the host vehicle 2 that is the following vehicle coincide. Therefore, the lower the coincidence degree M, the more the own vehicle 2 that is the succeeding vehicle cannot travel in accordance with the preceding vehicle 3. Thus, the lower the coincidence M, the smaller the increase / decrease value of the driving ability. In addition, the reason why the maximum value of the increase / decrease value of the driving ability when the inter-vehicle distance is short is 0, even if the degree of coincidence M is high, if the inter-vehicle distance is too short, it is an element that affects the driving ability. This is because the driving characteristics of the driver cannot be highly evaluated.

同じ一致度Mで見ると、最も小さい走行能力の増減値がマイナスである場合には、車間距離が長くなるほど、走行能力の増減値は0に近くなり、最も車間距離が長い場合には、走行能力の増減値は0になる。このようになっている理由は、車間距離が長いほど、先行車両3に追従して走行する必要性が低下することから、走行能力が高くても、車間距離が長いと、運転シーンは一致しない可能性が高くなる。そこで、車間距離が長い場合、走行能力をあまり大きく更新しないようにしているのである。   Looking at the same degree of coincidence M, if the increase / decrease value of the smallest driving ability is negative, the increase / decrease value of the driving ability becomes closer to 0 as the inter-vehicle distance increases, and if the inter-vehicle distance is the longest, Increase / decrease value of ability is 0. The reason for this is that the longer the inter-vehicle distance, the lower the need to travel following the preceding vehicle 3, so even if the driving ability is high, the driving scene does not match if the inter-vehicle distance is long. The possibility increases. Therefore, when the inter-vehicle distance is long, the traveling ability is not updated so much.

車間距離が中程度である場合には、一致度Mが最も高いと、走行能力の増減値をプラスにしている。これは、車間距離が中程度であれば、車間距離が短すぎる場合と異なり、車間距離を理由としてドライバの運転特性を低く評価する必要はなく、かつ、運転シーンの一致度Mが高いのであるから、走行能力の増減値をプラスにしているのである。   When the inter-vehicle distance is medium, when the degree of coincidence M is the highest, the increase / decrease value of the driving ability is made positive. This is because, if the inter-vehicle distance is medium, unlike the case where the inter-vehicle distance is too short, it is not necessary to evaluate the driving characteristics of the driver low because of the inter-vehicle distance, and the matching degree M of the driving scene is high. Therefore, the increase / decrease value of the driving ability is made positive.

走行能力の増減値を決定したら、走行能力記憶部441から走行能力を取得し、取得した走行能力に決定した増減値を加算する。そして、走行能力記憶部441に記憶されている走行能力を、加算後の走行能力に更新する。   When the increase / decrease value of the travel capability is determined, the travel capability is acquired from the travel capability storage unit 441, and the determined increase / decrease value is added to the acquired travel capability. Then, the running ability stored in the running ability storage unit 441 is updated to the added running ability.

図2に説明を戻す。衝突予測値算出部45は、前方センサ10から自車両2と先行車両3との車間距離を逐次取得する。この車間距離の変化から、自車両2に対する先行車両3の相対速度を算出する。そして、それら先行車両3の相対速度と車間距離から、衝突する可能性を表す衝突予測値を算出する。衝突予測値として、本実施形態では、TTC(Time-To-Collision)を算出する。   Returning to FIG. The collision predicted value calculation unit 45 sequentially acquires the inter-vehicle distance between the host vehicle 2 and the preceding vehicle 3 from the front sensor 10. From the change in the inter-vehicle distance, the relative speed of the preceding vehicle 3 with respect to the host vehicle 2 is calculated. Then, a predicted collision value representing the possibility of a collision is calculated from the relative speed of the preceding vehicle 3 and the inter-vehicle distance. In the present embodiment, TTC (Time-To-Collision) is calculated as the predicted collision value.

運転支援部46は、衝突予測値算出部45が算出した衝突予測値と、走行能力評価部44が評価した最新の走行能力とに基づいて、運転支援制御を実行するか否かを決定する。運転支援制御を実行するか否かを決定するために、衝突予測値と最新の走行能力に加えて、図12に示す、走行能力と衝突予測値から運転支援を実行するか否かが定まる予め記憶された関係を用いる。図12に示す関係は、走行能力がある範囲内であると、走行能力が高くなるほど、運転支援を実行することに決定する衝突予測値が高くなる関係である。換言すれば、図12に示す関係は、走行能力がある範囲内であると、走行能力が低くなるほど、運転支援を実行することに決定する衝突予測値が低くなる関係、すなわち支援実行条件が成立しやすくなる関係である。   The driving support unit 46 determines whether or not to execute the driving support control based on the predicted collision value calculated by the predicted collision value calculation unit 45 and the latest driving capability evaluated by the driving capability evaluation unit 44. In order to determine whether or not to perform the driving support control, in addition to the predicted collision value and the latest driving capability, whether or not to perform the driving support is determined in advance from the driving capability and the predicted collision value shown in FIG. Use a stored relationship. The relationship shown in FIG. 12 is a relationship in which, when the traveling capability is within a certain range, the predicted collision value determined to execute driving assistance increases as the traveling capability increases. In other words, the relationship shown in FIG. 12 indicates that when the driving ability is within a certain range, the lower the driving ability, the lower the predicted collision value determined to execute driving assistance, that is, the assistance execution condition is satisfied. It is a relationship that makes it easier to do.

このような関係になっている理由は、走行能力が低いほど、早めに運転支援を実行しないと、衝突回避など、運転支援により達成しようとする状態を実現しにくくなるからである。また、図12のような関係になっている理由は、走行能力が高い場合には、衝突予測値を低下させる挙動を速やかに実行することができるので、不要な制御を実行させないようにするためである、と言うこともできる。   The reason for this relationship is that the lower the running ability, the more difficult it is to achieve a state to be achieved by driving assistance, such as collision avoidance, unless driving assistance is executed earlier. Further, the reason why the relationship is as shown in FIG. 12 is that when the driving ability is high, the behavior of lowering the predicted collision value can be quickly executed, so that unnecessary control is not executed. It can be said that.

[第1実施径形態の効果]
以上、説明した第1実施形態では、自車両2の運転シーンと先行車両3の運転シーンの一致度Mを算出している。自車両2の運転シーンは、自車両2の挙動に関連する値である自車両挙動値とその微分値である自車両微分値を記号化して統合したものであるから、車速および進行方向の少なくとも一方を含んだ走行状態を表している。また、先行車両3の運転シーンも、自車両2の運転シーンと同様にして認識している。よって、先行車両3の運転シーンも、車速および進行方向の少なくとも一方を含んだ走行状態を表している。加速、減速の仕方、および、ハンドル操作は、ドライバにより異なる。したがって、運転シーンにはドライバの運転特性が反映される。
[Effect of first embodiment diameter embodiment]
As described above, in the first embodiment described above, the degree of coincidence M between the driving scene of the host vehicle 2 and the driving scene of the preceding vehicle 3 is calculated. The driving scene of the host vehicle 2 is obtained by symbolizing and integrating the host vehicle behavior value that is a value related to the behavior of the host vehicle 2 and the host vehicle differential value that is a differential value thereof. The driving state including one side is shown. The driving scene of the preceding vehicle 3 is recognized in the same manner as the driving scene of the host vehicle 2. Therefore, the driving scene of the preceding vehicle 3 also represents a traveling state including at least one of the vehicle speed and the traveling direction. The method of acceleration, deceleration, and steering operation differ depending on the driver. Therefore, the driving characteristics of the driver are reflected in the driving scene.

また、車速の変化は車両の加減速性能により変化し、車両の進行方向の変化は、車両の操舵性能により変化する。これらのことから、運転シーンは、ドライバの運転特性と挙動に関する車両の特性が両方の影響を受ける。   The change in the vehicle speed changes depending on the acceleration / deceleration performance of the vehicle, and the change in the traveling direction of the vehicle changes depending on the steering performance of the vehicle. For these reasons, the driving scene is affected by both the driving characteristics of the driver and the characteristics of the vehicle related to the behavior.

この運転シーンを自車両2と先行車両3との間で比較すると、ドライバの運転能力が高い場合には、ドライバの運転能力が低い場合よりも運転シーンが一致する傾向にある。また、後続車両である自車両2の挙動に関する能力が高いほど、自車両2の運転シーンは、先行車両3に早期に追従できる可能性が高くなる。反対に、自車両2がトラックなど、自車両2の挙動に関する能力が低い場合には、自車両2の運転シーンが、先行車両3に追従するまでに時間がかかる。そのため、運転シーンの一致度Mには、ドライバの運転能力の高さと、挙動に関する車両の能力の高さとが反映される。   When this driving scene is compared between the host vehicle 2 and the preceding vehicle 3, the driving scene tends to match when the driving capability of the driver is high than when the driving capability of the driver is low. In addition, the higher the ability related to the behavior of the host vehicle 2 that is the subsequent vehicle, the higher the possibility that the driving scene of the host vehicle 2 can follow the preceding vehicle 3 at an early stage. On the contrary, when the own vehicle 2 has a low capability regarding the behavior of the own vehicle 2 such as a truck, it takes time for the driving scene of the own vehicle 2 to follow the preceding vehicle 3. Therefore, the coincidence degree M of the driving scene reflects the high driving ability of the driver and the high ability of the vehicle related to the behavior.

走行能力評価部44は、この運転シーンの一致度Mに基づいて自車両2の走行能力を評価するので、精度よく走行能力を評価できる。   Since the traveling ability evaluation unit 44 evaluates the traveling ability of the host vehicle 2 based on the degree of coincidence M of the driving scene, the traveling ability can be evaluated with high accuracy.

また、本実施形態では、図4に示すように、運転シーンをドライビングワードにより表しており、ドライビングワードは明確に切り替わりを検出することができる。これにより、一致度Mを、ドライビングワードが切り替わる時間差Δtに基づいて算出することができる。自車両2のドライバの運転能力が低い場合、先行車両3が減速してから、自車両2が減速するまでの時間が長くなる傾向にあるなど、自車両2のドライバの運転能力が低い場合、先行車両3に追従して自車両2の挙動が変化するまでの時間が長くなる傾向にある。   In the present embodiment, as shown in FIG. 4, the driving scene is represented by a driving word, and the driving word can clearly detect switching. Thereby, the coincidence degree M can be calculated based on the time difference Δt at which the driving word is switched. When the driving capability of the driver of the host vehicle 2 is low, when the driving capability of the driver of the host vehicle 2 is low, such as the time until the host vehicle 2 is decelerated after the preceding vehicle 3 is decelerated, The time until the behavior of the host vehicle 2 changes following the preceding vehicle 3 tends to increase.

また、自車両2の加減速能力が低いと、ある程度の加減速となるのに要する時間が長くなる傾向にあるなど、自車両2の挙動に関する能力が低い場合も、先行車両3に追従して自車両2の挙動が変化するまでの時間が長くなる傾向にある。   In addition, when the ability of the own vehicle 2 is low, such as when the acceleration / deceleration capability of the own vehicle 2 is low, the time required for a certain degree of acceleration / deceleration tends to increase, the vehicle 2 follows the preceding vehicle 3 as well. The time until the behavior of the host vehicle 2 changes tends to be longer.

これらのことから、時間差Δtは、走行能力をよく表すと考えることができる。この時間差Δtに基づいて一致度Mを算出している。これにより、特に走行能力を精度よく評価できる。   From these things, it can be considered that the time difference Δt well represents the running ability. The degree of coincidence M is calculated based on this time difference Δt. As a result, the running ability can be evaluated particularly accurately.

さらに、本実施形態では、一致度Mを、内容の一致度sも考慮して決定している。これにより、さらに走行能力を精度よく評価できる。   Further, in the present embodiment, the degree of coincidence M is determined in consideration of the degree of coincidence s of contents. As a result, the running ability can be further accurately evaluated.

また、本実施形態では、時間差Δtに基づいて一致度Mを算出するようになっており、かつ、運転シーンが切り替わった時刻が、後側車両である自車両2のほうが先行車両3よりも早い場合、時間差Δtを0として一致度Mを算出する。これにより、先回り運転をした自車両2の走行能力が低く評価されてしまうことを抑制できる。   In the present embodiment, the degree of coincidence M is calculated based on the time difference Δt, and the time at which the driving scene is switched is earlier in the host vehicle 2 that is the rear vehicle than in the preceding vehicle 3. In this case, the degree of coincidence M is calculated with the time difference Δt as 0. Thereby, it can suppress that the driving capability of the own vehicle 2 which carried out the advance driving | operation is evaluated low.

また、本実施形態では、対応する運転シーンがない場合には、一致度Mを、運転シーンを比較しないで決定できる所定値θとする。これにより、対応する運転シーンがない場合に決定する一致度Mが走行能力に与える影響を小さくできる。   In the present embodiment, when there is no corresponding driving scene, the coincidence degree M is set to a predetermined value θ that can be determined without comparing driving scenes. Thereby, the influence which the matching degree M determined when there is no corresponding driving scene has on the driving ability can be reduced.

また、本実施形態の運転支援部46は、図12に示したように、走行能力が低くなるほど支援実行条件が成立しやすくしていることから、走行能力に応じた適切な状況で運転支援を実行することができる。   In addition, as shown in FIG. 12, the driving support unit 46 of the present embodiment facilitates the execution of the support execution condition as the driving ability decreases, and thus provides driving assistance in an appropriate situation according to the driving ability. Can be executed.

<第2実施形態>
次に、第2実施形態を説明する。この第2実施形態以下の説明において、それまでに使用した符号と同一番号の符号を有する要素は、特に言及する場合を除き、それ以前の実施形態における同一符号の要素と同一である。また、構成の一部のみを説明している場合、構成の他の部分については先に説明した実施形態を適用できる。
Second Embodiment
Next, a second embodiment will be described. In the following description of the second embodiment, elements having the same reference numerals as those used so far are the same as elements having the same reference numerals in the previous embodiments unless otherwise specified. Further, when only a part of the configuration is described, the above-described embodiment can be applied to the other parts of the configuration.

前述した第1実施形態では、統計的に処理により区分走行状態を決定し、この区分走行状態を表したドライビング記号を、さらに統計処理して生成してしたドライビングワードを運転シーンとしていた。これに対して、第2実施形態では、図13に示す各運転シーンを設定している。具体的には、図13には、運転シーンとして、停止、加速、減速、定常走行、右左折、カーブ走行、その他が設定されている。また、図13には、各運転シーンであると認識する運転シーン条件も設定されている。なお、図13において、速度変動は、予め設定されている時間、たとえば、数秒〜10秒程度における速度変動である。   In the first embodiment described above, the segment traveling state is statistically determined by processing, and the driving word generated by further statistically processing the driving symbol representing the segment traveling state is used as the driving scene. On the other hand, in the second embodiment, each driving scene shown in FIG. 13 is set. Specifically, in FIG. 13, stop, acceleration, deceleration, steady travel, right / left turn, curve travel, and others are set as driving scenes. In FIG. 13, driving scene conditions for recognizing each driving scene are also set. In FIG. 13, the speed fluctuation is a speed fluctuation in a preset time, for example, about several seconds to 10 seconds.

第2実施形態では、自車両シーン認識部41および先行車両シーン認識部42は、図13に示す運転シーン条件が成立する場合に、対応する運転シーンであると認識する。   In 2nd Embodiment, the own vehicle scene recognition part 41 and the preceding vehicle scene recognition part 42 recognize that it is a corresponding driving scene, when the driving scene conditions shown in FIG. 13 are satisfied.

第2実施形態において一致度算出部43は、第1実施形態と同様、式1により一致度Mを算出する。ただし、内容の一致度sは、図14に示す一致度表を用いて決定する。図14の一致度表を構成する各一致度sの値は、予め決定されている。   In the second embodiment, the degree of coincidence calculation unit 43 calculates the degree of coincidence M using Equation 1 as in the first embodiment. However, the degree of coincidence s of contents is determined using the coincidence degree table shown in FIG. The value of each coincidence s constituting the coincidence table of FIG. 14 is determined in advance.

第1実施形態の運転支援部46は、図12に示す関係を用いて運転支援を実行するか否かを決定していた。これに対して、第2実施形態では、運転支援部46は、図15に示す表により、運転支援レベルを決定する。そして、決定した運転支援レベルに応じて定まる運転支援を実行する。運転支援レベルLv0は、運転支援を実行しないことを意味し、数字が大きくなるほど、高度な運転支援を実行する。たとえば、運転支援レベルLv1〜4までは報知のみであるが、段階的に、危険が高いことを意味する報知に変更する。運転支援レベルLv5では車両の挙動を自動で制御する。図15に示す表は、走行能力が低いほど、運転支援を実行する衝突予測値が低くなっている。これにより、走行能力が低いほど、早いタイミングで運転支援が実行される。   The driving support unit 46 of the first embodiment determines whether or not to perform driving support using the relationship shown in FIG. On the other hand, in 2nd Embodiment, the driving assistance part 46 determines a driving assistance level with the table | surface shown in FIG. And the driving assistance determined according to the determined driving assistance level is performed. The driving support level Lv0 means that the driving support is not executed, and the higher the number, the higher the driving support is executed. For example, the driving support levels Lv1 to Lv4 are only notifications, but are changed step by step to notifications that mean that the danger is high. At the driving support level Lv5, the behavior of the vehicle is automatically controlled. In the table shown in FIG. 15, the lower the traveling ability, the lower the predicted collision value for executing driving assistance. Thereby, driving support is performed at an early timing, so that driving ability is low.

<第3実施形態>
第3実施形態では、図14に示した一致度表に代えて、図16に示す一致度表を用いる。図16は、先行車両3の運転シーンが加速である場合における一致度sが、図14に示した一致度表によりも高くなっている。
<Third Embodiment>
In the third embodiment, the coincidence degree table shown in FIG. 16 is used instead of the coincidence degree table shown in FIG. In FIG. 16, the coincidence s when the driving scene of the preceding vehicle 3 is acceleration is higher than that in the coincidence table shown in FIG.

その結果、運転シーンとして、同じ加速と定常走行(すなわち速度維持)であっても、先行車両3が定常走行であり自車両2が加速である場合よりも、先行車両3が加速であり自車両2が定常走行である場合の一致度sの方が高くなっている。   As a result, even if the driving scene is the same acceleration and steady running (that is, speed maintenance), the preceding vehicle 3 is accelerated and the own vehicle is more accelerated than the preceding vehicle 3 is running steady and the own vehicle 2 is accelerating. The degree of coincidence s when 2 is steady running is higher.

これにより、自車両2が無理に加速する必要のない場面において、走行能力が低く評価されてしまうことを抑制できる。   Thereby, in the scene where the own vehicle 2 does not need to accelerate excessively, it can suppress that driving ability will be evaluated low.

以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、次の変形例も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施できる。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, The following modification is also contained in the technical scope of this invention, Furthermore, the summary other than the following is also included. Various modifications can be made without departing from the scope.

<変形例1>
たとえば、第1実施形態、第2実施形態では、自車両2が後続車両であって、その自車両2の走行能力を評価していた。しかし、これに限られず、自車両2が先行車両であり、自車両2の直近後続車両の走行能力を、自車両2に搭載された走行能力評価装置1が評価してもよい。この場合、直近後続車両が請求項の比較車両および対象車両になる。
<Modification 1>
For example, in the first embodiment and the second embodiment, the host vehicle 2 is a subsequent vehicle, and the traveling ability of the host vehicle 2 is evaluated. However, the present invention is not limited to this, and the host vehicle 2 may be a preceding vehicle, and the driving capability evaluation apparatus 1 mounted on the host vehicle 2 may evaluate the driving capability of the vehicle immediately following the host vehicle 2. In this case, the immediately following vehicle becomes the comparison vehicle and the target vehicle in the claims.

直近後続車両の走行能力を評価する場合、直近後続車両の挙動関連値を、その直近後続車両から通信部30により無線通信で取得する。また、自車両2の後部に、後方の車両の挙動を検出する後方センサを備え、その後方センサにより、直近後続車両の挙動関連値の一部または全部を検出してもよい。   When evaluating the driving ability of the immediately following vehicle, the behavior-related value of the immediately following vehicle is acquired from the immediately following vehicle by wireless communication by the communication unit 30. Further, a rear sensor for detecting the behavior of the rear vehicle may be provided at the rear part of the host vehicle 2, and a part or all of the behavior related values of the immediately following vehicle may be detected by the rear sensor.

なお、直近後続車両の走行能力を評価する場合、直近後続車両が別の車両に変化したら、それまで評価していた走行能力を破棄して、走行能力の評価を最初から行う。直近後続車両の走行能力は、直近後続車両に該当する具体的な車両毎に異なるからである。これに対して、自車両2が後続車両であり、自車両2の走行能力を評価する場合には、先行車両が変化しても、走行能力の評価を最初から行う必要はない。   In the case of evaluating the driving ability of the immediately following vehicle, when the immediately following vehicle changes to another vehicle, the driving ability evaluated so far is discarded and the driving ability is evaluated from the beginning. This is because the traveling ability of the nearest succeeding vehicle is different for each specific vehicle corresponding to the nearest succeeding vehicle. On the other hand, when the host vehicle 2 is a succeeding vehicle and the traveling capability of the host vehicle 2 is evaluated, it is not necessary to evaluate the traveling capability from the beginning even if the preceding vehicle changes.

<変形例2>
運転シーンを比較車両が認識して、認識した運転シーンを無線により周辺に送信するようにしてもよい。この場合、通信部30が比較車両から送信された運転シーンを受信し、先行車両シーン認識部42は、通信部30が受信した、比較車両から送信された運転シーンを取得する。
<Modification 2>
The driving scene may be recognized by the comparison vehicle, and the recognized driving scene may be transmitted to the surroundings wirelessly. In this case, the communication unit 30 receives the driving scene transmitted from the comparison vehicle, and the preceding vehicle scene recognition unit 42 acquires the driving scene transmitted from the comparison vehicle received by the communication unit 30.

<変形例3>
前術の実施形態では、一致度Mを、時間差Δtと内容の一致度sとから算出していたが、これらのうち、いずれか一方のみから一致度Mを決定してもよい。
<Modification 3>
In the previous embodiment, the degree of coincidence M is calculated from the time difference Δt and the degree of coincidence s of the contents, but the degree of coincidence M may be determined from only one of them.

<変形例4>
第2実施形態では、7種類の運転シーンが設定されていたが、減速シーンおよびその他の2種類の運転シーンのみが設定されていてもよい。また、それら2種類の運転シーンに加えて、それらとは異なる運転シーンを追加して3種類〜6種類の運転シーンが設定されていてもよい。また、8種類以上の運転シーンが設定されていてもよい。
<Modification 4>
In the second embodiment, seven types of driving scenes are set, but only a deceleration scene and other two types of driving scenes may be set. In addition to these two types of driving scenes, three to six types of driving scenes may be set by adding different driving scenes. Further, eight or more types of driving scenes may be set.

<変形例5>
第1実施形態では、各ドライビングワードを1つの運転シーンとしていたが、ドライビングワードの並び、すなわち、複数のドライビングワードを1つの運転シーンとして認識してもよい。
<Modification 5>
In the first embodiment, each driving word is set as one driving scene. However, a row of driving words, that is, a plurality of driving words may be recognized as one driving scene.

<変形例6>
第1実施形態において、図15に示す表を用いて運転支援レベルを決定してもよい。また、第2実施形態において、図11、図12に基づいて、運転支援を実行するか否かを決定してもよい。
<Modification 6>
In the first embodiment, the driving support level may be determined using the table shown in FIG. In the second embodiment, it may be determined based on FIGS. 11 and 12 whether or not driving assistance is executed.

1:走行能力評価装置 2:自車両 3:先行車両 10:前方センサ 14:単語遷移データベース 20:自車両挙動センサ 30:通信部 40:制御部 41:自車両シーン認識部 42:先行車両シーン認識部 43:一致度算出部 44:走行能力評価部 45:衝突予測値算出部 46:運転支援部 100:走行能力評価装置 110:前方センサ 120:車両挙動センサ 130:通信部 140:制御部 411:自車両微分値算出部 412:記号化部 413:記号統合部 421:先行車両微分値算出部 422:記号化部 423:記号結合部 431:運転シーン記憶部 432:検出部 433:時間差算出部 434:内容比較部 435:計算部 441:走行能力記憶部 442:走行能力更新部 1: Driving ability evaluation device 2: Own vehicle 3: Leading vehicle 10: Forward sensor 14: Word transition database 20: Own vehicle behavior sensor 30: communication unit 40: control unit 41: own vehicle scene recognition unit 42: preceding vehicle scene recognition Unit 43: coincidence calculation unit 44: driving ability evaluation unit 45: collision prediction value calculation unit 46: driving support unit 100: driving ability evaluation device 110: forward sensor 120: vehicle behavior sensor 130: communication unit 140: control unit 411: Own vehicle differential value calculation unit 412: Symbolization unit 413: Symbol integration unit 421: Preceding vehicle differential value calculation unit 422: Symbolization unit 423: Symbol combination unit 431: Driving scene storage unit 432: Detection unit 433: Time difference calculation unit 434 : Content comparison unit 435: Calculation unit 441: Running capacity storage unit 4 42: Driving ability update unit

Claims (13)

車両の走行能力を評価する走行能力評価装置であって、
前記走行能力評価装置を搭載した車両である自車両について、車速および進行方向の少なくとも一方を含んだ走行状態を表している運転シーンを認識する自車両シーン認識部(41)と、
前記自車両にとっての先行車両および直近後続車両のいずれかである比較車両の前記運転シーンを認識する比較車両シーン認識部(42)と、
前記自車両シーン認識部が認識した前記自車両の前記運転シーンと、前記比較車両シーン認識部が認識した前記比較車両の前記運転シーンとの一致度を算出する一致度算出部(43)と、
前記一致度算出部が算出した前記一致度に基づいて、前記自車両および前記比較車両のいずれかである対象車両の走行能力を逐次評価する走行能力評価部(44)と、を備える走行能力評価装置。
A driving capability evaluation device for evaluating the driving capability of a vehicle,
A host vehicle scene recognition unit (41) for recognizing a driving scene representing a driving state including at least one of a vehicle speed and a traveling direction with respect to the host vehicle, which is a vehicle equipped with the driving ability evaluation device;
A comparison vehicle scene recognition unit (42) for recognizing the driving scene of the comparison vehicle that is one of the preceding vehicle and the immediately following vehicle for the host vehicle;
A degree of coincidence calculation unit (43) for calculating a degree of coincidence between the driving scene of the host vehicle recognized by the host vehicle scene recognition unit and the driving scene of the comparison vehicle recognized by the comparison vehicle scene recognition unit;
A driving capability evaluation unit comprising a driving capability evaluation unit (44) that sequentially evaluates the driving capability of the target vehicle that is one of the host vehicle and the comparison vehicle based on the matching score calculated by the matching score calculation unit. apparatus.
請求項1において、
前記運転シーンは、複数種類の走行状態の中から定められ、
前記一致度算出部は、前記自車両の前記運転シーンが切り替わった時刻と、前記比較車両の前記運転シーンが切り替わった時刻との時間差に基づいて、前記一致度を算出する走行能力評価装置。
In claim 1,
The driving scene is determined from a plurality of types of driving states,
The coincidence calculation unit is a driving ability evaluation device that calculates the coincidence based on a time difference between a time when the driving scene of the host vehicle is switched and a time when the driving scene of the comparative vehicle is switched.
請求項1または2において、
前記運転シーンは、複数種類の走行状態の中から定められ、
前記一致度算出部は、前記自車両の前記運転シーンと、前記比較車両の前記運転シーンの内容の一致度に基づいて、前記一致度を算出する走行能力評価装置。
In claim 1 or 2,
The driving scene is determined from a plurality of types of driving states,
The degree of coincidence calculation unit is a driving ability evaluation device that calculates the degree of coincidence based on the degree of coincidence between the driving scene of the host vehicle and the content of the driving scene of the comparison vehicle.
請求項1〜3のいずれか1項において、
前記走行能力評価部は、前記自車両と前記比較車両の間の車間距離が予め設定された閾値距離以下のとき、前記車間距離が短いほど、前記一致度に基づいて前記走行能力を変更する程度を大きくする走行能力評価装置。
In any one of Claims 1-3,
When the inter-vehicle distance between the host vehicle and the comparative vehicle is equal to or less than a preset threshold distance, the travel capability evaluation unit changes the travel capability based on the degree of coincidence as the inter-vehicle distance is shorter. Driving ability evaluation device that increases
請求項2において、
前記一致度算出部は、
前記自車両シーン認識部が認識した前記自車両の前記運転シーンを逐次取得するとともに、前記比較車両シーン認識部が認識した前記比較車両の前記運転シーンを逐次取得し、前記一致度を算出していない前記運転シーン同士で前記一致度を算出するようになっており、
かつ、前記自車両および前記比較車両のうち前側を走行する車両である前側車両の前記運転シーンが切り替った時刻と、前記自車両および前記比較車両のうち後側を走行する車両である後側車両の前記運転シーンが切り替わった時刻との時間差に基づいて前記一致度を算出するようになっており、
前記運転シーンが切り替わった時刻が、前記後側車両のほうが前記前側車両よりも早い場合、前記時間差を0として前記一致度を算出することを特徴とする走行能力評価装置。
In claim 2,
The coincidence calculation unit
The driving scene of the host vehicle recognized by the host vehicle scene recognition unit is sequentially acquired, the driving scene of the comparison vehicle recognized by the comparison vehicle scene recognition unit is sequentially acquired, and the degree of coincidence is calculated. The degree of coincidence is calculated between the driving scenes that are not,
And the time when the driving scene of the front vehicle, which is a vehicle traveling on the front side of the host vehicle and the comparison vehicle, and the rear side, which is a vehicle traveling on the rear side of the host vehicle and the comparison vehicle, are The degree of coincidence is calculated based on the time difference from the time when the driving scene of the vehicle is switched,
The travel capability evaluation apparatus according to claim 1, wherein when the driving scene is switched, the time difference is set to 0 and the degree of coincidence is calculated when the rear vehicle is earlier than the front vehicle.
請求項5において、
前記一致度算出部は、
前記一致度を算出する前記前側車両の前記運転シーンが切り替わる前に、前記前側車両の前記運転シーンとの一致度を算出する前記後側車両の前記運転シーンに続く前記後側車両の前記運転シーンが切り替わった場合、
前記一致度を算出する前記前側車両の前記運転シーンが切り替わる前に切り替わり、かつ、前記前側車両の前記運転シーンとの一致度を算出していない前記後側車両の前記運転シーンについては、前記前側車両の前記運転シーンと比較することなく決定できる前記一致度とする走行能力評価装置。
In claim 5,
The coincidence calculation unit
The driving scene of the rear vehicle following the driving scene of the rear vehicle that calculates the degree of coincidence with the driving scene of the front vehicle before the driving scene of the front vehicle that calculates the degree of matching is switched. When is switched,
For the driving scene of the rear vehicle that is switched before the driving scene of the front vehicle for which the degree of coincidence is switched and that does not calculate the degree of coincidence with the driving scene of the front vehicle, the front side A travel capability evaluation device having the degree of coincidence that can be determined without comparing with the driving scene of the vehicle.
請求項1〜4のいずれか1項において、
前記一致度算出部は、
前記自車両と前記比較車両のうち前側を走行する車両である前側車両の前記運転シーンが加速に関する前記運転シーンであり、前記自車両と前記比較車両のうち後側を走行する車両である後側車両の前記運転シーンが、速度維持に関する前記運転シーンである場合の前記一致度を、
前記前側車両の前記運転シーンが速度維持に関する前記運転シーンであり、前記後側車両の前記運転シーンが加速に関する前記運転シーンである場合の前記一致度よりも高くする走行能力評価装置。
In any one of Claims 1-4,
The coincidence calculation unit
The driving scene of the front vehicle, which is a vehicle that travels in front of the host vehicle and the comparison vehicle, is the driving scene relating to acceleration, and the rear side, which is a vehicle that travels in the rear of the host vehicle and the comparison vehicle. The degree of coincidence when the driving scene of the vehicle is the driving scene related to speed maintenance,
The driving ability evaluation device that makes the degree of coincidence higher when the driving scene of the front vehicle is the driving scene related to speed maintenance and the driving scene of the rear vehicle is the driving scene related to acceleration.
請求項1〜7のいずれか1項において、
支援実行条件が成立したら、所定の運転支援制御を実行する運転支援部(46)を備え、
前記運転支援部は、前記走行能力評価部が逐次評価した前記走行能力が低いほど、前記支援実行条件を成立しやすい条件に変更する走行能力評価装置。
In any one of Claims 1-7,
When the support execution condition is satisfied, the vehicle is provided with a driving support unit (46) for executing predetermined driving support control,
The driving support unit is a driving capability evaluation device that changes the support execution condition to a condition that is more likely to be established as the driving capability evaluated sequentially by the driving capability evaluation unit is lower.
請求項1〜8のいずれか1項において、
前記自車両の挙動に関連する値である自車両挙動値を検出する自車両挙動検出部(20)と、
前記自車両挙動検出部が検出した前記自車両挙動値の微分値である自車両微分値を算出する自車両微分値算出部(411)と、
前記自車両挙動検出部が検出した前記自車両挙動値および前記自車両微分値算出部が算出した前記自車両微分値に基づいて、前記自車両の前記走行状態を、区分単位となる区分走行状態に区分けし、区分けした前記区分走行状態を対応する記号によって表すことにより自車両記号列を生成する自車両記号化部(412)と、
前記自車両記号化部が生成した前記自車両記号列を、所定の走行状態を意味するドライビングワードごとに分節化する自車両分節化部(413)とを備え、
前記自車両シーン認識部は、前記自車両分節化部が分節化した前記ドライビングワードから、前記自車両の前記運転シーンを認識する走行能力評価装置。
In any one of Claims 1-8,
A host vehicle behavior detection unit (20) for detecting a host vehicle behavior value which is a value related to the behavior of the host vehicle;
A host vehicle differential value calculation unit (411) that calculates a host vehicle differential value that is a differential value of the host vehicle behavior value detected by the host vehicle behavior detection unit;
Based on the own vehicle behavior value detected by the own vehicle behavior detection unit and the own vehicle differential value calculated by the own vehicle differential value calculation unit, the traveling state of the own vehicle is classified into divisional traveling states as a unit of division. A host vehicle symbolization unit (412) that generates a host vehicle symbol string by representing the segmented traveling state by the corresponding symbol.
A host vehicle segmentation unit (413) for segmenting the host vehicle symbol string generated by the host vehicle symbolization unit for each driving word meaning a predetermined traveling state;
The host vehicle scene recognizing unit recognizes the driving scene of the host vehicle from the driving word segmented by the host vehicle segmenting unit.
請求項9において、
前記比較車両の挙動に関連する値である比較車両挙動値を検出する比較車両挙動センサ(10)と、
前記比較車両挙動センサが検出した前記比較車両挙動値の微分値である比較車両微分値を算出する比較車両微分値算出部(421)と、
前記比較車両挙動センサが検出した前記比較車両挙動値および前記比較車両微分値算出部が算出した前記比較車両微分値に基づいて、前記比較車両の前記走行状態を前記区分走行状態に区分けし、区分けした前記区分走行状態を対応する記号によって表すことにより比較車両記号列を生成する比較車両記号列生成部(422)と、
前記比較車両記号列生成部が生成した前記比較車両記号列を前記ドライビングワードごとに分節化する比較車両分節化部(423)とを備え、
前記比較車両シーン認識部は、前記比較車両分節化部が分節化した前記ドライビングワードから、前記比較車両の前記運転シーンを認識する走行能力評価装置。
In claim 9,
A comparative vehicle behavior sensor (10) for detecting a comparative vehicle behavior value that is a value related to the behavior of the comparative vehicle;
A comparative vehicle differential value calculation unit (421) that calculates a comparative vehicle differential value that is a differential value of the comparative vehicle behavior value detected by the comparative vehicle behavior sensor;
Based on the comparative vehicle behavior value detected by the comparative vehicle behavior sensor and the comparative vehicle differential value calculated by the comparative vehicle differential value calculation unit, the traveling state of the comparative vehicle is classified into the divided traveling state and classified. A comparison vehicle symbol string generation unit (422) that generates a comparison vehicle symbol string by representing the segmented traveling state by a corresponding symbol;
A comparison vehicle segmentation unit (423) that segments the comparison vehicle symbol string generated by the comparison vehicle symbol string generation unit for each driving word;
The comparative vehicle scene recognizing unit recognizes the driving scene of the comparative vehicle from the driving word segmented by the comparative vehicle segmenting unit.
請求項9において、
前記比較車両から送信された、前記比較車両の挙動に関連する値である比較車両挙動値を受信する受信部(30)と、
前記受信部が受信した前記比較車両挙動値の微分値である比較車両微分値を算出する比較車両微分値算出部(421)と、
前記受信部が受信した前記比較車両挙動値および前記比較車両微分値算出部が算出した前記比較車両微分値に基づいて、前記比較車両の前記走行状態を前記区分走行状態に区分けし、区分けした前記区分走行状態を対応する記号によって表すことにより比較車両記号列を生成する比較車両記号列生成部(422)と、
前記比較車両記号列生成部が生成した前記比較車両記号列を前記ドライビングワードごとに分節化する比較車両分節化部(423)とを備え、
前記比較車両シーン認識部は、前記比較車両分節化部が分節化した前記ドライビングワードから、前記比較車両の前記運転シーンを認識する走行能力評価装置。
In claim 9,
A receiving unit (30) for receiving a comparative vehicle behavior value, which is a value related to the behavior of the comparative vehicle, transmitted from the comparative vehicle;
A comparative vehicle differential value calculation unit (421) that calculates a comparative vehicle differential value that is a differential value of the comparative vehicle behavior value received by the reception unit;
Based on the comparative vehicle behavior value received by the receiving unit and the comparative vehicle differential value calculated by the comparative vehicle differential value calculation unit, the traveling state of the comparative vehicle is divided into the divided traveling states, and the divided vehicle state is divided. A comparison vehicle symbol string generation unit (422) that generates a comparison vehicle symbol string by representing the segment traveling state by a corresponding symbol;
A comparison vehicle segmentation unit (423) that segments the comparison vehicle symbol string generated by the comparison vehicle symbol string generation unit for each driving word;
The comparative vehicle scene recognizing unit recognizes the driving scene of the comparative vehicle from the driving word segmented by the comparative vehicle segmenting unit.
請求項9において、
前記比較車両から送信された、前記比較車両の前記運転シーンを表す情報を受信する受信部(30)を備え、
前記比較車両シーン認識部は、前記受信部が受信した前記比較車両の前記運転シーンを表す情報から、前記比較車両の前記運転シーンを認識する走行能力評価装置。
In claim 9,
A receiving unit (30) for receiving information representing the driving scene of the comparison vehicle transmitted from the comparison vehicle;
The comparative vehicle scene recognition unit is a driving ability evaluation device that recognizes the driving scene of the comparative vehicle from information representing the driving scene of the comparative vehicle received by the receiving unit.
請求項2、5、6のいずれか1項において、
前記自車両シーン認識部は、前記自車両の前記運転シーンとして、減速シーンを含む2種類以上の前記運転シーンを認識し、
前記比較車両シーン認識部は、前記比較車両の前記運転シーンとして、前記減速シーンを含む2種類以上の前記運転シーンを認識し、
前記一致度算出部は、前記自車両シーン認識部が認識した前記自車両の前記運転シーンが、前記減速シーン以外の前記運転シーンから前記減速シーンに切り替わった時刻と、前記比較車両シーン認識部が認識した前記比較車両の前記運転シーンが、前記減速シーン以外の前記運転シーンから前記減速シーンに切り替わった時刻との時間差に基づいて、前記一致度を算出する走行能力評価装置。
In any one of Claims 2, 5, and 6,
The own vehicle scene recognition unit recognizes two or more types of the driving scene including a deceleration scene as the driving scene of the own vehicle,
The comparative vehicle scene recognition unit recognizes two or more types of the driving scenes including the deceleration scene as the driving scenes of the comparative vehicle,
The coincidence calculation unit includes a time when the driving scene of the host vehicle recognized by the host vehicle scene recognition unit is switched from the driving scene other than the deceleration scene to the deceleration scene, and the comparison vehicle scene recognition unit A driving ability evaluation device that calculates the degree of coincidence based on a time difference between the recognized driving scene of the comparative vehicle and the time when the driving scene other than the deceleration scene is switched to the deceleration scene.
JP2015236914A 2015-12-03 2015-12-03 Driving capacity evaluation device Active JP6508020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015236914A JP6508020B2 (en) 2015-12-03 2015-12-03 Driving capacity evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015236914A JP6508020B2 (en) 2015-12-03 2015-12-03 Driving capacity evaluation device

Publications (2)

Publication Number Publication Date
JP2017102795A true JP2017102795A (en) 2017-06-08
JP6508020B2 JP6508020B2 (en) 2019-05-08

Family

ID=59016542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015236914A Active JP6508020B2 (en) 2015-12-03 2015-12-03 Driving capacity evaluation device

Country Status (1)

Country Link
JP (1) JP6508020B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220089772A (en) * 2020-12-21 2022-06-29 한국전자통신연구원 Drive ability evaluated method for evaluating driving ability of driver and, human factor evaluation system for performing the method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206207A (en) * 2002-12-24 2004-07-22 Toyota Central Res & Dev Lab Inc Danger sensing degree estimation device, safe driving evaluation device, and alarm device
JP2005092285A (en) * 2003-09-12 2005-04-07 Toyota Central Res & Dev Lab Inc Vehicle driving status estimating device and driver's vehicle driving characteristic estimating device
JP2009217615A (en) * 2008-03-11 2009-09-24 Toyota Motor Corp Driving evaluation apparatus
JP2009262755A (en) * 2008-04-24 2009-11-12 Aisin Aw Co Ltd Vehicle traveling controller, vehicle traveling control method and vehicle traveling control program
JP2014031086A (en) * 2012-08-02 2014-02-20 Denso Corp Vehicle control device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206207A (en) * 2002-12-24 2004-07-22 Toyota Central Res & Dev Lab Inc Danger sensing degree estimation device, safe driving evaluation device, and alarm device
JP2005092285A (en) * 2003-09-12 2005-04-07 Toyota Central Res & Dev Lab Inc Vehicle driving status estimating device and driver's vehicle driving characteristic estimating device
JP2009217615A (en) * 2008-03-11 2009-09-24 Toyota Motor Corp Driving evaluation apparatus
JP2009262755A (en) * 2008-04-24 2009-11-12 Aisin Aw Co Ltd Vehicle traveling controller, vehicle traveling control method and vehicle traveling control program
JP2014031086A (en) * 2012-08-02 2014-02-20 Denso Corp Vehicle control device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220089772A (en) * 2020-12-21 2022-06-29 한국전자통신연구원 Drive ability evaluated method for evaluating driving ability of driver and, human factor evaluation system for performing the method
KR102615230B1 (en) 2020-12-21 2023-12-20 한국전자통신연구원 Drive ability evaluated method for evaluating driving ability of driver and, human factor evaluation system for performing the method

Also Published As

Publication number Publication date
JP6508020B2 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
JP5867296B2 (en) Driving scene recognition device
US9527384B2 (en) Driving context generation system for generating driving behavior description information
JP6742802B2 (en) Method for improving the performance of a method for predicting the future state of a target object by calculation, a driver assistance system, a vehicle equipped with such a driver assistance system, and a storage medium and program for a corresponding program
JP5580852B2 (en) Method, system, program, and vehicle for predicting movement of traffic participant
US20190031100A1 (en) Intelligent ultrasonic system and rear collision warning apparatus for vehicle
US9111400B2 (en) System for detecting abnormal driving behavior
WO2019011268A1 (en) Game theory-based driver auxiliary system decision-making method and system, and the like
EP3523749B1 (en) Object detection and classification with fourier fans
JP6206022B2 (en) Driving assistance device
US20200086868A1 (en) Apparatus and method for controlling driving of a vehicle
KR20210068993A (en) Device and method for training a classifier
US20220343637A1 (en) Traffic flow machine-learning modeling system and method applied to vehicles
JP2017010206A (en) Driving operation determination device
JP2007334554A (en) Obstacle detection device and obstacle detection method
JP2017102795A (en) Traveling capability evaluation device
US20220126818A1 (en) Systems and methods for identifying high-risk driving situations from driving data
JP2011123552A (en) Device for retrieval of similar image in driving, and program
JP6466191B2 (en) Driving support information generation device, driving support device
JP7024577B2 (en) Driving scene learning device, driving scene estimation device, and driving scene estimation system
EP4047566A1 (en) Prevention of low-speed sideswipe collisions with non-moving objects
CN113112525B (en) Target tracking method, network model, training method, training device and training medium thereof
US20220343641A1 (en) Device and method for processing data of a neural network
CN110758402A (en) Abnormality detector for vehicle control signal
US20210012121A1 (en) Information processing device, information processing method, and computer readable medium
US11443184B2 (en) Methods and systems for predicting a trajectory of a road agent based on an intermediate space

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R151 Written notification of patent or utility model registration

Ref document number: 6508020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250