JP6511982B2 - Driving operation discrimination device - Google Patents

Driving operation discrimination device Download PDF

Info

Publication number
JP6511982B2
JP6511982B2 JP2015123878A JP2015123878A JP6511982B2 JP 6511982 B2 JP6511982 B2 JP 6511982B2 JP 2015123878 A JP2015123878 A JP 2015123878A JP 2015123878 A JP2015123878 A JP 2015123878A JP 6511982 B2 JP6511982 B2 JP 6511982B2
Authority
JP
Japan
Prior art keywords
driving
driving operation
unit
data
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015123878A
Other languages
Japanese (ja)
Other versions
JP2017010206A (en
Inventor
真貴 森
真貴 森
一仁 竹中
一仁 竹中
誉司 坂東
誉司 坂東
万寿三 江川
江川  万寿三
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015123878A priority Critical patent/JP6511982B2/en
Publication of JP2017010206A publication Critical patent/JP2017010206A/en
Application granted granted Critical
Publication of JP6511982B2 publication Critical patent/JP6511982B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、運転シーンに対応した運転操作を判別する技術に関する。   The present invention relates to a technology for determining a driving operation corresponding to a driving scene.

従来、ドライバの操作や車両の挙動を検出したデータの時系列を自動で分割し、分割した区間(運転シーン)に属するデータから抽出した特徴量の分布である運転挙動分布を、事前に学習した特徴的な複数の分布の加重和で近似し、その重みをトピック割合として求め、このトピック割合を用いて、分割された各運転シーンに適合するラベルを付与する技術が知られている(特許文献1参照)。   Conventionally, a driving behavior distribution, which is a distribution of feature quantities extracted from data belonging to divided sections (driving scenes), is automatically divided in advance by automatically dividing a time series of data in which a driver's operation or vehicle behavior is detected. There is known a technique for approximating with a weighted sum of a plurality of characteristic distributions, obtaining the weight as a topic ratio, and using this topic ratio to assign a label that matches each divided driving scene (Patent Document 1).

特開2014−235605号公報JP 2014-235605 A

しかしながら、運転シーン毎に求められたトピック割合を用いてラベルを付与する従来技術では、個々の運転シーンについて理解することは可能であるが、前後のシーンと比較し、そのシーンでのみ行われる運転操作だけを抽出することができないという問題があった。   However, in the prior art in which labels are provided using topic proportions determined for each driving scene, it is possible to understand individual driving scenes, but in comparison with the preceding and following scenes, driving performed only in that scene There was a problem that only the operation could not be extracted.

例えば、カーブを曲がっている最中に車線変更をする運転シーンでは、車線変更時の運転操作に、カーブを曲がる時の運転操作が重畳されたものとなる。この場合、注目したい運転操作(車線変更時の運転操作)が複数シーンにまたがる運転操作(カーブを曲がる時の運転操作)と同時に発生するため、一つの運転シーンから得られる情報だけでは、カーブを曲がる時の運転操作によって歪められた車線変更時の運転操作を正しく判別することが困難となる。   For example, in a driving scene in which a lane is changed while turning a curve, the driving operation in turning a curve is superimposed on the driving operation in changing the lane. In this case, a driving operation to be focused on (a driving operation at the time of a lane change) occurs simultaneously with a driving operation spanning a plurality of scenes (a driving operation at the time of turning a curve). It becomes difficult to correctly determine the driving operation at the time of a lane change distorted by the driving operation at the time of turning.

本発明は、こうした問題に鑑みてなされたものであり、複雑な状況下での運転操作を精度良く判別する技術を提供することを目的とする。   The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for accurately determining driving operation under complicated conditions.

本発明の運転操作判別装置は、データ収集部と、シーン分割部と、挙動特徴量生成部と、運転特徴量生成部と、判別部とを備える。
データ収集部は、車両の挙動に関わる車両挙動データを繰り返し収集する。シーン分割部は、データ収集部にて収集された車両挙動データの系列を、各々が何等かの運転シーンを表す複数の部分系列に分割する。挙動特徴量生成部は、シーン分割部にて分割された部分系列毎に、車両挙動データの特徴を表す挙動特徴量を生成する。運転特徴量生成部は、挙動特徴量生成部で生成された前記挙動特徴量および該挙動特徴量の時系列から求めた該挙動特徴量の変化量を少なくとも含んだ運転特徴量を生成する。判別部は、運転特徴量生成部で生成された運転特徴量、および判別対象となる運転操作毎に予め用意された運転特徴量のモデルを用いて、部分系列が表す運転シーンに対応した運転操作を判別する。
A driving operation determination apparatus according to the present invention includes a data collection unit, a scene division unit, a behavior feature quantity generation unit, a driving feature quantity generation unit, and a determination unit.
The data collection unit repeatedly collects vehicle behavior data related to the behavior of the vehicle. The scene division unit divides the series of vehicle behavior data collected by the data collection section into a plurality of partial series each representing any driving scene. The behavior feature quantity generation unit generates a behavior feature quantity representing a feature of the vehicle behavior data for each of the partial sequences divided by the scene division unit. The operation feature quantity generation unit generates an operation feature quantity including at least the behavior feature quantity generated by the behavior feature quantity generation section and a change amount of the behavior feature quantity obtained from the time series of the behavior feature quantity. The determination unit uses the driving feature amount generated by the driving feature amount generation unit and the driving feature amount model prepared in advance for each driving operation to be determined, and the driving operation corresponding to the driving scene represented by the partial sequence To determine

このような構成によれば、着目する個々の運転シーンでの挙動特徴量だけでなく、挙動特徴量の時系列から求められる変化量も運転操作の判別に利用される。挙動特徴量の変化量では、複数シーンにまたがる定常的な操作の特徴が取り除かれるため、注目したい運転操作(例えば車線変更時の運転操作)が、複数シーンにまたがる運転操作(例えばカーブを曲がる時の運転操作)によって歪められても、運転シーンに対応する運転操作をより精度良く判別することができる。   According to such a configuration, not only the behavior feature amount in each driving scene to be focused on, but also the change amount obtained from the time series of the behavior feature amount is used to determine the driving operation. The change amount of the behavior feature value removes the feature of the steady operation across multiple scenes, so the driving operation to be focused on (for example, the driving operation when changing lanes) is a driving operation across multiple scenes (for example, a curve is bent) Even if the driving operation is distorted, the driving operation corresponding to the driving scene can be determined more accurately.

なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parentheses described in the claim shows correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is limited. is not.

運転支援装置の全体構成を示すブロック図である。FIG. 1 is a block diagram showing an overall configuration of a driving support device. 運転シーンの分割過程を示す説明図である。It is explanatory drawing which shows the division process of a driving | operation scene. トピック割合演算部での処理を示すフローチャートである。It is a flowchart which shows the process in a topic ratio calculating part. トピック割合の演算過程を示す説明図である。It is explanatory drawing which shows the calculation process of a topic ratio. 運転特徴量生成部での処理を示すフローチャートである。It is a flowchart which shows the process in a driving | operation feature-value production | generation part. 運転特徴量の生成過程を示す説明図である。It is explanatory drawing which shows the production | generation process of a driving | operation feature-value. 運転操作判別部での処理を示すフローチャートである。It is a flowchart which shows the process in a driving operation discrimination | determination part. 学習処理部での処理を示すフローチャートである。It is a flowchart which shows the process in a learning process part. 運転特徴量の次元選択を示す説明図である。It is explanatory drawing which shows dimension selection of a driving | operation feature-value. 運転支援提供部により提供される運転評価画面を例示する図である。It is a figure which illustrates the driving | operation evaluation screen provided by the driving assistance provision part.

以下に本発明の運転操作判別装置が適用された実施形態の運転支援装置について、図面を用いて説明する。
[1.全体構成]
運転支援装置1は、図1に示すように、車両挙動データ収集部2と、運転シーン分割部3と、トピック割合演算部4と、関連データ収集部5と、運転特徴量生成部6と、運転操作モデルデータベース7、運転操作判別部8と、モデル学習部9と、運転支援提供部10とを備える。
Hereinafter, a driving support apparatus according to an embodiment to which a driving operation determination apparatus of the present invention is applied will be described with reference to the drawings.
[1. overall structure]
As shown in FIG. 1, the driving support device 1 includes a vehicle behavior data collecting unit 2, a driving scene dividing unit 3, a topic ratio calculating unit 4, a related data collecting unit 5, and a driving feature quantity generating unit 6. A driving operation model database 7, a driving operation determination unit 8, a model learning unit 9, and a driving support providing unit 10 are provided.

なお、運転支援装置1は、一つ以上のマイクロコンピュータ(マイコン)によって実現される。各部の機能は、マイコンが備える図示しないCPUがメモリに格納された所定のプログラムを実行することにより実現され、データベースはメモリ上に実現される。つまり、CPUによって実現される各種機能やCPUが利用する情報を格納するメモリを機能ブロック毎に分けて図示したものが図1である。但し、これら機能を表す各部は必ずしもソフトウェアにて実現されている必要はなく、その全部または一部をロジック回路等のハードウェアにて実現してもよい。   The driving support device 1 is realized by one or more microcomputers (microcomputers). The function of each unit is realized by the CPU (not shown) included in the microcomputer executing a predetermined program stored in the memory, and the database is realized on the memory. That is, FIG. 1 illustrates the memory storing various functions realized by the CPU and information used by the CPU divided into functional blocks. However, the units representing these functions do not necessarily have to be realized by software, and all or part of them may be realized by hardware such as a logic circuit.

[2.車両挙動データ収集部]
車両挙動データ収集部2は、運転者による操作を表すデータや、その操作の結果として表れる車両の挙動を表すデータを車両に搭載された各種センサを介して繰り返し収集すると共に、これらのデータをそれぞれ微分した微分データ(ダイナミックフィーチャ)を生成し、これらをまとめた多次元データを、車両の挙動に関わる車両挙動データとして出力する。
[2. Vehicle Behavior Data Collection]
The vehicle behavior data collection unit 2 repeatedly collects data representing the operation by the driver and data representing the behavior of the vehicle appearing as a result of the operation through various sensors mounted on the vehicle, and also respectively collects these data. Differentiated differential data (dynamic features) are generated, and multidimensional data obtained by putting them together are output as vehicle behavior data relating to vehicle behavior.

なお、運転者による操作を表すデータとしては、例えば、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操作量(操舵角)、方向指示器の操作状態、トランスミッションのシフト位置などを用いることができる。また、車両の挙動を表すデータとしては、例えば、車両の速度、ヨーレートなどを用いることができる。   As data representing the operation by the driver, for example, the operation amount of the accelerator pedal, the operation amount of the brake pedal, the operation amount of the steering wheel (steering angle), the operation state of the direction indicator, the shift position of the transmission, etc. are used be able to. Further, as data representing the behavior of the vehicle, for example, the speed of the vehicle, a yaw rate, etc. can be used.

[3.運転シーン分割部]
運転シーン分割部3は、ドライバの環境認知から操作に至るモデルを利用して、車両挙動データ収集部2から得られる車両挙動データを統計解析し、ドライバ個人(もしくは一般のドライバ)が感じる運転シーンの切り替わり点を抽出することにより、車両挙動データの時系列を、それぞれが何等かの運転シーンを表す複数の部分系列に分節(離散化)する。具体的には、二重分節構造を利用した教師なし運転シーン分割法によって分節化を行う二重分節解析器(DAA:Double Articulation Analyzer)を利用する。
[3. Driving scene division section]
The driving scene division unit 3 statistically analyzes the vehicle behavior data obtained from the vehicle behavior data collecting unit 2 using a model from the driver's environmental awareness to the operation, and the driving scene felt by the driver individual (or a general driver) By extracting the switching points of, the time series of the vehicle behavior data is segmented (discretized) into a plurality of partial series each representing any driving scene. Specifically, a double segmentation analyzer (DAA: Double Articulation Analyzer) that performs segmentation by an unsupervised driving scene segmentation method using a double segmentation structure is used.

図2に示すように、DAAは、まず、車両挙動データの値域を表す多次元の空間で車両挙動データから把握される各種の車両の状態を表すクラスタと、各クラスタ間の遷移確率とを予め定義しておき、これらの情報を用いて、車両挙動データ収集部2から取得した車両挙動データがいずれのクラスタに属するかを統計的に処理することにより、車両挙動データの時系列を、区分単位となる車両の状態毎(つまり、クラスタ毎)に区分けする。但し、各クラスタには予め識別用の記号を対応付けておくことにより、車両挙動データの時系列は、どのクラスタに属しているかを表す記号列に変換される。この記号列の生成には、例えば、隠れ状態とその状態間の確率的遷移で表現されるモデルの一つである階層ディリクレ過程隠れマルコフモデル(HDP−HMM)を利用することができる。   As shown in FIG. 2, the DAA first makes a cluster representing various vehicle states grasped from the vehicle behavior data in a multi-dimensional space representing a range of vehicle behavior data, and a transition probability between each cluster in advance. By defining the cluster and statistically processing which cluster the vehicle behavior data acquired from the vehicle behavior data collection unit 2 belongs to by using these pieces of information, the time series of the vehicle behavior data can be divided into unit units. It divides into every state (that is, every cluster) of vehicles which become. However, by associating identification symbols with each cluster in advance, the time series of vehicle behavior data is converted into a symbol string indicating which cluster it belongs to. For generation of this symbol string, for example, a hierarchical Dirichlet process Hidden Markov Model (HDP-HMM), which is one of a hidden state and a model represented by a probabilistic transition between the states, can be used.

次に、DAAは、生成された記号列を、統計情報を利用した離散文字列の教師なしチャンク化手法の1例であるNested Pitman-Yor Language Model(NPYLM)を用いて、所定の運転シーンを意味する部分系列に分節化する。この際、辞書サイズ(即ち、部分系列の数)ができるだけ小さく、部分系列の並びからなる記号列全体の生成確率が最大となるようにする。これにより、車両挙動データの運転シーンへの分節化を行うことが可能になる。但し、部分系列間の遷移確率、および部分系列の生成確率は、学習によって予め生成されたものを使用する。   Next, DAA uses the generated string to generate a predetermined driving scene using Nested Pitman-Yor Language Model (NPYLM), which is an example of an unsupervised chunking method of discrete character strings using statistical information. Segmentation into meaningful subsequences. At this time, the dictionary size (i.e., the number of partial sequences) is as small as possible, and the generation probability of the entire symbol string consisting of the arrangement of partial sequences is maximized. This makes it possible to segment vehicle behavior data into a driving scene. However, the transition probability between partial sequences and the generation probability of partial sequences use those previously generated by learning.

なお、HDP−HMMやNPYLMを適用したDAAについては、本願出願人が別途発表した非特許文献、T.Taniguchi et al,"Semiotic Prediction of Driving Behavior using Unsupervised Double Articulation Analyzer" IEEE Intelligent Vehicles Symposium,2012、および、K.Takenaka et al," Contextual Scene Segmentation of Driving Behavior based on Double Articulation Analyzer" IEEE/RSJ International Conference on Intelligent Robots and Systems,2012、等に詳述されているため、ここでは説明を省略する。但し、記号の生成や記号の分節化に用いる手法は、HDP−HMMやNYLMに限定されるものではなく他の手法を用いてもよい。   As for DAA to which HDP-HMM and NPYLM are applied, T. Taniguchi et al, "Semiotic Prediction of Driving Behavior using Unsupervised Double Articulation Analyzer", IEEE Intelligent Vehicles Symposium, 2012, published separately by the present applicant. And K. Takenaka et al, “Contextual Scene Segmentation of Driving Behavior based on Double Articulation Analyzer”, IEEE / RSJ International Conference on Intelligent Robots and Systems, 2012, etc. However, the method used for generation of symbols and segmentation of symbols is not limited to the HDP-HMM or NYLM, and other methods may be used.

[4.トピック割合演算部]
トピック割合演算部4での処理を、図3に示すフローチャートおよび図4に示す説明図を用いて説明する。本処理は、運転シーン分割部3により生成された運転シーン毎に実行される。
[4. Topic ratio operation unit]
The processing in the topic ratio calculation unit 4 will be described using the flowchart shown in FIG. 3 and the explanatory view shown in FIG. The present process is performed for each driving scene generated by the driving scene division unit 3.

本処理が起動すると、トピック割合演算部4として機能するCPUは、まず、S110にて、着目する運転シーンに対応する部分系列に属する車両挙動データを用いて特徴量分布に相当する車両挙動ヒストグラムを生成する。   When the process starts, the CPU functioning as the topic ratio computing unit 4 first uses the vehicle behavior data belonging to the partial series corresponding to the driving scene to be focused on at S110 to use the vehicle behavior histogram corresponding to the feature quantity distribution. Generate

続くS120では、生成された車両挙動ヒストグラムを、予め用意された特徴的な複数の分布(運転トピック)の加重和によって表現することで得られるトピック割合を算出して、本処理を終了する。本実施形態では、このトピック割合が挙動特徴量に相当する。   In the following S120, the topic ratio obtained by expressing the generated vehicle behavior histogram by a weighted sum of a plurality of characteristic distributions (driving topics) prepared in advance is calculated, and the process is ended. In the present embodiment, this topic ratio corresponds to the behavior feature quantity.

車両挙動ヒストグラムは、着目する運転シーンに対応する部分系列に属する車両挙動データの特徴量を分布として表現したものである。例えば、アクセルペダル操作量、ブレーキペダル操作量、ステアリング操作量、車両速度、およびこれらの各々の微分データ等からなる多次元データを特徴量とした場合、その多次元データの値域を表す特徴空間を複数に分割したものをインデックスとして、そのインデックス毎にデータの出現頻度を表現したヒストグラムを生成する。なお、図4に示すように、個々のデータ毎にヒストグラムを生成し、生成されたヒストグラムを連結したものを、車両挙動ヒストグラムと呼んでもよい。   The vehicle behavior histogram represents, as a distribution, feature quantities of vehicle behavior data belonging to a partial series corresponding to a driving scene of interest. For example, when multi-dimensional data including an accelerator pedal operation amount, a brake pedal operation amount, a steering operation amount, a vehicle speed, differential data of each of these, etc. is used as a feature amount, a feature space representing the range of the multi-dimensional data A histogram obtained by representing the frequency of appearance of data for each index is generated by using a plurality of divisions as an index. Note that as shown in FIG. 4, a histogram may be generated for each piece of data, and a combination of the generated histograms may be referred to as a vehicle behavior histogram.

運転トピックは、S110で生成された車両挙動ヒストグラムを、複数の分布(ヒストグラム)の混合によって表現する場合の基底分布として使用するK個(例えば100個)の基底特徴分布Topic 1〜Topic Kからなる。   The driving topic consists of K (for example, 100) basis feature distributions Topic 1 to Topic K used as a basis distribution when the vehicle behavior histogram generated in S110 is represented by a mixture of a plurality of distributions (histograms) .

トピック割合は、基底特徴分布を混合することで車両挙動ヒストグラムが表現されるものとして求めた混合比であり、車両挙動ヒストグラムに対する各運転トピックの含有割合を表したものである。   The topic ratio is a mixing ratio determined as a vehicle behavior histogram represented by mixing base feature distributions, and represents the content ratio of each driving topic to the vehicle behavior histogram.

トピック割合の生成には、それぞれが運転シーンのいずれかに対応する各部分系列を「一つの文書」、観測された特徴量分布(ここでは車両挙動ヒストグラム)を「一つの単語」と見なすことで、自然言語処理分野で利用されているトピック推定手法を利用して生成する。ここでは、潜在的ディリクレ配分法(LDA:Latent Dirichlet Allocation )を利用する。なお、処理の対象となる車両挙動ヒストグラムが複数種類のヒストグラムで構成されている場合は、LDAを拡張した手法であるマルチモーダルLDAを利用する。具体的には、LDA(またはマルチモーダルLDA)を実現する変分ベイズ、ギブスサンプリングなどの近似手法を使用し、これらの処理で行うEステップおよびMステップの処理のうち、Eステップだけを実行することで求めることができる。   To generate topic proportions, consider each partial series corresponding to any of the driving scenes as “one document” and the observed feature distribution (here, the vehicle behavior histogram) as “one word”. Create using topic estimation methods used in the natural language processing field. Here, the latent Dirichlet Allocation Method (LDA: Latent Dirichlet Allocation) is used. When the vehicle behavior histogram to be processed is configured by a plurality of types of histograms, multimodal LDA, which is an extended method of LDA, is used. Specifically, using an approximation method such as variational Bayesian and Gibbs sampling to realize LDA (or multimodal LDA), only the E step is executed among the E step and M steps performed in these processes. It can be determined by

これらの手法の詳細については、例えば、D.Blei et al,"Latent Dirichlet Allocation" Journal of Machine Learning Research,2003、や、T.Griffiths & M.Steyvers,"Finding Scientific Topics," Proceedings of the National Academy of Sciences,2004などに記載されているため、ここでは説明を省略する。また、基底特徴分布の生成方法は、例えば特開2014−235605号等に記載された公知のものであるため、説明を省略する。   For details of these methods, see, for example, D. Blei et al, "Latent Dirichlet Allocation" Journal of Machine Learning Research, 2003, and T. Griffiths & M. Steyvers, "Finding Scientific Topics," Proceedings of the National Academy. Since it is described in of Sciences, 2004 etc., description is abbreviate | omitted here. In addition, since a method of generating the basis feature distribution is a known method described in, for example, Japanese Patent Application Laid-Open No. 2014-235605, the description is omitted.

[5.関連データ収集部]
関連データ収集部5は、映像データ収集部51、位置情報データ収集部52、周辺物体データ収集部53を備える。
[5. Related Data Collection Department]
The related data collection unit 5 includes a video data collection unit 51, a position information data collection unit 52, and a peripheral object data collection unit 53.

映像データ収集部51は、車両の前方、側方、後方などの車両周辺を撮影するように設置された車載カメラから出力される映像データを収集する。位置情報データ収集部52は、全地球測位システム(Global Positioning System :GPS)や慣性計測装置(Inertial Measurement Unit :IMU)によって取得される自車両の位置に関する位置情報データを収集する。周辺物体データ収集部53は、車両の前方、側方、後方などの車両周辺を探査範囲とするように設置された各種レーダセンサから出力される周辺物体データを収集する。なお、これらのデータは、例えば、インフラとの通信等によって収集したものを用いてもよい。   The video data collection unit 51 collects video data output from an on-vehicle camera installed to photograph the vehicle periphery such as the front, the side, and the rear of the vehicle. The position information data collecting unit 52 collects position information data on the position of the vehicle acquired by a global positioning system (GPS) or an inertial measurement unit (IMU). The peripheral object data collection unit 53 collects peripheral object data output from various radar sensors installed so as to set the search area to the vehicle periphery such as the front, the side, and the rear of the vehicle. In addition, for example, data collected by communication with an infrastructure may be used as these data.

[6.運転特徴量生成部]
運転特徴量生成部6での処理を、図5に示すフローチャートを用いて説明する。本処理は、トピック割合演算部4にてトピック割合が求められる毎に起動する。
[6. Operation feature generator]
The processing in the driving feature quantity generation unit 6 will be described using the flowchart shown in FIG. This process is activated each time the topic ratio is calculated by the topic ratio calculating unit 4.

本処理が起動すると、運転特徴量生成部6として機能するCPUは、まず、S210にて、トピック割合の変化量を算出する。ここでは、図6に示すように、処理対象となる運転シーンをi、1サイクル前の運転シーンをi−1、1サイクル後の運転シーンをi+1で表すものとして、運転シーンiと運転シーンi−1のトピック割合の差分である第1変化量、運転シーンi+1と運転シーンiのトピック割合の差分である第2変化量を求める。   When the present process is activated, the CPU functioning as the driving feature quantity generating unit 6 first calculates the amount of change in the topic ratio in S210. Here, as shown in FIG. 6, it is assumed that the driving scene to be processed is i, the driving scene one cycle before is i-1, and the driving scene one cycle after is i + 1, the driving scene i and the driving scene i. A first variation, which is the difference between the topic ratio of -1, and a second variation, which is the difference between the topic ratio of the driving scene i + 1 and the driving scene i, are obtained.

続くS220では、映像データ収集部51や周辺物体データ収集部53によって収集された映像データや周辺物体データに基づき、自車両の前方を走行する前方車との車間距離および相対速度を求める。   In S220, based on the video data and the peripheral object data collected by the video data collection unit 51 and the peripheral object data collection unit 53, the inter-vehicle distance and the relative speed with the preceding vehicle traveling in front of the own vehicle are obtained.

続くS230では、位置情報データ収集部52によって収集された位置情報データや、映像データ収集部51によって収集された映像データまたは図示しない車載ナビゲーション装置等から取得した地図データなどから抽出した交差点に関する情報に基づき、自車両の進行方向に存在する交差点との距離を求める。   In the subsequent S230, the information on the intersection extracted from the position information data collected by the position information data collector 52, the video data collected by the video data collector 51 or the map data acquired from the on-vehicle navigation device (not shown) Based on the above, the distance to the intersection existing in the traveling direction of the host vehicle is determined.

続くS240では、トピック割合演算部4で推定されたトピック割合、S210にて求めた第1変化量および第2変化量、S220で求めた車間距離、S230で求めた交差点との距離のそれぞれを要素として、これら各要素を結合した運転特徴量を生成して、本処理を終了する。   At S240, the topic ratio estimated by the topic ratio calculation unit 4, the first change amount and the second change amount obtained at S210, the inter-vehicle distance obtained at S220, and the distance to the intersection obtained at S230 As this, the operation feature quantity which combined these each element is generated, and this processing is ended.

[7.運転操作モデルデータベース]
運転操作モデルデータベース7は、判別対象となる運転操作毎に用意され、運転特徴量を入力すると判別対象の運転操作に該当するか否かの識別結果を出力する識別器からなる。つまり、判別対象となる運転操作を表す運転特徴量の典型値が運転操作モデルであり、識別器は、この運転操作モデルを基準として運転操作を判別する。
[7. Driving operation model database]
The driving operation model database 7 is prepared for each driving operation to be determined, and when a driving feature amount is input, the driving operation model database 7 is a discriminator that outputs an identification result as to whether the driving operation corresponds to the driving operation to be determined. That is, the typical value of the driving feature value representing the driving operation to be discriminated is the driving operation model, and the discriminator discriminates the driving operation based on the driving operation model.

具体的には、アダブースト識別器やSVM(サポートベクターマシン)等の識別器が用いられる。また、学習により得られたデータ集合に対してk近傍法(nearest neighbor)によって識別を行う識別器であってもよい。なお、k近傍法は、ある入力に対して特徴量空間内で近い点をk個選択し、選択した点が属するデータ集合に基づき、多数決により、入力した点がどのデータ集合に属するかを決定する。そして、これらの識別器は、後述するモデル学習部9によって学習されたものが用いられる。   Specifically, an identifier such as an AdaBoost identifier or an SVM (support vector machine) is used. In addition, it may be a discriminator that discriminates a data set obtained by learning according to the k-nearest neighbor method. In the k-nearest neighbor method, k points close to each other in the feature space are selected with respect to a certain input, and based on the data set to which the selected point belongs, the majority determines whether the input point belongs to which data set Do. As these classifiers, those learned by the model learning unit 9 described later are used.

なお、判別対象となる運転操作として、具体的には、例えば、直進、カーブ路走行、右折、左折、車線変更、追い越し、発進、停車等が挙げられる。
[8.運転操作判別部]
運転操作判別部8での処理を、図7に示すフローチャートを用いて説明する。本処理は、運転特徴量生成部6にて運転特徴量が生成される毎に起動する。
In addition, as driving | operation operation used as discrimination | determination object, specifically, straight running, curve road driving | running | working, right turn, left turn, lane change, passing, start, a stop etc. are mentioned.
[8. Driving operation discrimination unit]
The process in the driving operation determination unit 8 will be described with reference to the flowchart shown in FIG. The present process is activated each time a driving feature quantity is generated by the driving feature quantity generation unit 6.

本処理が起動すると、運転操作判別部8として機能するCPUは、まず、S310にて、運転操作モデルデータベース7に記憶されているモデルの一つ、即ち判別対象となる運転操作の一つを選択する。   When the present process is activated, the CPU functioning as the drive operation determination unit 8 first selects one of the models stored in the drive operation model database 7, that is, one of the drive operations to be determined in S310. Do.

続くS320では、S310にて選択されたモデルである選択モデルに、運転特徴量を適用することで、その選択モデルでのスコアを算出する。例えば、運転特徴量をx=(x,x…,x…)として、特徴量のj番目の要素xに関する判断の関数(例えば弱識別器)をh(x)、その関数の重み(信頼度)をωとして、スコアSは(1)式で求められる。なお、関数h(x)および重みωが選択モデルによって決まる。 At S320, the driving feature is applied to the selected model which is the model selected at S310 to calculate the score of the selected model. For example, assuming that the operation feature quantity is x = (x 1 , x 2 ..., X j ...), H j (x) a function (eg weak classifiers) of judgment on the j-th element x j of the feature quantity The score S is obtained by equation (1), where ω j is the weight (reliability) of The function h j (x) and the weight ω j are determined by the selection model.

続くS330では、運転操作モデルデータベース7に記憶されている全てのモデルについて、上述のS310〜S320の処理を実行済みであるか否かを判断する。未処理のモデルがあればS310に戻り、全てのモデルについて処理済みであれば、S340に進む。 In continuing S330, it is judged whether the above-mentioned processing of S310-S320 has been performed about all the models memorized by driving operation model database 7 or not. If there is an unprocessed model, the process returns to S310, and if all models have been processed, the process proceeds to S340.

S340では、S320で算出されたスコアSが最大となったモデルを特定し、その特定されたモデルに対応する運転操作を判別結果として抽出する。
続くS350では、抽出された運転操作と、判別の信頼度を表すスコアSとを対応付けて出力して、本処理を終了する。なお、スコアSは大きいほど判別の信頼度が高いものとする。
In S340, a model in which the score S calculated in S320 is maximized is identified, and a driving operation corresponding to the identified model is extracted as a discrimination result.
In the subsequent S350, the extracted driving operation and the score S representing the reliability of the determination are output in association with each other, and the present process is ended. The larger the score S is, the higher the reliability of the determination is.

[9.モデル学習部]
モデル学習部9は、運転操作記録部91、運転操作データベース92、学習処理部93を備える。
[9. Model learning section]
The model learning unit 9 includes a driving operation recording unit 91, a driving operation database 92, and a learning processing unit 93.

運転操作記録部91は、運転操作判別部8から判別結果(運転操作および判別の信頼度)が出力される毎に、判別結果と、その判別に用いた運転特徴量とを対応付けてなる運転操作データを、運転操作データベース92に記録する。   Each time the driving operation recording unit 91 outputs the judgment result (the driving operation and the reliability of the judgment) from the driving operation judging unit 8, the driving operation recording unit 91 associates the judgment result with the driving feature amount used for the judgment. The operation data is recorded in the driving operation database 92.

次に、学習処理部93での処理を、図8に示すフローチャートに沿って説明する。本処理は、一定期間(例えば、数時間、1日、1週間等)毎、または運転操作データベース92に一定量の運転操作データが蓄積される毎に起動する。   Next, processing in the learning processing unit 93 will be described along the flowchart shown in FIG. The present process is activated every predetermined period (for example, several hours, one day, one week, etc.) or every time when a certain amount of driving operation data is accumulated in the driving operation database 92.

本処理が起動すると、学習処理部93として機能するCPUは、まず、S410にて、図9に示すように、運転操作データのうち、m次元データとして表現される運転特徴量から、運転操作データモデルに使用するn次元データを選択する。但し、m,nは、m≧nとなる正整数である。具体的には、m次元の運転特徴量を主成分分析することで得られる因子負荷量が大きなものからn個のデータを選択する。また、運転操作の判別にアダブースト識別器を使用する場合は、弱識別器の採用順に従って、上位n個の弱識別器に対応するデータを選択してもよい。つまり、判別への貢献度の高い順に選択すればよい。   When the present process is activated, the CPU functioning as the learning processing unit 93 first operates the driving operation data from the driving characteristic amount expressed as m-dimensional data in the driving operation data as shown in FIG. 9 at S410. Select n-dimensional data to be used for the model. However, m and n are positive integers such that m ≧ n. Specifically, n pieces of data are selected from among data with large factor loads obtained by subjecting m-dimensional operation feature quantities to principal component analysis. When the AdaBoost discriminator is used to discriminate the driving operation, data corresponding to the top n weak discriminators may be selected in accordance with the order in which the weak discriminators are adopted. That is, the selection may be made in the order of the highest contribution to discrimination.

続くS420では、選択されたn次元の運転特徴量を学習用データとして、識別器(h(x),ω)の学習を行い、その学習結果によって運転操作モデルデータベース7に記憶されたモデルを更新して、本処理を終了する。 At S420, the selected n-dimensional driving feature amount is used as learning data to learn the classifiers (h j (x), ω j ), and the model stored in the driving operation model database 7 according to the learning result To finish this process.

[10.運転支援提供]
運転支援提供部10は、運転操作判別部8での判別結果に従って、各種運転支援を提供する。
[10. Driving support provided]
The driving support providing unit 10 provides various driving support according to the determination result of the driving operation determination unit 8.

運転支援の一つとして、例えば、判別された運転操作に従って、車両の加減速や操舵状態等、既存の運転システムの動作を制御してもよい。具体的には、車線変更タイミングを提示する運転支援システムを、車線変更完了を判別した時点で終了させることが考えられる。   As one of the driving support, for example, according to the determined driving operation, the operation of the existing driving system such as acceleration / deceleration or steering state of the vehicle may be controlled. Specifically, it is conceivable to end the driving support system presenting the lane change timing when the lane change completion is determined.

また、運転支援の一つとして、判別結果を、各種情報を表示するために車両に搭載された車載ディスプレイに表示したり、車載ディスプレイの表示内容を、判別結果に従って切り替えたりしてもよい。   Further, as one type of driving assistance, the determination result may be displayed on an on-vehicle display mounted on the vehicle to display various information, or the display content of the on-vehicle display may be switched according to the determination result.

更に、運転支援の一つとして、運転操作の判別結果と、そのとき観測された車両挙動の変化量の大きさから運転操作のスムーズさを評価したり、運転操作中の周辺車両との車間距離から周囲へ気配りができているか否かを評価したり、各運転操作にとって適切な運転挙動や車間距離を基準として運転技量を評価したりしてもよい。そして、これらの評価結果を、例えば、図10に示すような形式で、車載ディスプレイに表示する等してもよい。   Furthermore, as one of the driving support, the smoothness of the driving operation is evaluated from the result of discrimination of the driving operation and the magnitude of the change amount of the vehicle behavior observed at that time, or the inter-vehicle distance with the surrounding vehicle during the driving operation The driver's skill may be evaluated based on whether the driver's attention is given to the surroundings or the driving behavior and the distance between the vehicles appropriate for each driving operation. And these evaluation results may be displayed on a vehicle-mounted display etc., for example in a format as shown in FIG.

[11.効果]
以上説明したように、運転支援装置1では、運転操作の判別に使用する運転特徴量として、トピック割合だけでなく、トピック割合の変化量(第1変化量、第2変化量)も用いている。トピック割合の変化量は、複数シーンにまたがる定常的な運転操作の特徴が取り除かれたものとなるため、注目したい運転操作が、複数シーンにまたがる運転操作によって歪められているといった複雑な状況下でも、注目したい運転操作を精度良く判別することができる。従って、例えば、図6に示すようなカーブ路走行中の車線変更も正しく判別することができる。
[11. effect]
As described above, in the driving support device 1, not only the topic rate but also the change rate of the topic rate (the first change amount, the second change amount) is used as the driving feature amount used to determine the driving operation. . The variation of the topic ratio is the one in which the feature of steady driving operation across multiple scenes is removed, so even in a complicated situation where the driving operation to be focused on is distorted by the driving operation across multiple scenes The driving operation to which attention is paid can be accurately determined. Therefore, for example, it is possible to correctly determine the lane change while traveling on a curved road as shown in FIG.

また、運転支援装置1では、更に、映像データ、位置情報データ、周辺物体データから得られる前方車との車間距離や交差点までの距離等の情報を運転特徴量に加えている。これにより、交差点での右左折操作や前方車との車間が詰まった時の追い越し操作等、特定地点や特定状況で起こり得る各種操作の判別精度を向上させることができる。   Further, in the driving support device 1, information such as video data, position information data, an inter-vehicle distance to a preceding vehicle obtained from surrounding object data, a distance to an intersection, etc. is added to the driving feature amount. As a result, it is possible to improve the determination accuracy of various operations that may occur at specific points or specific situations, such as turning operations at intersections and overtaking operations when the distance between the vehicle and the vehicle in front is blocked.

また、運転支援装置1では、運転操作の判別に有用な特徴量を抽出して運転操作モデルを作成しているため、有用でない特徴量の影響による検出性能の低下を抑制することができると共に、モデル学習に要する処理負荷を軽減することができる。   Further, in the driving support device 1, since the feature amount useful for determining the driving operation is extracted to create the driving operation model, it is possible to suppress the decrease in detection performance due to the influence of the non-useful feature amount. The processing load required for model learning can be reduced.

なお、運転支援装置1において運転支援提供部10を除いたものが運転操作判別装置に該当する。
[12.他の実施形態]
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得る。
The driving support device 1 excluding the driving support providing unit 10 corresponds to the driving operation determination device.
[12. Other embodiments]
As mentioned above, although embodiment of this invention was described, this invention can take various forms, without being limited to the said embodiment.

(1)上記実施形態では、トピック割合の変化量として、前サイクルとの差分および後サイクルとの差分の両方を用いているが、いずれか一方だけを用いてもよい。また、過去複数サイクルに渡って得られたトピック割合の差分の時系列を用いるようにしてもよい。   (1) In the above embodiment, both the difference from the previous cycle and the difference from the last cycle are used as the change amount of the topic ratio, but only one of them may be used. Alternatively, a time series of differences in topic proportions obtained over a plurality of past cycles may be used.

(2)上記実施形態では、運転特徴量としてトピック割合やその変化量を用いているが、例えば、車両挙動データそのものやその変化量を用いてもよい。但し、トピック割合は、車両挙動データをそのまま用いる場合と比較して、抽象度が高い情報であるため、トピック割合を用いる場合の方が、運転操作を判別する際のロバスト性を向上させることができる。   (2) In the above embodiment, the topic ratio and the change amount thereof are used as the driving feature amount, but for example, the vehicle behavior data itself or the change amount thereof may be used. However, since the topic ratio is information with a high degree of abstraction compared to the case where vehicle behavior data is used as it is, using the topic ratio can improve the robustness when determining the driving operation. it can.

(3)上記実施形態では、運転シーンを分割する際に、車両挙動データ収集部2で収集される車両挙動データのみを用いているが、これに加えて、例えば、関連データ収集部5で収集される映像データ、位置情報データ、周辺物体データ等を用いてもよい。   (3) In the above embodiment, when dividing the driving scene, only the vehicle behavior data collected by the vehicle behavior data collection unit 2 is used, but in addition to this, for example, the related data collection unit 5 collects Image data, position information data, peripheral object data, etc. may be used.

(4)上記実施形態における一つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を一つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換等してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   (4) The function of one component in the above embodiment may be distributed to a plurality of components or the function of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. In addition, part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added to or replaced with the configuration of the other above-described embodiment. In addition, all the aspects contained in the technical thought specified only by the words described in the claim are an embodiment of the present invention.

(5)上述した運転操作判別装置、運転支援装置の他、当該運転操作判別装置を構成要素とするシステム、当該運転操作判別装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、運転操作判別方法など、種々の形態で実現することもできる。   (5) Other than the above-described driving operation determination device and the driving support device, a system including the driving operation determination device as a component, a program for causing a computer to function as the driving operation determination device, a medium storing the program The present invention can also be realized in various forms such as an operation determination method.

1…運転支援装置、2…車両挙動データ収集部、3…運転シーン分割部、4…トピック割合演算部、5…関連データ収集部、6…運転特徴量生成部、7…運転操作モデルデータベース、8…運転操作判別部、9…モデル学習部、10…運転支援提供部、51…映像データ収集部、52…位置情報データ収集部、53…周辺物体データ収集部、91…運転操作記録部、92…運転操作データベース、93…学習処理部   DESCRIPTION OF SYMBOLS 1 ... driving assistance device, 2 ... vehicle behavior data collection part, 3 ... driving scene division part, 4 ... topic ratio operation part, 5 ... related data collection part, 6 ... driving feature quantity generation part, 7 ... driving operation model database, 8 ... driving operation determination unit, 9 ... model learning unit, 10 ... driving support providing unit, 51 ... video data collecting unit, 52 ... position information data collecting unit, 53 ... peripheral object data collecting unit, 91 ... driving operation recording unit, 92: driving operation database, 93: learning processing unit

Claims (7)

車両の挙動に関わる車両挙動データを繰り返し収集するデータ収集部(2)と、
前記データ収集部にて収集された車両挙動データの系列を、各々が何等かの運転シーンを表す複数の部分系列に分割するシーン分割部(3)と、
前記シーン分割部にて分割された前記部分系列毎に、前記車両挙動データの特徴を表す挙動特徴量を生成する挙動特徴量生成部(4)と、
前記挙動特徴量生成部で生成された前記挙動特徴量および該挙動特徴量の時系列から求めた該挙動特徴量の変化量を少なくとも含んだ運転特徴量を生成する運転特徴量生成部(6)と、
前記運転特徴量生成部で生成された運転特徴量、および判別対象となる運転操作毎に予め用意された前記運転特徴量のモデルを用いて、前記部分系列が表す運転シーンに対応した前記運転操作を判別する判別部(7、8)と、
を備えることを特徴とする運転操作判別装置。
A data collection unit (2) that repeatedly collects vehicle behavior data related to vehicle behavior;
A scene division unit (3) for dividing the series of vehicle behavior data collected by the data collection section into a plurality of partial series each representing a driving scene of any type;
A behavior feature quantity generation unit (4) that generates a behavior feature quantity representing a feature of the vehicle behavior data for each of the partial sequences divided by the scene division unit;
An operation feature quantity generation unit (6) that generates an operation feature quantity including at least the behavior feature quantity generated by the behavior feature quantity generation unit and a change amount of the behavior feature quantity obtained from a time series of the behavior feature quantity When,
The driving operation corresponding to the driving scene represented by the partial series using the driving feature amount generated by the driving feature amount generation unit and the driving feature amount model prepared in advance for each driving operation to be discriminated A determination unit (7, 8) for determining
A driving operation determination device comprising:
前記挙動特徴量生成部は、
前記データ収集部によって収集された運転データから得られる一種類以上の特徴量について、該特徴量の値域を複数に分割したインデックス毎の出現頻度を表す特徴量分布を、前記部分系列毎に生成する分布生成部(S110)と、
前記特徴量分布を表現するための基底分布として使用される複数の基底特徴分布を運転トピックとして、前記分布生成部で生成された前記特徴量分布を、前記運転トピックを用いて表現した場合の混合比であるトピック割合を前記挙動特徴量として算出する割合演算部(S120)と、
を備えることを特徴とする請求項1に記載の運転操作判別装置。
The behavior feature quantity generation unit
For one or more types of feature quantities obtained from the operation data collected by the data collection unit, a feature quantity distribution representing an appearance frequency for each index obtained by dividing the range of the feature quantities into a plurality is generated for each of the partial series A distribution generation unit (S110),
A mixture of a plurality of basis feature distributions used as a basis distribution for expressing the feature amount distribution as a driving topic, and the feature amount distribution generated by the distribution generation unit being expressed using the driving topic A ratio calculation unit (S120) that calculates a topic ratio that is a ratio as the behavior feature value;
The driving operation determination device according to claim 1, comprising:
前記運転特徴量生成部が生成する運転特徴量には、映像データ、位置情報データ、周辺物体データのうち少なくとも一つから抽出された情報が含まれることを特徴とする請求項1または請求項2に記載の運転操作判別装置。   The driving feature quantity generated by the driving feature quantity generation unit includes information extracted from at least one of video data, position information data, and peripheral object data. The driving operation determination device according to claim 1. 前記運転特徴量生成部にて生成された運転特徴量を、前記判別部での運転操作の判別結果と対応付けた運転操作データを記録する運転操作記録部(91、92)と、
前記運転操作記録部によって記録された運転操作データに従って、前記判別部で使用する前記モデルを学習する学習処理部(93)と、
を備えることを特徴とする請求項1ないし請求項3のいずれか1項に記載の運転操作判別装置。
A driving operation recording unit (91, 92) that records driving operation data in which the driving feature amount generated by the driving feature amount generation unit is associated with the determination result of the driving operation in the determination unit;
A learning processing unit (93) for learning the model used in the determination unit according to the driving operation data recorded by the driving operation recording unit;
The driving operation determination device according to any one of claims 1 to 3, further comprising:
前記運転操作記録部によって記録される前記運転操作データには、判別の信頼度が含まれていることを特徴とする請求項4に記載の運転操作判別装置。   5. The driving operation determination apparatus according to claim 4, wherein the driving operation data recorded by the driving operation recording unit includes a reliability of determination. 前記学習処理部は、前記運転操作データを構成するm(mは正整数)個の要素のうち、判別への貢献度が高い順に選んだn(nはmより小さい正整数)個の要素からなるn次元データを用いて、前記学習を実施することを特徴とする請求項4または請求項5に記載の運転操作判別装置。   Among the m (m is a positive integer) elements constituting the driving operation data, the learning processing unit is selected from n (n is a positive integer less than m) elements selected in descending order of contribution to discrimination. The driving operation determination apparatus according to claim 4 or 5, wherein the learning is performed using n-dimensional data. 前記判別への貢献度は、前記運転操作記録部によって記録された前記運転操作データを、前記判別結果毎に主成分分析することで求められる因子負荷量の大きさ順、またはアダブースト識別器の弱識別器採用順に従って決定されることを特徴とする請求項6に記載の運転操作判別装置。   The degree of contribution to the discrimination is in order of the magnitude of the factor load amount obtained by performing principal component analysis of the driving operation data recorded by the driving operation recording unit for each of the discrimination results, or the weakness of the Adaboost discriminator The driving operation determination device according to claim 6, wherein the driving operation determination device is determined in accordance with the identifier adoption order.
JP2015123878A 2015-06-19 2015-06-19 Driving operation discrimination device Active JP6511982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015123878A JP6511982B2 (en) 2015-06-19 2015-06-19 Driving operation discrimination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015123878A JP6511982B2 (en) 2015-06-19 2015-06-19 Driving operation discrimination device

Publications (2)

Publication Number Publication Date
JP2017010206A JP2017010206A (en) 2017-01-12
JP6511982B2 true JP6511982B2 (en) 2019-05-15

Family

ID=57761683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015123878A Active JP6511982B2 (en) 2015-06-19 2015-06-19 Driving operation discrimination device

Country Status (1)

Country Link
JP (1) JP6511982B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10347122B2 (en) 2016-07-12 2019-07-09 Denson Corporation Road condition monitoring system
JP7013722B2 (en) * 2017-08-22 2022-02-01 株式会社デンソー Driving support device
KR102605595B1 (en) 2018-04-24 2023-11-23 현대자동차주식회사 Apparatus, vehicle comprising the same, and control method of the vehicle
TWI690440B (en) * 2018-10-17 2020-04-11 財團法人車輛研究測試中心 Intelligent driving method for passing intersections based on support vector machine and intelligent driving system thereof
JP7230755B2 (en) * 2019-09-26 2023-03-01 いすゞ自動車株式会社 MODEL CREATED DEVICE AND MODEL CREATED METHOD
EP3926903B1 (en) 2020-06-19 2023-07-05 Mitsubishi Electric R&D Centre Europe B.V. Optimization of a capacity of a communication channel using a dirichlet process

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3592602B2 (en) * 2000-02-21 2004-11-24 株式会社データ・テック Moving object operation management method, system and constituent devices thereof
US7389178B2 (en) * 2003-12-11 2008-06-17 Greenroad Driving Technologies Ltd. System and method for vehicle driver behavior analysis and evaluation
US20100019880A1 (en) * 2008-07-24 2010-01-28 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition based on traffic sensing
JP5750742B2 (en) * 2010-04-30 2015-07-22 国立研究開発法人産業技術総合研究所 Mobile object state estimation device
JP2014106685A (en) * 2012-11-27 2014-06-09 Osaka Univ Vehicle periphery monitoring device
JP6026959B2 (en) * 2013-06-03 2016-11-16 株式会社デンソー Driving scene label estimation device
WO2015008420A1 (en) * 2013-07-19 2015-01-22 日産自動車株式会社 Driving state estimation device
JP6206022B2 (en) * 2013-09-12 2017-10-04 株式会社デンソー Driving assistance device
JP5867524B2 (en) * 2014-02-05 2016-02-24 トヨタ自動車株式会社 Driving evaluation device, driving evaluation method, and driving support system

Also Published As

Publication number Publication date
JP2017010206A (en) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6511982B2 (en) Driving operation discrimination device
US9527384B2 (en) Driving context generation system for generating driving behavior description information
JP6026959B2 (en) Driving scene label estimation device
JP6330651B2 (en) Anomaly detection device
JP6206022B2 (en) Driving assistance device
JP5867296B2 (en) Driving scene recognition device
US11710082B2 (en) Systems and methods for utilizing machine learning and feature selection to classify driving behavior
CN112793576B (en) Lane change decision method and system based on rule and machine learning fusion
JP2009157606A (en) Driver status estimation device and program
JP2017073021A (en) Driving support device
CN104875740B (en) For managing the method for following space, main vehicle and following space management unit
JP6451583B2 (en) Driving assistance device
CN112466118A (en) Vehicle driving behavior recognition method, system, electronic device and storage medium
JP7024577B2 (en) Driving scene learning device, driving scene estimation device, and driving scene estimation system
US10415981B2 (en) Anomaly estimation apparatus and display apparatus
JP6365035B2 (en) Traffic object detection device
CN114802264A (en) Vehicle control method and device and electronic equipment
KR102570295B1 (en) Vehicle and control method thereof
JP2008102856A (en) Pattern identification device and pattern identification method
Sarker et al. DeepDMC: A traffic context independent deep driving maneuver classification framework
CN115293301B (en) Estimation method and device for lane change direction of vehicle and storage medium
JP2019207620A (en) Vehicle proposal system, driving feature generation device, and vehicle proposal device
US11900657B2 (en) System for automatic stop sign violation identification
Milardo et al. An unsupervised approach for driving behavior analysis of professional truck drivers
Chen et al. Automatic recognition of driving events based on dashcam videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190325

R151 Written notification of patent or utility model registration

Ref document number: 6511982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250