JP6206022B2 - Driving assistance device - Google Patents

Driving assistance device Download PDF

Info

Publication number
JP6206022B2
JP6206022B2 JP2013189663A JP2013189663A JP6206022B2 JP 6206022 B2 JP6206022 B2 JP 6206022B2 JP 2013189663 A JP2013189663 A JP 2013189663A JP 2013189663 A JP2013189663 A JP 2013189663A JP 6206022 B2 JP6206022 B2 JP 6206022B2
Authority
JP
Japan
Prior art keywords
driving
topic
feature
distribution
feature quantity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013189663A
Other languages
Japanese (ja)
Other versions
JP2015056058A (en
Inventor
一仁 竹中
一仁 竹中
誉司 坂東
誉司 坂東
万寿三 江川
江川  万寿三
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013189663A priority Critical patent/JP6206022B2/en
Publication of JP2015056058A publication Critical patent/JP2015056058A/en
Application granted granted Critical
Publication of JP6206022B2 publication Critical patent/JP6206022B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両の状況に応じた情報提供を行う運転支援装置に関する。   The present invention relates to a driving support device that provides information according to the situation of a host vehicle.

従来、周辺車両の速度や距離、衝突余裕時間など、自車両の状況に応じて安全に運転するための各種情報をドライバに提示することが行われている。
こういった情報を提示する技術の一つとして、自車両の後方を撮影したカメラ画像において、後方車両にモーションブラーを加えたり、各種センサでの検出結果等に基づいて設定される危険度に応じて道路に色を付けたりする等して、ドライバに提示したい情報を自然な形で可視化する技術が知られている(例えば、非特許文献1参照)。
Conventionally, various information for safely driving according to the situation of the host vehicle, such as the speed and distance of surrounding vehicles, and a margin time for collision, has been presented to the driver.
As one of the technologies for presenting such information, depending on the degree of danger set based on the detection results of various sensors, etc. For example, a technique for visualizing information desired to be presented to the driver in a natural manner by coloring the road is known (for example, see Non-Patent Document 1).

C. Roessing et al., "Intuitive Visualization of Vehicle Distance, Velocity and Risk Potential in Rear-View Camera Applications," IEEE Intelligent Vehicles Symposium, 2013C. Roessing et al., "Intuitive Visualization of Vehicle Distance, Velocity and Risk Potential in Rear-View Camera Applications," IEEE Intelligent Vehicles Symposium, 2013

従来技術は、センサ等での検出結果から把握される外部状況が、予め定義された運転シーン(例えば「信号待ち」「急停車」など)のいずれと類似しているかを判定し、その運転シーンに対して予め定義された部位に予め定義された態様で情報提示を行うものである。このため、設計者は、情報を提示したい全ての運転シーンについて、その運転シーンの判定基準を事前に明確に定義しておく必要がある。   The conventional technology determines whether the external situation grasped from the detection result of the sensor or the like is similar to a predefined driving scene (for example, “waiting for a signal”, “sudden stop”, etc.), and On the other hand, information is presented in a pre-defined manner at a pre-defined part. For this reason, the designer needs to clearly define the criteria for determining the driving scene for all driving scenes for which information is to be presented.

しかし、実際の運転シーンは極めて多様であるため、運転開始から終了までのあらゆる運転シーンを想定することは困難であり、現実的には設計者が想定可能である限られた特定の運転シーンでしか情報を提示することができないという問題があった。   However, since the actual driving scenes are extremely diverse, it is difficult to assume every driving scene from the start to the end of driving, and in reality it is limited to specific driving scenes that can be assumed by the designer. However, there was a problem that only information could be presented.

また、外部状況(例えば、車速や他車両との位置関係)が同じであっても、ドライバの運転意図(例えば、車線変更の意志の有無)によっては、ドライバの注意を喚起すべき部位は異なったものとなる。しかし、センサ等で検出される瞬時的な外部状況だけでは、このようなドライバの運転意図も含めた総合的な状況(以下「運転文脈」ともいう)の違いを識別することができない。つまり、従来技術は、運転意図を除外した特定の運転文脈しか扱うことができないという問題もあった。   Also, even if the external situation (for example, vehicle speed and positional relationship with other vehicles) is the same, depending on the driver's driving intention (for example, whether or not he intends to change lanes), the site where the driver should be alerted varies. It will be. However, the difference in the comprehensive situation (hereinafter also referred to as “driving context”) including the driving intention of the driver cannot be identified only by the instantaneous external situation detected by the sensor or the like. That is, the conventional technology has a problem that only a specific driving context excluding the driving intention can be handled.

更に、ある外部状況が検出された時に、その外部状況をとり得る複数の運転文脈のそれぞれで提示すべき情報を、全て提示することも考えられるが、その場合、情報過多になり、ドライバにどの情報が本当に必要な情報なのかを理解させることができないという問題があった。   Furthermore, when a certain external situation is detected, it may be possible to present all the information to be presented in each of a plurality of driving contexts that can take that external situation. There was a problem that it was not possible to understand whether the information was really necessary information.

本発明は、上記問題点を解決するために、運転支援装置において、ドライバの運転意図等も含めた総合的な状況に応じた情報提示を実現することを目的とする。   In order to solve the above-described problems, an object of the present invention is to realize information presentation according to a comprehensive situation including a driving intention of a driver in a driving support device.

本発明の運転支援装置は、運転挙動データ収集手段と、環境データ収集手段と、シーン分割手段と、特徴量分布生成手段と、報知手段とを備える。
運転挙動データ収集手段は、車両の運転挙動に関わる運転挙動データを繰り返し収集し、環境データ収集手段は、車両周辺の環境を表す環境データを繰り返し収集する。シーン分割手段は、運転挙動データ収集手段にて収集された運転挙動データの系列を、各々が何等かの運転シーンを表す複数の部分系列に分割する。特徴量分布生成手段は、運転挙動データ収集手段によって収集された運転挙動データから得られる一種類以上の特徴量を運転特徴量、環境データ収集手段によって収集された環境データから得られる局所的な特徴量を環境特徴量として、部分系列毎かつ特徴量毎に、該特徴量の値域を複数に分割したビンのいずれに該特徴量が所属するかのインデックス毎の出現頻度を表す特徴量分布を生成する。そして、報知手段は、特徴量分布群における運転特徴量分布と環境特徴量分布の間の共起性を利用して環境データの局所領域に関する報知を制御する。
The driving support apparatus of the present invention includes driving behavior data collecting means, environmental data collecting means, scene dividing means, feature quantity distribution generating means, and notification means.
The driving behavior data collecting means repeatedly collects driving behavior data related to the driving behavior of the vehicle, and the environmental data collecting means repeatedly collects environmental data representing the environment around the vehicle. The scene dividing means divides the series of driving behavior data collected by the driving behavior data collecting means into a plurality of partial series each representing some kind of driving scene. The feature quantity distribution generation means is a local feature obtained from the driving feature quantity and the environmental data collected by the environmental data collection means, as one or more types of feature quantity obtained from the driving behavior data collected by the driving behavior data collection means. A feature amount distribution is generated that represents the appearance frequency for each index indicating which feature value belongs to which bin the value range of the feature value is divided into a plurality of bins for each partial series and for each feature value, with the amount as an environmental feature value. To do. The notifying unit controls the notification regarding the local region of the environmental data by using the co-occurrence between the driving feature amount distribution and the environmental feature amount distribution in the feature amount distribution group.

このように構成された本発明によれば、シーン分割手段によって得られたドライバの運転意図に基づいた運転シーンごとに、運転特徴量分布と環境特徴量分布の共起性に基づいて環境データと運転挙動データとの間の関連の強さを求めるため、報知手段は運転シーンごとに適切な環境データの局所領域を設定することができる。そのため本発明によって、ドライバの運転意図等も含めた総合的な状況に応じた情報提示を実現することができる。   According to the present invention configured as described above, for each driving scene based on the driving intention of the driver obtained by the scene dividing means, the environmental data based on the co-occurrence of the driving feature quantity distribution and the environmental feature quantity distribution In order to obtain the strength of the relationship with the driving behavior data, the notification means can set an appropriate local region of environmental data for each driving scene. Therefore, according to the present invention, it is possible to realize information presentation according to a comprehensive situation including a driver's intention to drive.

なお、報知手段は、例えば、トピック記憶手段、割合演算手段、確率分布生成手段、報知制御手段によって構成することができる。この場合、部分系列毎に特徴量分布生成手段で生成される複数種類の特徴量分布を特徴量分布群として、トピック記憶手段には、特徴量分布群を表現する際の基底分布として使用される複数の運転トピックからなる運転トピック群が記憶されている。言い換えれば、運転トピックは運転特徴量と環境特徴量のそれぞれの基底分布のセットであり、部分系列毎に生成される特徴量分布群は複数の運転トピックの混合として表現される。この時、この運転トピックの混合比をトピック割合とよぶ。   Note that the notification means can be constituted by, for example, a topic storage means, a ratio calculation means, a probability distribution generation means, and a notification control means. In this case, a plurality of types of feature quantity distributions generated by the feature quantity distribution generating means for each partial series are used as a feature quantity distribution group, and the topic storage means is used as a base distribution when expressing the feature quantity distribution group. A driving topic group composed of a plurality of driving topics is stored. In other words, the driving topic is a set of base distributions of driving feature amounts and environmental feature amounts, and the feature amount distribution group generated for each partial series is expressed as a mixture of a plurality of driving topics. At this time, the mixing ratio of this driving topic is called a topic ratio.

割合演算手段は、特徴量分布群を運転トピック群によって表現した場合の混合比であるトピック割合を、部分系列毎に算出する。確率分布生成手段は、部分系列毎に、トピック割合および運転トピック群に基づいて、環境特徴量毎に、該環境特徴量を有した局所領域が、どの運転トピックに由来するかを確率的に示す割当用確率分布を生成する。報知制御手段は、環境特徴量および割当用確率分布に従って、局所領域毎に運転トピックを割り当てると共に、予め設定された提示条件を満たす運転トピックが割り当てられた局所領域に関する報知を制御する。   The ratio calculation means calculates a topic ratio, which is a mixing ratio when the feature quantity distribution group is expressed by the driving topic group, for each partial series. The probability distribution generation means probabilistically indicates to which driving topic the local region having the environmental feature amount is derived for each environmental feature amount based on the topic ratio and the driving topic group for each partial series. Generate an allocation probability distribution. The notification control means assigns a driving topic for each local region according to the environmental feature amount and the allocation probability distribution, and controls notification regarding the local region to which the driving topic satisfying a preset presentation condition is assigned.

なお、運転トピック群を構成する個々の運転トピックは、運転時に繰り返し出現する特定の状況を表しており、それぞれの部分系列における特徴量分布群は、個々の運転トピックあるいは運転トピックの組合せによって表現される。今後、それぞれの部分系列が持っている運転に関する情報を運転文脈とよぶ。すなわち本発明では、運転トピックとトピック割合によって運転文脈を表現する。   The individual driving topics that make up the driving topic group represent specific situations that repeatedly appear during driving, and the feature quantity distribution group in each subseries is expressed by individual driving topics or combinations of driving topics. The In the future, information on driving that each sub-series has will be called driving context. That is, in the present invention, the driving context is expressed by the driving topic and the topic ratio.

本発明では、運転挙動データの系列を、それぞれが何等かの運転シーンを表す部分系列に分割し、部分系列毎に、運転挙動データや環境データに基づいて生成された特徴量分布から把握される運転トピックとトピック割合という形式で運転文脈を抽出し、その抽出された運転文脈に対応づけられる局所領域を推定し、その推定された局所領域に関する報知を行っている。   In the present invention, a series of driving behavior data is divided into partial series each representing some driving scene, and each partial series is grasped from a feature amount distribution generated based on driving behavior data and environmental data. A driving context is extracted in the form of a driving topic and a topic ratio, a local area associated with the extracted driving context is estimated, and notification regarding the estimated local area is performed.

このように、本発明によれば、事前に定義された運転シーンのいずれに現在の状況が類似しているかを判定するのではなく、切り出された運転シーンがどのような運転トピックで構成されているかを解析することによって運転文脈を抽出している。このため、本発明では、従来装置とは異なり、事前に定義された限られた運転シーンに限らず、運転開始から運転終了までに出現するあらゆる運転シーンについて、運転文脈に応じた情報提供を実現することができる。   Thus, according to the present invention, instead of determining which of the predefined driving scenes the current situation is similar to, what driving topic the extracted driving scene is composed of The driving context is extracted by analyzing the situation. For this reason, in the present invention, unlike conventional devices, information provision according to the driving context is realized not only for the limited driving scenes defined in advance but also for all driving scenes that appear from the start of driving to the end of driving. can do.

なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in the claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is limited is not.

また、本発明は、前述した運転支援装置の他、運転支援装置を構成要素とする各種システム、運転支援装置を構成する各手段としてコンピュータを機能させるためのプログラム、運転支援方法など、種々の形態で実現することができる。   In addition to the above-described driving support device, the present invention includes various modes such as various systems including the driving support device, programs for causing a computer to function as each means constituting the driving support device, and a driving support method. Can be realized.

運転支援装置の全体構成図である。It is a whole block diagram of a driving assistance device. 特徴量分布を例示するヒストグラムである。It is a histogram which illustrates feature-value distribution. 潜在的ディリクレ配分法(LDA:Latent Dirichlet Allocation )で仮定されるグラフィカルモデルである。It is a graphical model assumed by Latent Dirichlet Allocation (LDA). 運転トピックの生成過程、および運転トピックを利用したトピック割合の演算過程を示す説明図である。It is explanatory drawing which shows the production | generation process of a driving | running topic, and the calculation process of the topic ratio using a driving | running topic. 運転挙動データに関する基底特徴分布を例示した説明図である。It is explanatory drawing which illustrated the base feature distribution regarding driving behavior data. (a)がトピック割合から割当用確率分布を生成する過程、(b)が割当用確率分布に従って局所領域毎に運転トピックを割り当てる過程を示す説明図である。(A) is an explanatory diagram showing a process of generating an allocation probability distribution from a topic ratio, and (b) is an explanatory diagram showing a process of allocating a driving topic for each local region according to the allocation probability distribution. 基底特徴分布における出現頻度を尤度比に変換した特徴強調分布を例示した説明図である。It is explanatory drawing which illustrated the feature emphasis distribution which converted the appearance frequency in a base feature distribution into likelihood ratio. 運転文脈に応じた強調表示を例示する図であり、強調表示の対象となる顕著トピックとして、(a)は「高ブレーキトピック」(b)は「高速走行トピック」が指定されている場合を示す。It is a figure which illustrates the emphasis display according to a driving context, (a) shows the case where "high brake topic" (b) is designated as a high-speed driving | running topic as a remarkable topic used as the object of emphasis display. . 運転文脈に応じた強調表示を例示する図であり、(a)は距離画像データを使用した場合、(b)は画像データを使用した場合を示す。It is a figure which illustrates the emphasis display according to driving context, (a) shows the case where distance image data is used, (b) shows the case where image data is used.

以下に本発明の実施形態を図面と共に説明する。
<全体構成>
運転支援装置1は、図1に示すように、運転挙動データ収集部2と、環境データ収集部9と、運転シーン離散化部3と、特徴量分布生成部4と、運転トピックデータベース5と、トピック割合演算部6と、割当用確率演算部7と、強調領域設定部8とを備えている。
Embodiments of the present invention will be described below with reference to the drawings.
<Overall configuration>
As shown in FIG. 1, the driving support device 1 includes a driving behavior data collection unit 2, an environment data collection unit 9, a driving scene discretization unit 3, a feature amount distribution generation unit 4, a driving topic database 5, A topic ratio calculation unit 6, an allocation probability calculation unit 7, and an enhancement region setting unit 8 are provided.

運転支援装置1は、マイクロコンピュータ(マイコン)によって実現され、運転トピックデータベース5を除く各部は、マイコンが備える図示しないCPUが所定のプログラムを実行することによって実現されるものである。つまり、CPUによって実現される各種機能を機能ブロック毎に分けて図示したものが図1である。但し、これら各部は必ずしもソフトウェアにて実現されている必要はなく、その全部または一部をロジック回路等のハードウェアにて実現してもよい。   The driving support device 1 is realized by a microcomputer (microcomputer), and each unit except the driving topic database 5 is realized by a CPU (not shown) included in the microcomputer executing a predetermined program. That is, FIG. 1 shows various functions realized by the CPU divided into functional blocks. However, these units do not necessarily have to be realized by software, and all or a part thereof may be realized by hardware such as a logic circuit.

<運転挙動データ収集部>
運転挙動データ収集部2は、運転者による運転操作に関する運転操作データや、その運転操作の結果として現れる車両の挙動に関する車両挙動データを、車両に搭載された各種センサを介して繰り返し収集すると共に、運転操作データや車両挙動データをそれぞれ微分した微分データ(ダイナミックフィーチャ)を生成し、これら、運転操作データ,車両挙動データ,微分データからなる多次元データを運転挙動データとして出力する。
<Driving behavior data collection unit>
The driving behavior data collection unit 2 repeatedly collects driving operation data related to driving operations by the driver and vehicle behavior data related to vehicle behavior appearing as a result of the driving operations via various sensors mounted on the vehicle, Differential data (dynamic features) obtained by differentiating driving operation data and vehicle behavior data is generated, and multidimensional data including the driving operation data, vehicle behavior data, and differential data is output as driving behavior data.

なお、運転操作データとしては、例えば、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操作量(操舵角)、方向指示器の操作状態、トランスミッションのシフト位置などを用いることができる。また、車両挙動データとしては、例えば、車両の速度、ヨーレートなどを用いることができる。以下では、これら運転挙動データを構成する個々のデータを個別データともいう。   As the driving operation data, for example, an accelerator pedal operation amount, a brake pedal operation amount, a steering wheel operation amount (steering angle), a direction indicator operation state, a transmission shift position, and the like can be used. As the vehicle behavior data, for example, vehicle speed, yaw rate, or the like can be used. Hereinafter, individual data constituting the driving behavior data is also referred to as individual data.

<環境データ収集部>
環境データ収集部9は、車両の前方、側方、後方などの車両周辺を撮影するように設置された車載カメラ11から出力される画像データを繰り返し取得して、特徴量分布生成部4に出力する。
<Environmental Data Collection Department>
The environmental data collection unit 9 repeatedly acquires image data output from the in-vehicle camera 11 installed so as to photograph the vehicle periphery such as the front, side, and rear of the vehicle, and outputs the image data to the feature amount distribution generation unit 4 To do.

<運転シーン離散化部>
運転シーン離散化部3は、ドライバの環境認知から操作に至るモデルを利用して、運転挙動データ収集部2から得られる運転挙動データを統計解析し、ドライバ個人(もしくは一般のドライバ)が感じる運転シーンの切り替わり点を抽出することにより、運転挙動データの時系列を、それぞれが何等かの運転シーンを表す複数の部分系列に分節化(離散化)する。
<Operation scene discretization unit>
The driving scene discretization unit 3 statistically analyzes the driving behavior data obtained from the driving behavior data collection unit 2 using a model from the driver's environmental recognition to the operation, and the driving felt by the individual driver (or a general driver). By extracting scene switching points, the time series of driving behavior data is segmented (discretized) into a plurality of partial series each representing some driving scene.

具体的には、二重分節構造を利用した教師なし運転シーン分割法によって分節化を行う二重分節解析器(DAA:Double Articulation Analyzer)を利用する。
DAAは、まず、運転挙動データの値域を表す多次元の空間で運転挙動データから把握される各種の車両の状態を表すクラスタと、各クラスタ間の遷移確率とを予め定義しておき、これらの情報を用いて、運転挙動データ収集部2から取得した運転挙動データがいずれのクラスタに属するかを統計的に処理することにより、運転挙動データの時系列を、区分単位となる車両の状態毎(つまり、クラスタ毎)に区分けする。但し、各クラスタには予め識別用の記号を対応づけておくことにより、運転挙動データの時系列は、どのクラスタに属しているかを表す記号列に変換される。この記号列の生成には、例えば、隠れ状態とその状態間の確率的遷移で表現されるモデルの一つである階層ディリクレ過程隠れマルコフモデル(HDP−HMM:Hierarchical Dirichlet Process Hidden Markov Model)を利用することができる。但し、HDP−HMMにおいてはクラスタ、および各クラスタ間の遷移確率は、学習によってあらかじめ生成されたものを使用する。
Specifically, a double articulation analyzer (DAA) that performs segmentation by an unsupervised driving scene division method using a double segment structure is used.
DAA first defines in advance a cluster representing various vehicle states grasped from driving behavior data in a multidimensional space representing a range of driving behavior data, and transition probabilities between the clusters. By using information to statistically determine which cluster the driving behavior data acquired from the driving behavior data collection unit 2 belongs to, the time series of the driving behavior data is obtained for each vehicle state ( That is, it is classified into each cluster). However, the time series of the driving behavior data is converted into a symbol string indicating which cluster belongs by associating each cluster with a symbol for identification in advance. For the generation of this symbol string, for example, a Hierarchical Dirichlet Process Hidden Markov Model (HDP-HMM) which is one of models expressed by a hidden state and a stochastic transition between the states is used. can do. However, in HDP-HMM, the clusters and the transition probabilities between the clusters are generated in advance by learning.

次に、DAAは、生成された記号列を、統計情報を利用した離散文字列の教師なしチャンク化手法の1例であるNested Pitman-Yor Language Model(NPYLM)を用いて、所定の運転シーンを意味する部分系列に分節化する。この際、部分系列の並びからなる記号列全体の生成確率が最大となるようにする。これにより、運転挙動データの運転シーンへの分節化を行うことが可能になる。但し、部分系列間の遷移確率、および部分系列の生成確率は、学習によって予め生成されたものを使用する。   Next, DAA uses a Nested Pitman-Yor Language Model (NPYLM), which is an example of an unsupervised chunking technique for discrete character strings using statistical information, to generate a predetermined operation scene. Segment into meaningful subsequences. At this time, the generation probability of the entire symbol string composed of the partial series is maximized. This makes it possible to segment the driving behavior data into driving scenes. However, transition probabilities between partial sequences and partial sequence generation probabilities are generated in advance by learning.

なお、HDP−HMMやNPYLMを適用したDAAについては、本願出願人が別途発表した非特許文献、T. Taniguchi et al, "Semiotic Prediction of Driving Behavior using Unsupervised Double Articulation Analyzer," IEEE Intelligent Vehicles Symposium, 2012、および、K. Takenaka et al, " Contextual Scene Segmentation of Driving Behavior based on Double Articulation Analyzer," IEEE/RSJ International Conference on Intelligent Robots and Systems, 2012、等に詳述されているため、ここでは説明を省略する。但し、記号の生成や記号の分節化に用いる手法は、HDP−HMMやNYLMに限定されるものではなく他の手法を用いてもよい。   As for DAA to which HDP-HMM and NPYLM are applied, non-patent literature, T. Taniguchi et al, "Semiotic Prediction of Driving Behavior using Unsupervised Double Articulation Analyzer," IEEE Intelligent Vehicles Symposium, 2012 , And K. Takenaka et al, “Contextual Scene Segmentation of Driving Behavior based on Double Articulation Analyzer,” IEEE / RSJ International Conference on Intelligent Robots and Systems, 2012, etc. To do. However, the method used for symbol generation and symbol segmentation is not limited to HDP-HMM or NYLM, and other methods may be used.

<特徴量分布生成部>
特徴量分布生成部4は、運転特徴算出部41と、画像特徴算出部42とを備えている。
運転特徴算出部41は、運転挙動データ収集部2から出力される時系列の運転挙動データに基づき、運転シーン離散化部3で分節化された部分系列(すなわち、何等かの運転シーン)毎に、その部分系列中に現れる特徴量の分布を生成する。
<Feature distribution generation unit>
The feature quantity distribution generation unit 4 includes a driving feature calculation unit 41 and an image feature calculation unit 42.
The driving feature calculation unit 41 is based on the time-series driving behavior data output from the driving behavior data collection unit 2 for each partial series (that is, any driving scene) segmented by the driving scene discretization unit 3. Then, a distribution of feature quantities appearing in the partial series is generated.

本実施形態では、運転挙動データを構成する8種類の個別データ(アクセルペダルの操作量(accel)、ブレーキペダルの操作量(brake)、ステアリングの操作量(steering)、車速(velocity)、およびそれらの微分データΔaccel、Δbrake、Δsteering、Δvelocity)のそれぞれを特徴量として、特徴量分布を生成する。   In the present embodiment, eight types of individual data constituting the driving behavior data (accelerator operation amount (accel), brake pedal operation amount (brake), steering operation amount (steering), vehicle speed (velocity), and these Of the differential data Δaccel, Δbrake, Δsteering, Δvelocity) is generated as a feature amount.

特徴量分布は、図2に示すように、特徴量の値域を表す特徴空間を複数に分割(図では特徴量の最小値〜最大値を20等分)したものをビンとして、そのビンのインデックス毎に、特徴量の出現頻度を表現したヒストグラムからなる。図において(a)は車速V、(b)は車速の微分値(加速度)ΔVの特徴量分布を例示したものである。   As shown in FIG. 2, the feature quantity distribution is obtained by dividing a feature space representing a value range of the feature quantity into a plurality of parts (in the figure, the minimum value to the maximum value of the feature quantity are divided into 20 equal parts), and bin indexes. Each is composed of a histogram expressing the appearance frequency of the feature amount. In the figure, (a) shows the vehicle speed V, and (b) shows the characteristic amount distribution of the differential value (acceleration) ΔV of the vehicle speed.

画像特徴算出部42は、環境データ収集部9から供給される画像データを、運転シーン離散化部3で分節化された部分系列に従って分節化し、その画像データの部分系列中に現れる特徴量の分布を生成する。ここでは、入力画像を所定サイズ(例えば、320×240ピクセル)に圧縮し、その圧縮画像データを、一定間隔(例えば、5ピクセル)毎に所定サイズ(例えば、24×24ピクセル)を有する複数(ここでは3072点)の局所領域を設定し、その局所領域毎に求めたSIFT(Scale-Invariant Feature Transform )特徴量を、特徴量分布の生成対象としている。特徴量分布のインデックスは予め学習によって決定したものを利用する。例えば、SIFT特徴量の値域を表す特徴空間を、k-means 等のクラスタリング手法を用いてクラスタリングし、その結果として得られた各クラスタを特徴量分布のインデックスとして使用する。但し、画像データから分布を生成する特徴量はSIFT特徴量に限定されるものではなく他の局所特徴量抽出手法を用いてもよい。   The image feature calculation unit 42 segments the image data supplied from the environment data collection unit 9 according to the partial series segmented by the driving scene discretization unit 3, and the distribution of the feature amount appearing in the partial series of the image data Is generated. Here, the input image is compressed to a predetermined size (for example, 320 × 240 pixels), and the compressed image data is compressed into a plurality (for example, 24 × 24 pixels) having a predetermined size (for example, 24 × 24 pixels) at regular intervals (for example, 5 pixels). Here, 3072 points) local regions are set, and SIFT (Scale-Invariant Feature Transform) feature values obtained for the respective local regions are set as feature amount distribution generation targets. The index of the feature quantity distribution is determined in advance by learning. For example, the feature space representing the SIFT feature value range is clustered using a clustering technique such as k-means, and each cluster obtained as a result is used as an index of the feature value distribution. However, the feature quantity for generating the distribution from the image data is not limited to the SIFT feature quantity, and other local feature quantity extraction methods may be used.

以下では、運転特徴算出部41が生成する特徴量分布を運転特徴量分布、画像特徴算出部が生成する特徴量分布を画像特徴量分布とも呼ぶ。つまり、特徴量分布生成部4は、それぞれが運転シーンに対応する部分系列毎に、個別データ毎(ここでは8個)の運転特徴量分布と1個の画像特徴量分布からなる特徴量分布群を生成し、画像特徴量分布の生成に用いた画像特徴量(SIFT特徴量)と共にして後段に出力する。   Hereinafter, the feature quantity distribution generated by the driving feature calculation unit 41 is also called a driving feature quantity distribution, and the feature quantity distribution generated by the image feature calculation unit is also called an image feature quantity distribution. That is, the feature quantity distribution generation unit 4 is a feature quantity distribution group including a driving feature quantity distribution for each individual data (here, 8 pieces) and one image feature quantity distribution for each partial series corresponding to the driving scene. Are output together with the image feature amount (SIFT feature amount) used to generate the image feature amount distribution.

<運転トピックデータベース>
運転トピックデータベース5には、特徴量分布生成部4で生成される特徴量分布群を、複数の分布の混合によって表現する場合に基底として使用される複数(例えば100個)の運転トピックが予め格納されている。
<Operation topic database>
The driving topic database 5 stores in advance a plurality (for example, 100) of driving topics used as a basis when the feature amount distribution group generated by the feature amount distribution generation unit 4 is expressed by a mixture of a plurality of distributions. Has been.

ここで運転トピックの生成方法について説明する。
運転トピックの生成には、それぞれが運転シーンのいずれかに対応する各部分系列を「一つの文書」、観測された特徴(運転特徴量やSIFT特徴量など)を「一つの単語」と見なすことで、自然言語処理分野で利用されているトピック推定手法を利用する。
Here, a method for generating a driving topic will be described.
For the generation of driving topics, each partial series corresponding to one of the driving scenes is regarded as “one document”, and observed features (such as driving feature amounts and SIFT feature amounts) are regarded as “one word”. Then, the topic estimation method used in the natural language processing field is used.

特に、ここでは、運転挙動データ(運転特徴量分布)、画像データ(画像特徴量分布)からなる複数のモダリティに跨る運転トピックを推定するため、潜在的ディリクレ配分法(LDA:Latent Dirichlet Allocation )を拡張した手法であるマルチモーダルLDAを利用する。   In particular, in order to estimate driving topics across multiple modalities consisting of driving behavior data (driving feature quantity distribution) and image data (image feature quantity distribution), Latent Dirichlet Allocation (LDA) is used. A multimodal LDA, which is an extended method, is used.

LDAでは、図3に示すようなグラフィカルモデルを仮定する。但し、Dがシーン総数、Mdがd番目のシーンでのフレーム総数、Kがトピック総数、wd,m がd番目のシーンのmフレームで観測された特徴(すなわち運転特徴量)、zd,m が特徴wd,mに対して割り当てられるトピックを指示するトピック指示変数(1〜Kの自然数をとる)、θがd番目のシーンに含まれるトピックの割合を示す多項分布パラメータ、φはk番目のトピックから各特徴量が生成される割合を示す多項分布パラメータ、α,βはそれぞれθ、φのパラメータである。また、θ,φ、zd,md,m は、Dirをディリクレ分布、Multを多項分布として、(1)〜(4)式で定義される。 In LDA, a graphical model as shown in FIG. 3 is assumed. However, D is the total number of scenes, Md is the total number of frames in the d-th scene, K is the total number of topics, w d, m are the features observed in the m-th frame of the d-th scene (ie, driving feature amounts), z d, m feature w d, (taking natural number 1 to k) topic instruction variable that instructs the topics assigned to m, multinomial distribution parameter indicating the percentage of topics theta d is included in the d-th scene, phi k Is a multinomial distribution parameter indicating the rate at which each feature quantity is generated from the kth topic, and α and β are parameters of θ and φ, respectively. Further, θ d , φ k , z d, m w d, m are defined by the equations (1) to (4), where Dir is a Dirichlet distribution and Multi is a multinomial distribution.

このモデルを利用してθ、φを推定することになるが、これらの推定には変分ベイズ、ギブスサンプリングなどの近似手法を使用することができる。これらの手法の詳細については、例えば、D. Blei et al, "Latent Dirichlet Allocation," Journal of Machine Learning Research, 2003、や、T. Griffiths & M. Steyvers, "Finding Scientific Topics," Proceedings of the National Academy of Sciences,2004などに記載されているため、ここでは説明を省略する。またマルチモーダルLDAへの拡張についても、T. Nakamura, et al, "Grounding of word meanings in multimodal concepts using LDA," IEEE/RSJ International Conference on Intelligent Robots and Systems, 2009などに記載されているため、ここでは説明を省略する。 Θ and φ are estimated using this model, and approximation methods such as variational Bayes and Gibbs sampling can be used for these estimations. For details on these methods, see, for example, D. Blei et al, "Latent Dirichlet Allocation," Journal of Machine Learning Research, 2003, and T. Griffiths & M. Steyvers, "Finding Scientific Topics," Proceedings of the National Since it is described in Academy of Sciences, 2004, etc., explanation is omitted here. The extension to multimodal LDA is also described in T. Nakamura, et al, "Grounding of word meanings in multimodal concepts using LDA," IEEE / RSJ International Conference on Intelligent Robots and Systems, 2009, etc. Then, explanation is omitted.

但し、運転トピックの生成時に使用する学習用の特徴量分布(運転特徴量分布、画像特徴量分布)は、例えば、次のようにして生成されたものを使用する。
まず、実際に車両を走行させて、車載カメラ11にて学習用画像の撮影を行うと共に、運転挙動データ収集部2、運転シーン離散化部3、特徴量分布生成部4を作動させることで、学習用画像に対応した学習用の特徴量分布を生成する。次に、生成された学習用の特徴量分布を用いてマルチモーダルLDAにより、基底となる分布を推定した結果が運転トピックとなる。
However, the learning feature amount distribution (driving feature amount distribution, image feature amount distribution) used when generating the driving topic is, for example, generated as follows.
First, by actually running the vehicle and taking an image for learning with the in-vehicle camera 11, by operating the driving behavior data collection unit 2, the driving scene discretization unit 3, and the feature amount distribution generation unit 4, A learning feature amount distribution corresponding to the learning image is generated. Next, a result obtained by estimating a distribution serving as a basis by multimodal LDA using the generated feature distribution for learning is a driving topic.

なお、運転トピックは、図4に示すように、個々の個別データ(運転特徴量分布)にそれぞれ対応した複数の運転基底分布と、画像データ(画像特徴量分布)に対応した画像基底分布とによって構成されている。以下では、運転基定分布および画像基底分布を区別しない場合は、これらを総称して基底特徴分布ともいう。   In addition, as shown in FIG. 4, the driving topic includes a plurality of driving base distributions corresponding to individual individual data (driving feature amount distribution) and an image base distribution corresponding to image data (image feature amount distribution). It is configured. Hereinafter, when the driving preference distribution and the image base distribution are not distinguished, they are collectively referred to as a base feature distribution.

図5は、生成された運転トピックのうち、5種類の運転トピックTP1〜TP5について、運転基底分布を例示したものである。特徴量のインデックス毎の出現頻度をトーンで表しており、トーンが白いほど出現頻度が高いことを意味する。   FIG. 5 illustrates the driving base distribution for five driving topics TP1 to TP5 among the generated driving topics. The appearance frequency for each feature index is represented by a tone, and the whiter the tone, the higher the appearance frequency.

このようにして生成された運転基底分布によって構成される各運転トピックは、それぞれが運転時に繰り返し出現する特定の状況を表している。例えば、運転トピックTP1は、他の運転トピックと比較して、低速域でステアリング操作を頻繁に行う状況において出現するものである。そして、これら個々の運転トピックあるいは運転トピックの組合せによって、何等かの運転文脈が表現される。   Each driving topic constituted by the driving base distribution generated in this way represents a specific situation that repeatedly appears during driving. For example, the driving topic TP1 appears in a situation where the steering operation is frequently performed in a low speed region as compared with other driving topics. Then, some driving context is expressed by these individual driving topics or combinations of driving topics.

<トピック割合演算部>
トピック割合演算部6では、特徴量分布生成部4から出力される特徴量分布が、運転トピックデータベース5に格納された運転トピック群を混合することで表現されるものとして、その混合比であるトピック割合(各運転トピックの含有割合)を算出する(図4参照)。なお、トピック割合は、具体的には、マルチモーダルLDAの推定を実現するEステップおよびMステップの処理のうち、Eステップだけを実行することで求めることができる。
<Topic ratio calculation unit>
In the topic ratio calculation unit 6, the feature amount distribution output from the feature amount distribution generation unit 4 is expressed by mixing the driving topic group stored in the driving topic database 5. The ratio (content ratio of each driving topic) is calculated (see FIG. 4). Note that the topic ratio can be obtained by executing only the E step among the processes of the E step and the M step that realize the estimation of the multimodal LDA.

<割当用確率演算部>
割当用確率演算部7では、図6(a)に示すように、トピック割合演算部6で求められたトピック割合と、運転トピックデータベース5に格納された運転トピックの一部である画像基底分布とに基づき、割当用確率分布を求める。
<Probability calculation unit for allocation>
In the allocation probability calculation unit 7, as shown in FIG. 6A, the topic ratio obtained by the topic ratio calculation unit 6 and the image base distribution that is a part of the driving topic stored in the driving topic database 5 Based on the above, an allocation probability distribution is obtained.

具体的には、TPを識別子kで識別される運転トピック、wを識別子iで識別される画像特徴量分布/画像基底分布のビンに所属する画像特徴量、φkiを運転トピックTPの画像基底分布を表す多項分布のi成分、Kをトピックの総数、θをトピック割合における運転トピックTPの比率として、画像特徴量wを有した画像上の領域が、運転トピックTPに由来する確率Pikを、(5)式に従って算出する。 Specifically, TP k is the driving topic identified by the identifier k, w i is the image feature amount belonging to the bin of the image feature amount distribution / image base distribution identified by the identifier i, and φ ki is the driving topic TP k. The region on the image having the image feature value w i is the driving topic TP k , where the i component of the multinomial distribution representing the image base distribution of k , k is the total number of topics, and θ k is the ratio of the driving topic TP k in the topic ratio. The probability P ik derived from is calculated according to the equation (5).

これにより、画像特徴量分布/画像基底分布のインデックス毎に、インデックスBINに属する画像特徴量を有する局所領域が、どの運転トピックに由来するかを表す割当用確率分布P={Pi1,Pi2,…PiK}が求められる。但し、図中の確率分布は、確率分布の合計が1となるように正規化する前の値(すなわち、(5)式の分子のみを演算した結果)を示したものである。 Thus, for each index of the image feature amount distribution / image base distribution, the allocation probability distribution P i = {P i1 , which indicates which driving topic the local region having the image feature amount belonging to the index BIN i is derived from. P i2 ,... P iK } is determined. However, the probability distribution in the figure shows a value before normalization (that is, the result of calculating only the numerator of the equation (5)) so that the sum of the probability distributions becomes 1.

<強調領域設定部>
強調領域設定部8では、図6(b)に示すように、画像特徴算出部42で局所領域毎に算出された特徴量に基づき、その特徴量が属するインデックスの割当用確率分布(割当用確率演算部7での演算結果)に従って、その特徴量が算出された局所領域(画像上の領域)に、確率的に運転トピックを割り当てる。但し、割り当ての方法は確率的に割り当てなくてもよく、例えば割当用確率に従って最大の確率をもつ運転トピックを割り当ててもよい。
<Emphasis area setting section>
As shown in FIG. 6B, the enhancement region setting unit 8 uses the feature amount calculated for each local region by the image feature calculation unit 42 to assign an allocation probability distribution (assignment probability) to which the feature amount belongs. According to the calculation result of the calculation unit 7, a driving topic is probabilistically assigned to the local region (region on the image) for which the feature amount is calculated. However, the assignment method may not be assigned probabilistically. For example, the driving topic having the maximum probability may be assigned according to the assignment probability.

更に、運転トピックのうち、所定の提示条件を満たすものを顕著トピックとして、顕著トピックが割り当てられた画像上の領域を、その顕著トピックに予め対応づけられた態様(色,ハッチングパタン等)で強調表示するための強調表示データを生成する。ここでは、顕著トピックとして予め指定されていることを提示条件とする。また、強調表示の態様は、顕著トピック毎に予め定義されているものとする。   Further, among driving topics, those satisfying a predetermined presentation condition are regarded as salient topics, and an area on the image to which the salient topic is assigned is emphasized in a form (color, hatching pattern, etc.) previously associated with the salient topic. Generate highlighted data for display. Here, the presentation condition is that the topic is designated as a salient topic in advance. Further, it is assumed that the highlighting mode is defined in advance for each remarkable topic.

そして、強調領域設定部8は、生成した強調表示データを、車載カメラ11から供給される画像データに基づく画像表示を行う表示装置12に出力する。なお、表示装置12は、強調表示データに従って、画像データに基づく画像を強調表示する。   Then, the highlight region setting unit 8 outputs the generated highlight display data to the display device 12 that performs image display based on the image data supplied from the in-vehicle camera 11. The display device 12 highlights an image based on the image data according to the highlight display data.

ここで、顕著トピックに指定する運転トピックの抽出方法について説明する。
まず、各運転トピックを構成する運転基底分布(図5参照)を用いて、各運転トピックに特有な特徴を抽出する。その抽出には尤度比を利用する。具体的には、wをjで識別されるビンに所属する運転特徴量、TPを識別子kで識別される運転トピック、φkjを運転トピックTPの運転基底分布を表す多項分布のj成分として、(6)式に従って尤度比Ljkを求める。ただし(6)式中の分母は多項分布の成分φkjについてk以外の成分の和をとることを意味している。なお、尤度比Ljkは、ある特徴が他の運転トピックには含まれずに特定の運転トピックに含まれている度合いを示すいわゆる逆文書頻度(IDF:Inverse Document Frequency)と呼ばれる指標である。
Here, a method of extracting a driving topic designated as a salient topic will be described.
First, characteristics unique to each driving topic are extracted using the driving basis distribution (see FIG. 5) constituting each driving topic. The likelihood ratio is used for the extraction. More specifically, w j is a driving feature belonging to the bin identified by j, TP k is a driving topic identified by the identifier k, φ kj is a multinomial distribution j representing the driving base distribution of the driving topic TP k. As a component, a likelihood ratio L jk is obtained according to equation (6). However, the denominator in the equation (6) means that the sum of components other than k is taken for the component φ kj of the multinomial distribution. The likelihood ratio L jk is an index called “inverse document frequency (IDF)” indicating a degree that a certain feature is not included in another driving topic but is included in a specific driving topic.

図7は、各運転トピックにおいて、尤度比Ljkが一定以上(ここでは5)のもののみ表示した特徴強調分布であり、ここでは、図面を見やすくするため、アクセル、ブレーキ、ステアリング、速度についてのみ示している。 FIG. 7 is a feature enhancement distribution in which only the likelihood ratio L jk is greater than or equal to a certain value (here, 5) in each driving topic. Here, in order to make the drawing easier to see, the accelerator, brake, steering, and speed are shown. Only shows.

この特徴強調分布に基づき、所定条件を満たす運転トピックを顕著トピックに指定する。具体的には、所定条件として、例えば、(1)アクセル開度のヒストグラムにおいて、アクセル開度の値が50%以上となるビンの尤度比が5以上であること、(2)速度ヒストグラムにおいて、速度値が80km以上となるビンの尤度比が5以上であること等を用いることができる。(1)の場合、図7ではトピックTP3が顕著トピックに指定される。この顕著トピックは、アクセルの踏み込み時等に出現する運転トピック(高加速トピック)であると解釈できる。(2)の場合、図7ではトピックTP5が顕著トピックに指定される。この顕著トピックは、高速走行時等に出現する運転トピック(高速走行トピック)であると解釈できる。つまり、様々な運転文脈が、個々の顕著トピックや、顕著トピックの組合せによって表現されることになる。   Based on this feature enhancement distribution, a driving topic that satisfies a predetermined condition is designated as a remarkable topic. Specifically, as the predetermined condition, for example, (1) in the accelerator opening histogram, the likelihood ratio of the bin where the value of the accelerator opening is 50% or more is 5 or more, and (2) in the speed histogram The likelihood ratio of the bin having a speed value of 80 km or more can be 5 or more. In the case of (1), the topic TP3 is designated as a salient topic in FIG. This remarkable topic can be interpreted as a driving topic (high acceleration topic) that appears when the accelerator is depressed. In the case of (2), the topic TP5 is designated as a notable topic in FIG. This salient topic can be interpreted as a driving topic (high speed traveling topic) that appears during high speed traveling or the like. That is, various driving contexts are expressed by individual salient topics or combinations of salient topics.

顕著トピックは、これに限らず、例えば、ブレーキの踏み込み時等に出現する運転トピック(高ブレーキトピック)、低速走行時に出現する運転トピック(低速走行トピック)、車線変更時に出現する運転トピック(車線変更トピック)、車両が前方に割り込んできた時に出現する運転トピック(被割込トピック)等、特徴強調分布から意味のある解釈を導くことができる運転トピックであればよい。   Notable topics are not limited to this, for example, driving topics that appear when the brakes are depressed (high braking topics), driving topics that appear when driving at low speeds (low speed driving topics), and driving topics that appear when changing lanes (lane changes) Topic), a driving topic that can derive a meaningful interpretation from the feature enhancement distribution, such as a driving topic (interrupted topic) that appears when the vehicle has interrupted forward, may be used.

図8は表示装置12が表示する画像を例示したものであり、(a)は顕著トピックとして「高ブレーキトピック」が指定されている場合に、先行車に衝突しないようにドライバがブレーキを踏み込んだ時の状況、(b)は顕著トピックとして「高速走行トピック」が指定されている場合に、高速道路を走行した時の状況を例示したものである。これらの図からは、それぞれの運転文脈(顕著トピック)において、ドライバの注意を喚起すべき領域が強調表示されていることがわかる。これは特定の運転特徴量とそれに関連する画像特徴量が繰り返し発生しており、これを顕著トピックとして抽出できているためである。   FIG. 8 shows an example of an image displayed on the display device 12. FIG. 8A shows a case where “high brake topic” is designated as a prominent topic, and the driver steps on the brake so as not to collide with the preceding vehicle. (B) illustrates the situation when driving on a highway when “high speed driving topic” is designated as the salient topic. From these figures, it can be seen that in each driving context (significant topic), the area where the driver should be alerted is highlighted. This is because a specific driving feature amount and an image feature amount related to the specific driving feature amount are repeatedly generated and extracted as a remarkable topic.

なお、図8では、図面を見やすくするため、顕著トピックが一つである場合について例示したが、顕著トピックが複数設定されている場合は、各顕著トピックに対応する領域がそれぞれ異なった態様(例えば色,ハッチングパタン)で強調表示されたものとなる。   In FIG. 8, the case where there is one salient topic is illustrated for easy viewing of the drawing. However, when a plurality of salient topics are set, the areas corresponding to the salient topics are different from each other (for example, Color, hatching pattern).

<効果>
以上説明したように、運転支援装置1では、教師なしの分割法であるDDAによって運転挙動データの時系列を、それぞれが何等かの運転シーンを表す部分系列に分割し、部分系列毎に運転挙動データや画像データに基づいて生成された特徴量分布から把握される運転文脈(運転トピック)を抽出し、その抽出された運転文脈に対応づけられる局所領域を強調表示している。
<Effect>
As described above, in the driving support device 1, the time series of the driving behavior data is divided into partial series each representing some driving scene by the DDA which is an unsupervised division method, and the driving behavior is divided for each partial series. The driving context (driving topic) grasped from the feature amount distribution generated based on the data and the image data is extracted, and the local region associated with the extracted driving context is highlighted.

このように、運転支援装置1によれば、事前に定義された運転シーンのいずれに現状の状況が類似しているかを判定するのではなく、切り出された運転シーンがどのような運転トピックで構成されているかを解析することによって運転文脈を抽出しているため、運転開始から運転終了までに出現するあらゆる運転シーンについて、事前に定義された情報ではなく運転文脈に応じた情報提供を実現することができる。   As described above, according to the driving support device 1, instead of determining which of the driving scenes defined in advance is similar to the current situation, what kind of driving topic the driving scene is composed of Because the driving context is extracted by analyzing whether it is being used, it is possible to provide information according to the driving context instead of the predefined information for every driving scene that appears from the start to the end of driving Can do.

しかも、運転シーンの分割にDAAを利用することで、ドライバの直感に適合した単位で運転シーンが抽出されるため、抽出された運転シーンは、安定したドライバの意志を含んだ車両の状況、すなわち、特定の運転文脈が強く反映されたものとなり、運転文脈の抽出を精度よく行うことができる。   In addition, by using DAA to divide the driving scene, the driving scene is extracted in a unit suitable for the driver's intuition. Therefore, the extracted driving scene is a vehicle situation including a stable driver's intention, that is, Thus, the specific driving context is strongly reflected, and the driving context can be extracted with high accuracy.

<他の実施形態>
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
<Other embodiments>
As mentioned above, although embodiment of this invention was described, it cannot be overemphasized that this invention can take a various form, without being limited to the said embodiment.

(1)上記実施形態では、特徴量分布の生成対象として、運転挙動データおよび画像データを用いているが、これに限るものではない。例えば、全地球測位システム(GPS:Global Positioning System)や慣性計測装置(IMU:Inertial Measurement Unit)によって取得される自車両の位置に関する位置データの他、時間帯を表すデータ,天候を表すデータ等、ドライバの運転操作や車両の挙動に影響を及ぼす可能性のあるデータであればどのようなデータを車両挙動データや環境データとして用いてもよい。   (1) In the above embodiment, driving behavior data and image data are used as the generation target of the feature amount distribution, but the present invention is not limited to this. For example, in addition to the position data related to the position of the host vehicle acquired by the Global Positioning System (GPS) and the inertial measurement unit (IMU), the data representing the time zone, the data representing the weather, etc. Any data may be used as the vehicle behavior data or the environmental data as long as it may affect the driving operation of the driver or the behavior of the vehicle.

(2)上記実施形態では、情報提示に用いるデータとして画像データを用いているが、これに限るものではなく、例えば、各種レーダによって検出される物体までの距離や方位を表すデータや周知の距離画像センサによって検出される距離画像データ等を用いてもよい。これらのデータを用いた場合でも、使用するセンサに応じた局所特徴量を求めることで、通常の画像データを用いた場合と同様に処理をすることができる。その一例として、図9には、高速道路を走行している状況で先行車両が強調表示の対象となっているものとして、(a)は距離画像データを使用した場合の情報提示イメージ、(b)は比較のために通常の画像データを使用した場合の情報提示イメージを示す。なお、距離画像データを用いる場合、局所特徴として、SPIN特徴量やSHOT特徴量など、3次元点群に対する局所特徴記述子を用いることができる。   (2) In the above embodiment, image data is used as data used for information presentation. However, the present invention is not limited to this. For example, data representing the distance and direction to an object detected by various radars, or a known distance Distance image data detected by an image sensor or the like may be used. Even when these data are used, processing can be performed in the same manner as when normal image data is used by obtaining a local feature amount corresponding to the sensor to be used. As an example, in FIG. 9, (a) is an information presentation image when distance image data is used, and (b) shows that the preceding vehicle is the target of highlighting in a situation of traveling on a highway. ) Shows an information presentation image when normal image data is used for comparison. When distance image data is used, a local feature descriptor for a three-dimensional point group such as a SPIN feature amount or a SHOT feature amount can be used as a local feature.

(3)上記実施形態では、提示条件として、「顕著トピックとして予め指定されていること」を用いているが、これに限るものではない。例えば、何等かの状況に応じて顕著トピックが切り替わるような提示条件を用いてもよい。また、顕著トピックの指定は、ユーザが任意に設定できるように構成してもよい。   (3) In the above-described embodiment, “presented as a prominent topic” is used as the presentation condition. However, the present invention is not limited to this. For example, you may use the presentation conditions that a remarkable topic switches according to some conditions. In addition, the saliency topic may be designated so that the user can arbitrarily set it.

(4)上記実施形態では、顕著トピックが割り当てられた局所領域を画面上で強調表示することによって、視覚的に情報を提示しているが、これに限るものではない。例えば、顕著トピックが割り当てられた局所領域が存在する方向、すなわち、ドライバの注意を促したい方向に音像定位させた音源によって警報音を発生させる等して、聴覚的に情報を提示したり、シートやハンドルを振動させるなど触覚的に情報を提示したりする等してもよい。   (4) In the above embodiment, the information is visually presented by highlighting the local region to which the salient topic is assigned on the screen. However, the present invention is not limited to this. For example, an alarm sound is generated by a sound source that has been localized in the direction in which the local area to which the remarkable topic is assigned, that is, the direction in which the driver wants to be alerted, is presented auditorily, information is presented, Information may be presented tactilely, such as by vibrating a handle.

(5)本発明の各構成要素は概念的なものであり、上記実施形態に限定されない。例えば、一つの構成要素が有する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を一つの構成要素に統合したりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。   (5) Each component of the present invention is conceptual and is not limited to the above embodiment. For example, the functions of one component may be distributed to a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment.

1…運転支援装置 2…運転挙動データ収集部 3…運転シーン離散化部 4…特徴量分布生成部 5…運転トピックデータベース 6…トピック割合演算部 7…割当用確率演算部 8…強調領域設定部 9…環境データ収集部 11…車載カメラ 12…表示装置 41…運転特徴算出部 42…画像特徴算出部   DESCRIPTION OF SYMBOLS 1 ... Driving assistance device 2 ... Driving behavior data collection part 3 ... Driving scene discretization part 4 ... Feature-value distribution generation part 5 ... Driving topic database 6 ... Topic ratio calculation part 7 ... Probability calculation part 8 for allocation 8 ... Emphasis area setting part DESCRIPTION OF SYMBOLS 9 ... Environmental data collection part 11 ... Car-mounted camera 12 ... Display apparatus 41 ... Driving | running feature calculation part 42 ... Image feature calculation part

Claims (7)

車両の運転挙動に関わる運転挙動データを繰り返し収集する運転挙動データ収集手段(2)と、
車両周辺の環境を表す環境データを繰り返し収集する環境データ収集手段(9)と、
前記運転挙動データ収集手段にて収集された前記運転挙動データの系列を、各々が何等かの運転シーンを表す複数の部分系列に分割するシーン分割手段(3)と、
前記運転挙動データ収集手段によって収集された前記運転挙動データから得られる一種類以上の特徴量を運転特徴量、前記環境データ収集手段によって収集された環境データから得られる局所的な特徴量を環境特徴量として、前記部分系列毎かつ前記特徴量毎に、該特徴量の出現頻度を表す特徴量分布を生成する特徴量分布生成手段(4)と、
前記部分系列毎に前記特徴量分布生成手段で生成される複数の特徴量分布を特徴量分布群として、該特徴量分布群における運転特徴量分布と環境特徴量分布の間の共起性を利用して環境データの局所領域に関する報知を制御する報知手段(5,6,7,8)と、
を備えることを特徴とする運転支援装置。
Driving behavior data collecting means (2) for repeatedly collecting driving behavior data relating to the driving behavior of the vehicle;
Environmental data collection means (9) for repeatedly collecting environmental data representing the environment around the vehicle;
Scene dividing means (3) for dividing the series of the driving behavior data collected by the driving behavior data collecting means into a plurality of partial series each representing some driving scene;
One or more types of feature quantities obtained from the driving behavior data collected by the driving behavior data collection means are driving feature quantities, and local feature quantities obtained from the environmental data collected by the environmental data collection means are environmental features. As a quantity, a feature quantity distribution generating means (4) for generating a feature quantity distribution representing the appearance frequency of the feature quantity for each partial series and for each feature quantity;
Using a plurality of feature quantity distributions generated by the feature quantity distribution generating means for each partial series as a feature quantity distribution group, using the co-occurrence between the driving feature quantity distribution and the environmental feature quantity distribution in the feature quantity distribution group And notification means (5, 6, 7, 8) for controlling notification related to the local area of the environmental data
A driving support apparatus comprising:
前記報知手段は、
前記特徴量分布群を表現する際の基底分布として使用される複数種類の運転トピックからなる運転トピック群を記憶するトピック記憶手段(5)と、
前記特徴量分布群を、前記運転トピック群を用いて表現した場合の混合比であるトピック割合を、前記部分系列毎に算出する割合演算手段(6)と、
前記部分系列毎に、前記トピック割合および前記運転トピック群に基づいて、前記環境特徴量毎に、該環境特徴量を有した局所領域が、どの運転トピックに由来するかを確率的に示す割当用確率分布を生成する確率分布生成手段(7)と、
前記環境特徴量および前記確率分布に従って、前記局所領域毎に前記運転トピックを割り当てると共に、予め設定された提示条件を満たす前記運転トピックが割り当てられた局所領域に関する報知を制御する報知制御手段(8)と、
を備えることを特徴とする請求項1に記載の運転支援装置。
The notification means includes
Topic storage means (5) for storing a driving topic group consisting of a plurality of types of driving topics used as a base distribution when expressing the feature quantity distribution group;
A ratio calculation means (6) for calculating a topic ratio, which is a mixture ratio when the feature quantity distribution group is expressed using the driving topic group, for each partial series;
For each partial series, based on the topic ratio and the driving topic group, for each of the environmental feature values, for assignment, the local region having the environmental feature value is stochastically derived from which driving topic. Probability distribution generation means (7) for generating a probability distribution;
Notification control means (8) for allocating the driving topic for each local region according to the environmental feature and the probability distribution and controlling notification regarding the local region to which the driving topic satisfying a preset presentation condition is allocated. When,
The driving support device according to claim 1, further comprising:
前記報知制御手段は、前記提示条件を満たす運転トピックが複数存在する場合、該運転トピック毎に異なる態様で前記報知を行うことを特徴とする請求項1または請求項2に記載の運転支援装置。   3. The driving support device according to claim 1, wherein when there are a plurality of driving topics that satisfy the presentation condition, the notification control unit performs the notification in a different manner for each driving topic. 前記報知制御手段は、前記環境データに基づく画像上で、報知対象となる前記局所領域を強調表示することを特徴とする請求項1ないし請求項3のいずれか1項に記載の運転支援装置。   The driving support apparatus according to any one of claims 1 to 3, wherein the notification control unit highlights the local region to be notified on an image based on the environmental data. 前記環境データ収集手段は、前記環境データとして画像データまたは距離画像データを収集することを特徴とする請求項1ないし請求項4のいずれか1項に記載の運転支援装置。   The driving assistance apparatus according to any one of claims 1 to 4, wherein the environmental data collection unit collects image data or distance image data as the environmental data. 前記シーン分割手段は、二重分節構造を利用した教師なし運転シーン分割法によって分節化を行う二重分節解析器(DAA:Double Articulation Analyzer)からなることを特徴とする請求項1ないし請求項5のいずれか1項に記載の運転支援装置。   6. The scene dividing means comprises a double segment analyzer (DAA: Double Articulation Analyzer) that performs segmentation by an unsupervised driving scene segmentation method using a double segment structure. The driving support device according to any one of the above. 前記割合演算手段は、潜在的ディリクレ配分法(LDA:Latent Dirichlet Allocation )またはマルチモーダルLDAによって、前記トピック割合を求めることを特徴とする請求項1ないし請求項6のいずれか1項に記載の運転支援装置。   The operation according to any one of claims 1 to 6, wherein the ratio calculation means obtains the topic ratio by a latent dirichlet allocation method (LDA) or a multimodal LDA. Support device.
JP2013189663A 2013-09-12 2013-09-12 Driving assistance device Active JP6206022B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013189663A JP6206022B2 (en) 2013-09-12 2013-09-12 Driving assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013189663A JP6206022B2 (en) 2013-09-12 2013-09-12 Driving assistance device

Publications (2)

Publication Number Publication Date
JP2015056058A JP2015056058A (en) 2015-03-23
JP6206022B2 true JP6206022B2 (en) 2017-10-04

Family

ID=52820409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013189663A Active JP6206022B2 (en) 2013-09-12 2013-09-12 Driving assistance device

Country Status (1)

Country Link
JP (1) JP6206022B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6307356B2 (en) * 2014-06-06 2018-04-04 株式会社デンソー Driving context information generator
JP6511982B2 (en) * 2015-06-19 2019-05-15 株式会社デンソー Driving operation discrimination device
JP6749775B2 (en) * 2016-03-28 2020-09-02 清水建設株式会社 Class determination device, class determination method, and class determination program
JP6929260B2 (en) * 2018-11-01 2021-09-01 株式会社東芝 Time-series feature extraction device, time-series feature extraction method and program
JP7099368B2 (en) * 2019-03-07 2022-07-12 株式会社デンソー Support time presentation system
CN111126438B (en) * 2019-11-22 2023-11-14 北京理工大学 Driving behavior recognition method and system
JP7318504B2 (en) * 2019-11-26 2023-08-01 株式会社デンソー SCENE ANALYSIS SUPPORT DEVICE, METHOD, AND PROGRAM
JP7446605B2 (en) 2020-03-31 2024-03-11 株式会社ユピテル Systems, programs, trained models, learning model generation methods, generation devices, etc.
CN111717217B (en) * 2020-06-30 2022-11-08 重庆大学 Driver intention identification method based on probability correction
JP7247993B2 (en) * 2020-08-28 2023-03-29 株式会社デンソー RUNNING TEST PATTERN CREATION APPARATUS AND METHOD

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6879969B2 (en) * 2001-01-21 2005-04-12 Volvo Technological Development Corporation System and method for real-time recognition of driving patterns
CN101754887B (en) * 2007-07-24 2012-07-04 日产自动车株式会社 Drive assistance apparatus for vehicle and vehicle equipped with the apparatus
JP2009129318A (en) * 2007-11-27 2009-06-11 Fuji Heavy Ind Ltd Image processor
JP5161643B2 (en) * 2008-04-23 2013-03-13 富士重工業株式会社 Safe driving support system
JP5821580B2 (en) * 2011-12-01 2015-11-24 トヨタ自動車株式会社 Vehicle driver identification device and vehicle driver identification method
JP6026959B2 (en) * 2013-06-03 2016-11-16 株式会社デンソー Driving scene label estimation device

Also Published As

Publication number Publication date
JP2015056058A (en) 2015-03-23

Similar Documents

Publication Publication Date Title
JP6206022B2 (en) Driving assistance device
JP6026959B2 (en) Driving scene label estimation device
JP6307356B2 (en) Driving context information generator
EP3602489B1 (en) Machine-vision method to classify input data based on object components
JP2016118906A (en) Abnormality detection apparatus
US20210089762A1 (en) Learning actions with few labels in the embedded space
Bender et al. An unsupervised approach for inferring driver behavior from naturalistic driving data
JP6451583B2 (en) Driving assistance device
JP6511982B2 (en) Driving operation discrimination device
CN113159105B (en) Driving behavior unsupervised mode identification method and data acquisition monitoring system
US11440555B2 (en) Systems and methods for detecting and classifying an unsafe maneuver of a vehicle
JP2017073021A (en) Driving support device
JP2013250663A (en) Driving scene recognition device
JP5895728B2 (en) Vehicle group management device
CN112466118A (en) Vehicle driving behavior recognition method, system, electronic device and storage medium
US11594042B1 (en) Systems and methods for utilizing models to detect dangerous tracks for vehicles
GB2539548A (en) Traffic complexity estimation
JP7024577B2 (en) Driving scene learning device, driving scene estimation device, and driving scene estimation system
JP5360143B2 (en) Driving scene recognition model generation device, driving support device, and program
JP2011123552A (en) Device for retrieval of similar image in driving, and program
Sanjai Siddharthan et al. Real-Time Road Hazard Classification Using Object Detection with Deep Learning
JP6365035B2 (en) Traffic object detection device
WO2022265741A1 (en) Generation and management of notifications providing data associated with activity determinations pertaining to a vehicle
JP2018022469A (en) Abnormality estimation device and display device
WO2022045001A1 (en) Travel test pattern creation device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170821

R151 Written notification of patent or utility model registration

Ref document number: 6206022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250