JP2019220084A - Analysis device, on-vehicle device, and pattern analysis support device - Google Patents

Analysis device, on-vehicle device, and pattern analysis support device Download PDF

Info

Publication number
JP2019220084A
JP2019220084A JP2018118972A JP2018118972A JP2019220084A JP 2019220084 A JP2019220084 A JP 2019220084A JP 2018118972 A JP2018118972 A JP 2018118972A JP 2018118972 A JP2018118972 A JP 2018118972A JP 2019220084 A JP2019220084 A JP 2019220084A
Authority
JP
Japan
Prior art keywords
data
vehicle
time
analysis
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2018118972A
Other languages
Japanese (ja)
Inventor
明宏 杉田
Akihiro Sugita
明宏 杉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP2018118972A priority Critical patent/JP2019220084A/en
Publication of JP2019220084A publication Critical patent/JP2019220084A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide an analysis device, an on-vehicle device, and a pattern analysis support device that enable a pattern such as dangerous driving related to the running state of a vehicle to be easily specified.SOLUTION: An analysis unit 31 included in an analysis device 100 has sensor data 33 such as a vehicle speed and a three-axial direction acceleration input as time-series data, and performs GMM-HMM processing to output data classified into a plurality of classes. A processing unit 30 outputs reproduction of moving image data 32 and display of the sensor data 33 classified into classes in synchronization with each other to support an operation of specifying a running pattern performed by a human. A reference database in which reference data representing a model of the specified running pattern has been registered is mounted on the on-vehicle device or the like, and the running pattern of the vehicle is detected in real time with this database while the vehicle is being operated. Various running patterns difficult for a human and the like to become aware of merely with time-series variations in sensor output can be detected and utilized.SELECTED DRAWING: Figure 3

Description

本発明は、車両の走行パターン解析に利用可能な解析装置、車載器、及びパターン解析補助装置に関する。   The present invention relates to an analysis device, a vehicle-mounted device, and a pattern analysis auxiliary device that can be used for analyzing a traveling pattern of a vehicle.

従来より、自動車に搭載されるドライブレコーダやデジタルタコグラフのような車載器は、運転中の乗務員に対する安全運転の支援や、運転後の安全運転指導に役立てるために、特定の運転状態を検出する機能を一般的に備えている。例えば、このような車載器は、自動車の走行速度が法定速度や制限速度を超過した状態や、急激なハンドル操作を検出し、その状態を運行データとして記録したり、警報を出力することができる。また、近年では様々な技術が研究されている。   Conventionally, on-board devices such as drive recorders and digital tachographs installed in automobiles have the function of detecting specific driving conditions to assist crew members in driving safely and provide guidance on safe driving after driving. Is generally provided. For example, such a vehicle-mounted device can detect a state in which the traveling speed of a vehicle exceeds a legal speed or a speed limit, or a sudden steering operation, record the state as operation data, or output an alarm. . In recent years, various technologies have been studied.

例えば、特許文献1の検出装置は、「ヒヤリハット」を精度よく検出するための技術を示している。具体的には、状態値取得部は、ブレーキの操作が継続されている間、該ブレーキの操作量に対応して変化する値であって該ブレーキの操作量が大きくなると同様に大きくなる値である状態値を取得する。判断時間検出部は、ブレーキの操作が開始されてから、状態値が予め定められた状態閾値以上となるまでの時間である判断時間を検出する。判断部は、判断時間が予め定められた判断閾値未満である場合に、車両の運転において注意を要する事象である注意事象が発生したと判断する。   For example, the detection device of Patent Literature 1 discloses a technique for accurately detecting “near-miss”. Specifically, the state value acquiring unit is a value that changes in accordance with the operation amount of the brake while the operation of the brake is continued, and is a value that increases similarly as the operation amount of the brake increases. Get a state value. The determination time detection unit detects a determination time that is a time from when the brake operation is started to when the state value becomes equal to or more than a predetermined state threshold. The determining unit determines that an attention event, which is an event requiring attention in driving the vehicle, has occurred when the determination time is less than a predetermined determination threshold.

特許文献2の運転行動パターン認識装置は、連続的かつリアルタイムな認識処理のための技術を示している。具体的には、運転操作量から隠れマルコフモデルによって運転行動パターンを認識する際に、認識対象である運転行動パターン毎に特定の運転操作量を設定し、その運転操作量が所定の条件を満たした場合に認識開始及び終了判定を行うようにするものである。   The driving behavior pattern recognition device of Patent Document 2 shows a technology for continuous and real-time recognition processing. Specifically, when a driving behavior pattern is recognized from a driving operation amount by a hidden Markov model, a specific driving operation amount is set for each driving behavior pattern to be recognized, and the driving operation amount satisfies a predetermined condition. In such a case, the recognition start and end are determined.

特許文献3は、旋回予測または予測を生成する方法を示している。具体的には、第1車両が走行している走行環境の環境レイアウト情報を受信し、第1車両の現在位置を受信し、1台以上の他車両を検出し、他車両からの付加環境レイアウト情報を受信し、走行環境、第1車両、及び1台以上の他車両を含むモデルを構築する。モデルは、環境レイアウト情報及び付加環境レイアウト情報に基づくことができ、これらの他車両のうちの1台の他車両の運転者の意図を示すことができる。予測は、モデルに基づいて生成することができ、モデルは隠れマルコフモデル、サポートベクターマシン、動的ベイジアンネットワーク、またはこれらの組み合わせに基づいている。   Patent Literature 3 discloses a method of generating a turning prediction or a prediction. Specifically, environment layout information of a driving environment in which the first vehicle is running is received, a current position of the first vehicle is received, one or more other vehicles are detected, and an additional environment layout from another vehicle is detected. The information is received and a model is constructed that includes the driving environment, the first vehicle, and one or more other vehicles. The model may be based on the environment layout information and the additional environment layout information, and may indicate a driver's intention of one of these other vehicles. The prediction can be generated based on a model, where the model is based on a hidden Markov model, a support vector machine, a dynamic Bayesian network, or a combination thereof.

特開2017−107483号公報JP-A-2017-107483 特開平11−99849号公報JP-A-11-99849 特開2017−27599号公報JP-A-2017-27599

しかしながら、特許文献1の技術で検出可能な「ヒヤリハット」は、閾値などが予め定めた条件に該当するもののみである。つまり、ブレーキの操作が継続されている間の速度変化、加速度変化と閾値とを比較した結果を出力するので、事前に決めた閾値により検出条件が決まる。また、ブレーキペダルのオンオフを検知するためのセンサが必要になる。   However, the “close call” that can be detected by the technique of Patent Literature 1 is only those that have a threshold or the like corresponding to a predetermined condition. That is, since the result of comparing the speed change and the acceleration change with the threshold value while the brake operation is continued is output, the detection condition is determined by the predetermined threshold value. Further, a sensor for detecting the on / off of the brake pedal is required.

また、特許文献2の技術においても、事前に定めた運転行動パターン以外は検出できない。すなわち、実際の運転操作量が、運転行動パターン毎に事前に定めた操作量の条件を満たした場合に認識開始及び終了判定を行うので、検出すべき行動パターン毎にそれぞれ事前に操作量の基準値を特定し登録しておかなければならない。   Also, in the technique of Patent Document 2, it is impossible to detect a driving behavior pattern other than a predetermined driving behavior pattern. That is, when the actual driving operation amount satisfies the conditions of the operation amount determined in advance for each driving action pattern, the recognition start and end determinations are performed. The value must be specified and registered.

また、特許文献3の技術は、車両のモデルに基づいて旋回予測をすることを示しているが、実際に現実的な旋回予測ができるのかどうかは不明である。また、どのような特徴量を用いたモデルを構築するのかが不明であり、予測の解析内容およびその結果も不明である。   Further, the technique of Patent Document 3 indicates that turning prediction is performed based on a vehicle model, but it is unknown whether a realistic turning prediction can be actually performed. Further, it is unknown what kind of feature amount is used to construct a model, and the analysis contents of the prediction and its result are also unknown.

上記のような従来技術においては、自動車の運転における速度超過や急ハンドルのように安全運転に影響を及ぼす運転を検知することが可能であるが、詳細な運転操作パターンや走行パターンを検出できるわけではない。また、例えば車載カメラの撮影により得られた動画像などの運行データに基づいて危険運転に該当するパターンを特定しようとすると、人間が関与してデータ分析を行うことになるので、比較や判断にかかる作業の手間が膨大になるという問題がある。   In the prior art described above, it is possible to detect driving that affects safe driving, such as excessive speed or sudden steering in driving a car, but it is not possible to detect a detailed driving operation pattern or running pattern. is not. In addition, for example, when trying to identify a pattern corresponding to dangerous driving based on operation data such as a moving image obtained by shooting with an in-vehicle camera, human analysis will be involved and data analysis will be performed. There is a problem that the labor of such work becomes enormous.

本発明は、上述した事情に鑑みてなされたものであり、その目的は、車両の走行状態に関連のある危険運転などのパターンの特定を容易にするために役立つ解析装置、車載器、及びパターン解析補助装置を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an analysis device, an on-board device, and a pattern that are useful for facilitating identification of a pattern such as a dangerous driving related to a traveling state of a vehicle. An analysis assisting device is provided.

前述した目的を達成するために、本発明に係る解析装置、車載器、及びパターン解析補助装置は、下記(1)〜(5)を特徴としている。
(1) 任意の車両上で検出された複数種類の時系列センサデータを取得するデータ取得部と、
前記データ取得部が取得した複数種類の時系列センサデータに対して、混合ガウス分布、および隠れマルコフモデルを適用し、解析の結果として複数クラスに分類された分類データを出力するデータ解析部と、
前記データ解析部が出力する前記分類データを格納する分類データ格納部と、
を備えることを特徴とする解析装置。
In order to achieve the above-described object, an analysis device, an in-vehicle device, and a pattern analysis auxiliary device according to the present invention are characterized by the following (1) to (5).
(1) a data acquisition unit that acquires a plurality of types of time-series sensor data detected on an arbitrary vehicle;
For a plurality of types of time-series sensor data acquired by the data acquisition unit, a mixed Gaussian distribution, and a data analysis unit that applies a hidden Markov model and outputs classification data classified into a plurality of classes as a result of the analysis.
A classification data storage unit that stores the classification data output by the data analysis unit;
An analysis device, comprising:

上記(1)の構成の解析装置によれば、複数種類の時系列センサデータから複数クラスに分類された分類データを取得することができる。すなわち、時系列センサデータに対して混合ガウス分布(GMM:Gaussian Mixture Model)を適用することにより、センサ出力における観測値変化を様々な時系列パケットに区分して表現することが可能になる。更に、隠れマルコフモデル(HMM:Hidden Markov Model)を適用することにより、時系列データを様々なパケットが特有の組み合わせで並んだパターンの集合と捉えることができるようになる。GMM−HMMに基づく教師なし学習で作成したモデルを用いることにより、パケットをクラスとして分類することができ、クラスの時間変化を時系列で出力することができる。分類したクラスの結果を利用することにより、車両の走行状態に関連のある危険運転などのパターンの特定が容易になる。   According to the analyzer having the configuration (1), it is possible to acquire classification data classified into a plurality of classes from a plurality of types of time-series sensor data. That is, by applying a Gaussian mixture model (GMM) to the time-series sensor data, it is possible to express the observed value change in the sensor output in various time-series packets. Furthermore, by applying a Hidden Markov Model (HMM), time-series data can be regarded as a set of patterns in which various packets are arranged in a specific combination. By using a model created by unsupervised learning based on GMM-HMM, a packet can be classified as a class, and a time change of the class can be output in a time series. By using the results of the classified classes, it becomes easy to identify patterns such as dangerous driving related to the running state of the vehicle.

(2) 前記データ取得部が取得する前記時系列センサデータは、車載カメラが撮影した画像を含み、
前記画像の内容を認識する画像認識部を有し、
前記データ解析部は、前記画像認識部の認識結果に基づき、解析の結果として時系列の画像から複数の分類されたクラスのデータを出力する、
ことを特徴とする上記(1)に記載の解析装置。
(2) The time-series sensor data acquired by the data acquisition unit includes an image captured by a vehicle-mounted camera,
An image recognition unit that recognizes the content of the image,
The data analysis unit is based on the recognition result of the image recognition unit, and outputs data of a plurality of classified classes from a time-series image as a result of the analysis,
The analyzer according to (1), wherein:

上記(2)の構成の解析装置によれば、車両の走行パターンを特定する作業者等の負担を軽減することが可能になる。例えば、画像認識により画像中に含まれる他車両、歩行者、自転車、標識、道路標示などを特定してクラス分類に反映できるので、この分類データから車両の走行パターンを容易に特定できる。   According to the analyzer having the above configuration (2), it is possible to reduce the burden on an operator or the like who specifies the traveling pattern of the vehicle. For example, since other vehicles, pedestrians, bicycles, signs, road markings, and the like included in the image can be specified by image recognition and reflected in the class classification, the traveling pattern of the vehicle can be easily specified from the classification data.

(3) 前記データ取得部が取得する複数種類の時系列センサデータは、少なくとも車両の走行速度と、前記車両に加わる互いに異なる方向の複数の加速度とを含み、
前記データ解析部は、前記時系列センサデータの種類よりも多い数の複数クラスに分類された分類データを出力する、
ことを特徴とする上記(1)又は(2)に記載の解析装置。
(3) The plurality of types of time-series sensor data acquired by the data acquisition unit include at least a traveling speed of the vehicle and a plurality of accelerations applied to the vehicle in different directions,
The data analysis unit outputs classification data classified into a plurality of classes of a number larger than the type of the time-series sensor data,
The analyzer according to the above (1) or (2), characterized in that:

上記(3)の構成の解析装置によれば、車両における様々な走行パターンの推定に利用可能なデータベースを容易に構築できる。すなわち、車両の走行速度と、複数方向の加速度との組合せにより様々な車両の挙動を検出できる。また、出力する分類データの設定するクラスの数をセンサ数よりも増やすことにより、車両の特定の走行パターンにより近い状態で分類データを出力可能になる。これにより、走行パターンの特定が容易になる。   According to the analyzing device having the configuration of the above (3), a database that can be used for estimating various running patterns of the vehicle can be easily constructed. That is, various behaviors of the vehicle can be detected based on a combination of the traveling speed of the vehicle and the acceleration in a plurality of directions. Further, by increasing the number of classes to be set in the output classification data beyond the number of sensors, the classification data can be output in a state closer to a specific traveling pattern of the vehicle. This facilitates the specification of the traveling pattern.

(4) 自車両の走行状態に関連のある状態を検出する複数のセンサを含み、前記複数のセンサが出力する信号を処理して現在の走行パターンを推定する車載器であって、
任意の車両上で検出された複数種類の時系列センサデータに対して、混合ガウス分布、および隠れマルコフモデルを適用した解析の結果として複数クラスに分類された分類データ、又は前記分類データに含まれる車両の走行パターンを特定する解析パターンデータを予め保持する基準データ保持部と、
自車両に搭載された複数のセンサが出力する信号と、前記基準データ保持部が保持しているデータとに基づいて現在の走行パターンを推定するパターン推定部と、
を備えることを特徴とする車載器。
(4) An in-vehicle device including a plurality of sensors for detecting a state related to a traveling state of the own vehicle, and processing a signal output from the plurality of sensors to estimate a current traveling pattern,
For a plurality of types of time-series sensor data detected on an arbitrary vehicle, mixed Gaussian distribution, and classification data classified into a plurality of classes as a result of analysis applying a hidden Markov model, or included in the classification data A reference data holding unit that holds in advance analysis pattern data that specifies a traveling pattern of the vehicle,
Signals output by a plurality of sensors mounted on the vehicle, a pattern estimating unit that estimates the current traveling pattern based on the data held by the reference data holding unit,
An on-vehicle device comprising:

上記(4)の構成の車載器によれば、基準データ保持部が保持している解析パターンデータは、複数種類の時系列センサデータに対して、混合ガウス分布、および隠れマルコフモデルを適用した解析の結果を反映している。したがって、一般的な時系列変化からは見つけにくいパターンであっても、パターン推定部は現在の自車両における走行パターンを精密に推定することが可能になる。   According to the in-vehicle device having the above configuration (4), the analysis pattern data held by the reference data holding unit is obtained by analyzing a plurality of types of time-series sensor data by applying a mixed Gaussian distribution and a hidden Markov model. Reflects the results of Therefore, even if the pattern is difficult to find from general time-series changes, the pattern estimating unit can accurately estimate the current traveling pattern of the own vehicle.

(5) 任意の車両における走行パターン特定を支援するパターン解析補助装置であって、
車載カメラが撮影した時系列の画像と、自車両の走行速度とを含む複数種類の時系列センサデータを解析した結果を処理対象データとして入力するデータ入力部と、
前記データ入力部が入力した前記処理対象データを種類毎に同時に表示するデータ表示部と、
前記データ表示部が表示する複数の前記処理対象データについて、表示範囲を互いに対応付けると共に、表示する時刻を互いに同期させる表示制御部と、
前記データ表示部における表示範囲又は表示時刻の変更、および走行パターンを特定する情報の入力操作を受け付ける操作部と、
を備えることを特徴とするパターン解析補助装置。
(5) A pattern analysis assisting device that assists in specifying a traveling pattern in an arbitrary vehicle,
A data input unit that inputs a result of analyzing a plurality of types of time-series sensor data including the time-series image captured by the on-board camera and the traveling speed of the own vehicle as processing target data,
A data display unit that simultaneously displays the processing target data input by the data input unit for each type,
For a plurality of the processing target data displayed by the data display unit, associating a display range with each other, and a display control unit that synchronizes the display time with each other,
An operation unit that receives a change of a display range or a display time in the data display unit, and an input operation of information for specifying a traveling pattern;
A pattern analysis assisting device comprising:

上記(5)の構成のパターン解析補助装置によれば、様々な車両の走行パターンを人間(作業者)が特定する作業を支援することができる。特に、時系列の画像および走行速度などの時系列センサデータの表示範囲および時刻が自動的に同期した状態で表示されるので、作業者は画像の状態と走行速度などの状態とを対応付けて比較および判断する作業を容易に行うことができる。   According to the pattern analysis assisting device having the configuration of the above (5), it is possible to support the operation of a human (operator) for specifying the traveling patterns of various vehicles. In particular, the display range and the time of the time-series sensor data such as the time-series image and the traveling speed are automatically displayed in a synchronized state, so that the worker associates the state of the image with the state of the traveling speed and the like. The work of comparison and judgment can be easily performed.

本発明の解析装置、車載器、及びパターン解析補助装置は、車両の走行状態に関連のある危険運転などのパターンの特定を容易にすることができる。   ADVANTAGE OF THE INVENTION The analysis apparatus of this invention, an in-vehicle device, and a pattern analysis assistance apparatus can make it easy to identify the pattern of dangerous driving etc. related to the running state of a vehicle.

以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。   The present invention has been briefly described above. Further, details of the present invention will be further clarified by reading through the modes for carrying out the invention described below (hereinafter, referred to as “embodiments”) with reference to the accompanying drawings. .

図1は、運行データを生成する車載器の構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of an in-vehicle device that generates operation data. 図2(a)、図2(b)、図2(c)、および図2(d)は、時系列センサデータの具体例を示すグラフであり、図2(a)は車速、図2(b)はx軸加速度、図2(c)はy軸加速度、図2(d)はz軸加速度の時系列変化をそれぞれ示す。2 (a), 2 (b), 2 (c), and 2 (d) are graphs showing specific examples of the time-series sensor data. FIG. 2 (a) shows the vehicle speed and FIG. b) shows the x-axis acceleration, FIG. 2 (c) shows the y-axis acceleration, and FIG. 2 (d) shows the time-series change of the z-axis acceleration. 図3は、解析装置の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of the analysis device. 図4は、解析装置における処理手順を示すフローチャートである。FIG. 4 is a flowchart illustrating a processing procedure in the analysis device. 図5は、図4に示したGMM−HMMによる処理手順の概要を示すフローチャートである。FIG. 5 is a flowchart showing an outline of a processing procedure by the GMM-HMM shown in FIG. 図6は、GMM−HMMの概要を示す図である。FIG. 6 is a diagram illustrating an outline of the GMM-HMM. 図7は、GMM−HMM解析結果におけるガウス分布曲線の例を示すグラフである。FIG. 7 is a graph showing an example of a Gaussian distribution curve in a GMM-HMM analysis result. 図8は、時系列速度データにGMM−HMM解析を適用した結果の例を示すグラフである。FIG. 8 is a graph showing an example of the result of applying the GMM-HMM analysis to the time-series speed data. 図9は、GMM−HMM処理後のデータに関するデータ表示例を表す正面図であり、図9(a)は、車速データに関するデータ表示例、図9(b)は、x軸加速度データに関するデータ表示例、図9(c)は、y軸加速度データに関するデータ表示例、図9(d)は、z軸加速度データに関するデータ表示例を表す正面図である。FIG. 9 is a front view showing a data display example regarding data after the GMM-HMM processing. FIG. 9A is a data display example regarding vehicle speed data, and FIG. 9B is a data table regarding x-axis acceleration data. FIG. 9C is a front view illustrating a data display example regarding y-axis acceleration data, and FIG. 9D is a front view illustrating a data display example regarding z-axis acceleration data. 図10は、解析装置上で動作するアプリケーションの画面表示例を示す正面図である。FIG. 10 is a front view showing a screen display example of an application operating on the analysis device. 図11は、アプリケーションの車速表示窓における右左折パターンの特徴の例を示す正面図である。FIG. 11 is a front view showing an example of the characteristics of the right / left turn pattern in the vehicle speed display window of the application. 図12は、解析装置における特徴的な処理の例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of characteristic processing in the analysis device. 図13は、走行パターン検出機能を備えた車載器の構成例を示すブロック図である。FIG. 13 is a block diagram illustrating a configuration example of an on-vehicle device having a traveling pattern detection function. 図14は、解析装置の構成例を示すブロック図である。FIG. 14 is a block diagram illustrating a configuration example of the analysis device. 図15は、図14に示した解析装置が処理するデータの構成例を示す模式図である。FIG. 15 is a schematic diagram illustrating a configuration example of data processed by the analysis device illustrated in FIG.

本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。   Specific embodiments of the present invention will be described below with reference to the drawings.

<運行データを生成する車載器の構成例>
運行データを生成する車載器10の構成例を図1に示す。図1に示した車載器10は、自動車の走行状態に関連のある走行パターンの解析に必要な運行データを収集するために利用される。また、この車載器10は、例えばトラック、バス、タクシー車両などに搭載した状態で利用される。なお、この車載器10の代わりに、既存のデジタルタコグラフやドライブレコーダなどの一般的な車載器をそのまま利用して、又は機能を追加して利用することも可能である。
<Configuration example of on-board unit that generates operation data>
FIG. 1 shows a configuration example of the vehicle-mounted device 10 that generates operation data. The vehicle-mounted device 10 shown in FIG. 1 is used to collect operation data required for analyzing a traveling pattern related to the traveling state of the automobile. The on-vehicle device 10 is used while being mounted on, for example, a truck, a bus, a taxi vehicle, or the like. Instead of the vehicle-mounted device 10, a general vehicle-mounted device such as an existing digital tachograph or drive recorder can be used as it is or can be used with additional functions.

図1に示した車載器10は、CPU11、インタフェース(I/F)12〜15、通信インタフェース16、カードインタフェース17、および加速度センサ18を内蔵している。また、車載カメラ21がインタフェース12の入力に接続され、GPS受信機22がインタフェース13の入力に接続され、車速センサ23がインタフェース14の入力に接続されている。加速度センサ18はインタフェース15の入力に接続されている。   The vehicle-mounted device 10 shown in FIG. 1 includes a CPU 11, interfaces (I / F) 12 to 15, a communication interface 16, a card interface 17, and an acceleration sensor 18. Further, a vehicle-mounted camera 21 is connected to an input of the interface 12, a GPS receiver 22 is connected to an input of the interface 13, and a vehicle speed sensor 23 is connected to an input of the interface 14. The acceleration sensor 18 is connected to an input of the interface 15.

CPU11は、マイクロコンピュータの機能を内蔵した半導体デバイスであり、予め組み込まれているソフトウェアのプログラムを実行することにより、車載器10に必要とされる機能を実現する。すなわち、CPU11は自動車の運行中に自車両の運行に関連する様々な情報を収集して記録すること、および送信することができる。   The CPU 11 is a semiconductor device having a built-in microcomputer function, and realizes functions required for the vehicle-mounted device 10 by executing a software program incorporated in advance. That is, the CPU 11 can collect, record, and transmit various information related to the operation of the own vehicle during the operation of the automobile.

車載カメラ21は、例えば自車両の運転者の前方視界と同じように、自車両進行方向前方の道路、標識、他車両、歩行者、自転車などを含む風景を連続的に撮影できる状態で車体に固定される。あるいは、車室内の運転者の運転操作や挙動などを連続的に撮影できるように車室内に設置される。また、同時に複数台の車載カメラ21を車載器10に接続してもよい。   The in-vehicle camera 21 is mounted on the vehicle body in a state capable of continuously photographing a scene including a road, a sign, another vehicle, a pedestrian, a bicycle, and the like in front of the own vehicle in the same manner as a forward view of a driver of the own vehicle. Fixed. Alternatively, it is installed in the vehicle interior so that the driving operation and behavior of the driver in the vehicle interior can be continuously photographed. Further, a plurality of vehicle-mounted cameras 21 may be connected to the vehicle-mounted device 10 at the same time.

GPS受信機22は、複数のGPS(Global Positioning System)衛星から受信した電波の受信時刻に基づいて、自車両の現在位置(緯度/経度)をほぼリアルタイムで算出することができる。   The GPS receiver 22 can calculate the current position (latitude / longitude) of the vehicle substantially in real time based on the reception time of radio waves received from a plurality of GPS (Global Positioning System) satellites.

車速センサ23は、自車両の車体側に搭載されている標準的なセンサであり、例えばトランスミッションの出力軸、あるいは車輪が1回転する毎に、一定数のパルス信号を車速パルスとして出力することができる。したがって、この車速パルスに基づいて車速[km/h]や走行距離[km]を算出することが可能である。   The vehicle speed sensor 23 is a standard sensor mounted on the vehicle body side of the host vehicle, and can output a fixed number of pulse signals as a vehicle speed pulse, for example, every time the transmission output shaft or the wheel makes one revolution. it can. Therefore, it is possible to calculate the vehicle speed [km / h] and the traveling distance [km] based on the vehicle speed pulse.

加速度センサ18は、自車両のx軸、y軸、z軸の3軸方向の加速度[m/s]をそれぞれ独立した状態で検出するセンサを内蔵している。例えば、x軸は自車両の進行方向(前後方向)、y軸は自車両の上下方向、z軸は自車両の左右方向と一致するように設置される。 The acceleration sensor 18 has a built-in sensor that independently detects accelerations [m / s 2 ] in three directions of the x-axis, y-axis, and z-axis of the vehicle. For example, the x-axis is set so as to coincide with the traveling direction of the host vehicle (front-back direction), the y-axis is set in the vertical direction of the host vehicle, and the z-axis is set so as to match the horizontal direction of the host vehicle.

通信インタフェース16は、例えば携帯電話などの通信機能を提供する公共の無線基地局との間で無線通信することにより、広域無線通信を実現することができる。本実施形態では、各車両の車載器が収集した情報を管理するクラウド24が、所定のデータセンタのサーバ上に存在する場合を想定している。すなわち、車載器10は自車両の運行中に通信インタフェース16を介して無線通信によりクラウド24と常時接続し、収集した運行データをクラウド24に送信しアップロードすることができる。   The communication interface 16 can realize wide-area wireless communication by performing wireless communication with a public wireless base station that provides a communication function such as a mobile phone. In the present embodiment, it is assumed that the cloud 24 that manages information collected by the vehicle-mounted device of each vehicle exists on a server of a predetermined data center. That is, the vehicle-mounted device 10 can be constantly connected to the cloud 24 by wireless communication via the communication interface 16 during the operation of the vehicle, and can transmit the collected operation data to the cloud 24 and upload it.

カードインタフェース17は、例えばSDカードのような記録媒体25を着脱自在に保持可能なスロットを有している。CPU11は、カードインタフェース17を介して記録媒体25にアクセスし、データの読み取り及び書き込みを行うことができる。   The card interface 17 has a slot capable of detachably holding a recording medium 25 such as an SD card. The CPU 11 can access the recording medium 25 via the card interface 17 to read and write data.

図1に示したCPU11は、車載カメラ21が撮影した映像に対応する動画のデータ、GPS受信機22が算出した現在位置、車速センサ23の出力に基づいて算出した車速、走行距離、加速度センサ18の出力するx、y、zの各軸方向の加速度、および時刻の情報を運行データとして収集することができる。また、CPU11が収集した運行データはクラウド24に送信され、記録媒体25にも記録される。   The CPU 11 shown in FIG. 1 includes: moving image data corresponding to the image captured by the on-board camera 21; the current position calculated by the GPS receiver 22; the vehicle speed calculated based on the output of the vehicle speed sensor 23; Can be collected as operation data. The operation data collected by the CPU 11 is transmitted to the cloud 24 and recorded on the recording medium 25.

<時系列センサデータの具体例>
解析装置が扱う時系列センサデータの具体例を図2(a)〜図2(d)に示す。図2(a)は車速、図2(b)はx軸加速度、図2(c)はy軸加速度、図2(d)はz軸加速度の時系列変化をそれぞれ示す。また、図2(a)〜図2(d)の横軸は、互いに同じ時刻を表している。つまり、これらの4つの時系列データは、同一の時間帯に測定されたものである。
<Specific examples of time-series sensor data>
2A to 2D show specific examples of the time-series sensor data handled by the analysis device. 2A shows the vehicle speed, FIG. 2B shows the x-axis acceleration, FIG. 2C shows the y-axis acceleration, and FIG. 2D shows the time-series change of the z-axis acceleration. The horizontal axes in FIGS. 2A to 2D represent the same time. That is, these four time-series data are measured in the same time zone.

例えば、図1に示したクラウド24又は記録媒体25に蓄積される運行データの中には、車速の変化を表す時系列データと、x、y、zの各軸方向の加速度の変化を表す時系列データとが含まれているので、図2(a)〜図2(d)のような時系列センサデータをそれぞれ取得できる。また、クラウド24および記録媒体25に記録される時系列センサデータは時刻の情報を含んでいるので、図2(a)〜図2(d)のように同じ時刻における車速および各軸方向加速度の4種類の情報を同時に取得できる。   For example, the operation data stored in the cloud 24 or the recording medium 25 shown in FIG. 1 includes time-series data indicating a change in vehicle speed, and time-series data indicating a change in acceleration in each of x, y, and z directions. Since sequence data is included, time-series sensor data as shown in FIGS. 2A to 2D can be obtained. Further, since the time-series sensor data recorded on the cloud 24 and the recording medium 25 includes time information, the vehicle speed and the axial acceleration at the same time as shown in FIGS. Four types of information can be obtained simultaneously.

<解析装置の構成例>
自動車の運行データに基づき走行パターンを解析するために使用される解析装置100の構成例を図3に示す。この解析装置100は、例えば多数の車両を管理する企業の管理部門に設置されるパーソナルコンピュータ(PC)上に組み込むことが想定されるが、各車両に搭載される車載器に組み込み可能な機能として構成することも可能である。
<Example of configuration of analyzer>
FIG. 3 shows a configuration example of an analysis device 100 used to analyze a traveling pattern based on the operation data of a vehicle. The analysis device 100 is assumed to be installed on a personal computer (PC) installed in a management section of a company that manages a large number of vehicles. It is also possible to configure.

図3に示した解析装置100は、処理部30、表示部34、データ格納部38、および操作部39を備えている。また、処理部30は解析部31を備えている。処理部30は、例えばパーソナルコンピュータの本体により構成され、解析部31の機能は、パーソナルコンピュータが実行可能なソフトウェアとして構成される。表示部34は、様々な可視情報を表示可能な二次元画面を備えている。データ格納部38は、例えばハードディスクのような記憶装置により構成される。操作部39は、マウス、キーボード、タッチパネルのようにユーザの入力操作を受け付け可能な入力装置として構成される。   The analysis device 100 illustrated in FIG. 3 includes a processing unit 30, a display unit 34, a data storage unit 38, and an operation unit 39. The processing unit 30 includes an analysis unit 31. The processing unit 30 is configured by, for example, a main body of a personal computer, and the function of the analysis unit 31 is configured as software executable by the personal computer. The display unit 34 has a two-dimensional screen that can display various kinds of visible information. The data storage unit 38 is configured by a storage device such as a hard disk. The operation unit 39 is configured as an input device capable of accepting a user's input operation, such as a mouse, a keyboard, and a touch panel.

図3に示した解析装置100が解析対象とする車両の運行データは、動画像データ32およびセンサデータ33を含む。例えば、図1に示した車載器10からクラウド24が取得した運行データや、記録媒体25に記録された運行データの全体または一部分を動画像データ32およびセンサデータ33として解析装置100に入力することができる。その場合、入力される動画像データ32およびセンサデータ33は、同じ時間帯に収集された運行データであり、時刻の情報を含んでいる。また、センサデータ33は車速データと、x、y、z各軸方向の加速度データとの4種類の時系列データを含んでいる。また、特定の車両に限らず、任意の車両の運行中に記録された運行データを解析装置100の解析対象とすることができる。   The operation data of the vehicle to be analyzed by the analysis device 100 illustrated in FIG. 3 includes moving image data 32 and sensor data 33. For example, the operation data acquired by the cloud 24 from the vehicle-mounted device 10 shown in FIG. 1 or the whole or a part of the operation data recorded on the recording medium 25 is input to the analysis device 100 as the moving image data 32 and the sensor data 33. Can be. In this case, the input moving image data 32 and sensor data 33 are operation data collected in the same time zone and include time information. The sensor data 33 includes four types of time-series data of vehicle speed data and acceleration data in the x, y, and z axes. In addition, the operation data recorded during the operation of an arbitrary vehicle, not limited to a specific vehicle, can be an analysis target of the analysis device 100.

<解析装置の処理手順>
図3に示した解析装置100における処理手順の概要を図4に示す。図4の処理手順について以下に説明する。
<Processing procedure of analyzer>
FIG. 4 shows an outline of a processing procedure in the analyzer 100 shown in FIG. The processing procedure of FIG. 4 will be described below.

解析装置100は、解析対象のデータとして、例えば図1に示した記録媒体25またはクラウド24から動画像データ32およびセンサデータ33を入力する(S01)。   The analysis device 100 inputs moving image data 32 and sensor data 33 from, for example, the recording medium 25 or the cloud 24 shown in FIG. 1 as data to be analyzed (S01).

解析装置100は、S01で入力したセンサデータ33をS02で時系列データに変換する。すなわち、入力したデータがそれを収集した時刻又は記録した時刻の順番に並ぶように再配置する。また、車速データと、x、y、z各軸方向の加速度データの時刻が揃うように各データの時刻を管理する。   The analysis device 100 converts the sensor data 33 input in S01 into time-series data in S02. That is, the input data is rearranged such that it is arranged in the order of the time at which it was collected or the time at which it was recorded. Also, the time of each data is managed so that the time of the vehicle speed data and the time of the acceleration data in each of the x, y, and z axes are aligned.

解析装置100の解析部31は、センサデータ33の4種類の時系列データに対して、S03でGMM−HMM解析を適用する。   The analysis unit 31 of the analysis device 100 applies the GMM-HMM analysis to the four types of time-series data of the sensor data 33 in S03.

解析装置100は、センサデータ33の4種類の時系列データに対するS03の解析結果を次のS04で表示部34の画面上に表示し、同時に動画像データ32も表示する。また、S03の解析結果のデータをデータ格納部38に保存する。   The analysis device 100 displays the analysis result of S03 on the four types of time-series data of the sensor data 33 on the screen of the display unit 34 in the next S04, and also displays the moving image data 32 at the same time. The data of the analysis result of S03 is stored in the data storage unit 38.

解析装置100は、S05で自動車の走行パターンを特定するための処理を実施する。本実施形態では、走行パターンを特定するための比較や判断を操作者、すなわち人間が実施するが、解析装置100は人間の比較や判断を支援するための制御を実施する。この制御については後で詳細に説明する。また、分類したクラスからS05で特定された各走行パターンに変換するデータがデータ格納部38に保存される。   The analysis device 100 performs a process for specifying the traveling pattern of the vehicle in S05. In the present embodiment, an operator, that is, a person performs comparison and determination for specifying a traveling pattern, but the analysis device 100 performs control for supporting comparison and determination of a person. This control will be described later in detail. Further, data to be converted from the classified classes into the respective driving patterns specified in S05 is stored in the data storage unit 38.

<GMM−HMM解析の説明>
本実施形態では、車両の様々な走行パターンを表すモデルを表現するために、センサデータ33の時系列データを、様々なパケットが特有の並び方で並んだパターンの集合と捉えて解析を実施している。そして、混合ガウス分布モデル(GMM)で時系列パケットを表し、そのパケットの並び方を隠れマルコフモデル(HMM)で表すように解析を実施する。
<Description of GMM-HMM analysis>
In the present embodiment, in order to express models representing various running patterns of the vehicle, the time series data of the sensor data 33 is analyzed as a set of patterns in which various packets are arranged in a specific arrangement. I have. Then, the analysis is performed so that the time-series packets are represented by the Gaussian mixture model (GMM), and the arrangement of the packets is represented by the hidden Markov model (HMM).

図4に示したGMM−HMMによる処理手順の概要を図5に示す。また、GMM−HMMの概要を図6に示す。図5の処理手順について以下に説明する。   FIG. 5 shows an outline of a processing procedure by the GMM-HMM shown in FIG. FIG. 6 shows an outline of the GMM-HMM. The processing procedure of FIG. 5 will be described below.

<S31> HMMの隠れた状態の数を設定する。GMM−HMM解析に入力される解析対象データは、時系列速度データ、x、y、z各軸方向の時系列加速度データの4種類から生成される4次元×時間t次元データである。また、後述の例のようにGMM−HMM解析においてガウス分布の要素数が3とした場合、経験上、データの次元数m×ガウス分布の要素数nのm×n状態数までは最尤推定が収束しやすいので、本実施形態ではGMM−HMM解析における状態変数を12状態に定めた。つまり、本実施形態では、上記のように状態変数を12状態に定めているので、GMM−HMMの解析結果は12クラスに分類された状態で出力される。なお、この状態数については、必要に応じて増減することが可能である。 <S31> The number of hidden states of the HMM is set. The analysis target data input to the GMM-HMM analysis is four-dimensional × time t-dimensional data generated from four types of time-series velocity data and time-series acceleration data in each of x, y, and z directions. Further, when the number of elements of the Gaussian distribution is set to 3 in the GMM-HMM analysis as in an example described later, empirically, the maximum likelihood estimation is performed up to the number of m × n states where the number of dimensions of the data is m × the number of elements of the Gaussian distribution. Are easily converged, and in this embodiment, the state variables in the GMM-HMM analysis are set to 12 states. That is, in the present embodiment, since the state variables are set to 12 states as described above, the analysis result of the GMM-HMM is output in a state of being classified into 12 classes. Note that the number of states can be increased or decreased as necessary.

<S32> それぞれのGMMパラメータを設定する。
混合ガウス分布p(x)は次の第(1)式で表される。
但し、π:混合係数(k番目のガウス分布を選択する確率)
μ:平均
Σ:分散
k:ガウス分布の各要素を表すパラメータ
ここで、HMMの隠れて観測することができないそれぞれのHMM状態を構成するGMMパラメータNの初期値を設定する。また、観測できないHMM状態の系列の初期値を設定する。
<S32> Each GMM parameter is set.
The Gaussian mixture distribution p (x) is expressed by the following equation (1).
Where π k : mixing coefficient (probability of selecting the kth Gaussian distribution)
μ k : mean Σ k : variance k: parameter representing each element of Gaussian distribution Here, the initial value of the GMM parameter N k constituting each HMM state that is hidden and cannot be observed by the HMM is set. Also, an initial value of a series of HMM states that cannot be observed is set.

<S33> GMMパラメータで構成されるHMMの観測できない状態を入力し、HMM系列を求める。隠れマルコフモデル(HMM)においては、観測できない状態(潜在変数)の状態に応じて、実際に観測される時系列データ(観測変数)が生成されると考える。潜在変数Zを「Z=[z,z,・・・,z]」とし、潜在変数を構成するパラメータの集合をθとする。「X=[x,x,・・・,x]」の観測変数Xを観測した時、第(2)式で表される尤度関数が求められる。この尤度を大きくするパラメータをEMアルゴリズムで求める。観測値の集合Xと潜在変数の集合Zおよびパラメーターの集合θが与えられた場合の尤度関数p(X|θ)は次の第(2)式で表される。
GMM−HMM解析結果から得られるガウス分布曲線の例を図7に示す。図7に示した例では、一次元でガウス分布の要素数(kの最大値)が3の場合を想定している。つまり、図7の例では観測値Xnに相当する複雑な曲線を、混合係数π、平均μ、分散Σで表される1番目のガウス分布(正規分布)と、混合係数π、平均μ、分散Σで表される2番目のガウス分布と、混合係数π、平均μ、分散Σで表される3番目のガウス分布とが混合した曲線のモデルとして表している。GMM−HMM解析結果のより具体的な例を図8に示す。図8は、センサデータ33に含まれる時系列速度データに対してGMM−HMM解析を適用した結果を表している。また、図8の例では、ガウス分布の要素数(kの最大値)が3、幅(窓長)はデータ計測時間を想定している。なお、この窓長については、狭いとエネルギー分解能が低下するため解析の精度が低下し、広いと時間分解能が低下するため解析の時間応答性が低下するので、目的に応じて最適値を選ぶ必要がある。図8のように、時系列速度データの複雑な変化の曲線を、複数のガウス分布が混合したモデルとして表現することができる。図示しないが、x、y、zの各軸方向の加速度を表す時系列データについても、同時にGMM−HMM解析が適用されており、図8と同じように複数のガウス分布が混合したモデルとして表現されるため、実際はn次元のデータに対して、n次元の混合ガウス分布で表される。
<S33> An unobservable state of the HMM constituted by the GMM parameters is input, and an HMM sequence is obtained. In the Hidden Markov Model (HMM), it is assumed that time-series data (observed variables) that are actually observed are generated according to the state of an unobservable state (latent variable). The latent variable Z is set to “Z = [z 1 , z 2 ,..., Z n ]”, and a set of parameters constituting the latent variable is set to θ. When the observation variable X of “X = [x 1 , x 2 ,..., X n ]” is observed, a likelihood function represented by Expression (2) is obtained. A parameter for increasing the likelihood is obtained by the EM algorithm. Given a set X of observed values, a set Z of latent variables, and a set θ of parameters, a likelihood function p (X | θ) is expressed by the following equation (2).
FIG. 7 shows an example of a Gaussian distribution curve obtained from the GMM-HMM analysis result. In the example shown in FIG. 7, it is assumed that the number of elements (the maximum value of k) of a one-dimensional Gaussian distribution is three. That is, in the example of FIG. 7, a complex curve corresponding to the observed value Xn is represented by the first Gaussian distribution (normal distribution) represented by the mixing coefficient π 1 , the average μ 1 , and the variance Σ 1 , the mixing coefficient π 2 , A second Gaussian distribution represented by mean μ 2 and variance Σ 2 and a third Gaussian distribution represented by mixing coefficient π 3 , mean μ 3 and variance 3 3 are represented as a model of a mixed curve. . FIG. 8 shows a more specific example of the GMM-HMM analysis result. FIG. 8 illustrates a result of applying the GMM-HMM analysis to the time-series speed data included in the sensor data 33. In the example of FIG. 8, it is assumed that the number of elements (the maximum value of k) of the Gaussian distribution is 3, and the width (window length) is the data measurement time. When the window length is small, the energy resolution decreases and the analysis accuracy decreases. When the window length is wide, the time resolution decreases and the analysis time response decreases.Therefore, it is necessary to select an optimal value according to the purpose. There is. As shown in FIG. 8, a curve of a complicated change in the time-series speed data can be represented as a model in which a plurality of Gaussian distributions are mixed. Although not shown, the GMM-HMM analysis is simultaneously applied to the time-series data representing the acceleration in each of the x, y, and z directions, and is expressed as a model in which a plurality of Gaussian distributions are mixed as in FIG. Therefore, n-dimensional data is actually represented by an n-dimensional Gaussian mixture distribution.

<S34> 第(2)式で表される尤度関数から尤度の値を求めて、閾値以下のときはS33を繰り返し、閾値以上の場合は最適化されたGMMパラメータとして決定する(S35)。 <S34> The value of the likelihood is obtained from the likelihood function represented by the equation (2), and if the value is equal to or smaller than the threshold, S33 is repeated. If the value is equal to or larger than the threshold, it is determined as an optimized GMM parameter (S35). .

決定したGMMパラメータとセンサ時系列データからViterbiアルゴリズムを用いてセンサ時系列データの潜在変数であるHMMの観測できない状態を推定することができる。異なるHMMの観測できない状態をクラスと呼ぶことにする。
推定したHMMの観測できない状態の表示例を図9(a)〜図9(d)に示す。図9(a)は車速データの表示例、図9(b)はx軸加速度データの表示例、図9(c)はy軸加速度データの表示例、図9(d)はz軸加速度データの表示例をそれぞれ示す。
From the determined GMM parameters and sensor time-series data, it is possible to estimate an unobservable state of the HMM, which is a latent variable of the sensor time-series data, using the Viterbi algorithm. An unobservable state of a different HMM is called a class.
FIGS. 9A to 9D show display examples of states in which the estimated HMM cannot be observed. 9A shows a display example of vehicle speed data, FIG. 9B shows a display example of x-axis acceleration data, FIG. 9C shows a display example of y-axis acceleration data, and FIG. 9D shows z-axis acceleration data. Are shown below.

図9(a)に示した例では、車速の時系列データそれぞれのHMM状態のクラスを互いに形状が異なるマークを利用して、人間が視覚的に区別できるように表現し、その時系列変化を、各マークの並びにより分類データ表示領域41に表示してある。また、各時系列データに割り当てたマークの種類とクラスとの対応関係がクラス表示部41aに表示してある。図9(a)の例では、HMMの観測できない状態で分類されたデータの12種類のクラスx1、x2、x3、x4、x5、x6、x7、x8、x9、x10、x11、およびx12がクラス表示部41aに表示されている。分類データ表示領域41内の横軸は時刻、縦軸は車速[km/h]をそれぞれ表す。したがって、人間は、分類データ表示領域41の表示内容から、車速変化を表す各時系列データに対応するクラスを視覚的に読み取ることができる。   In the example shown in FIG. 9A, the class of the HMM state of each of the time-series data of the vehicle speed is represented so as to be visually distinguishable to humans by using marks having different shapes, and the time-series change is represented by: Each of the marks is displayed in the classification data display area 41. The correspondence between the type of mark assigned to each time-series data and the class is displayed on the class display section 41a. In the example of FIG. 9A, twelve classes x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11, and x12 of the data classified in a state where the HMM cannot be observed are classes. It is displayed on the display unit 41a. In the classification data display area 41, the horizontal axis represents time, and the vertical axis represents vehicle speed [km / h]. Therefore, the human can visually read the class corresponding to each time-series data representing the vehicle speed change from the display content of the classification data display area 41.

同様に、図9(b)に示した例では、x軸加速度の時系列データのクラスを互いに形状が異なるマークを利用して、人間が視覚的に区別できるように表現し、その時系列変化を、各クラスの並びにより分類データ表示領域42に表示してある。また、それぞれの時系列データに割り当てたマークの種類とクラスとの対応関係がクラス表示部42aに表示してある。図9(b)の例においても、HMMで分類されたデータの12種類のクラスx1〜x12がクラス表示部42aに表示されている。分類データ表示領域42内の横軸は時刻、縦軸は加速度[m/s]をそれぞれ表す。 Similarly, in the example shown in FIG. 9B, the class of the time-series data of the x-axis acceleration is represented so as to be visually distinguishable by a human using marks having different shapes, and the time-series change is represented. Are displayed in the classification data display area 42 of each class. Further, the correspondence between the type of the mark assigned to each time-series data and the class is displayed on the class display section 42a. In the example of FIG. 9B as well, twelve classes x1 to x12 of data classified by the HMM are displayed on the class display section 42a. The horizontal axis in the classification data display area 42 indicates time, and the vertical axis indicates acceleration [m / s 2 ].

図9(c)に示した例では、図9(b)と同様の表示形式で、y軸加速度の時系列データのクラスの並びを分類データ表示領域43に表示してある。また、それぞれの時系列データに割り当てたマークの種類とクラスとの対応関係がクラス表示部43aに表示してある。また、図9(d)に示した例では、図9(b)と同様の表示形式で、z軸加速度の時系列データのクラスの並びを分類データ表示領域44に表示してある。また、それぞれの時系列データに割り当てたマークの種類とクラスとの対応関係がクラス表示部44aに表示してある。   In the example shown in FIG. 9C, the class arrangement of the time-series data of the y-axis acceleration is displayed in the classification data display area 43 in the same display format as that of FIG. 9B. The correspondence between the type of mark assigned to each time-series data and the class is displayed on the class display section 43a. Further, in the example shown in FIG. 9D, the arrangement of the classes of the time-series data of the z-axis acceleration is displayed in the classification data display area 44 in the same display format as that of FIG. 9B. The correspondence between the type of mark assigned to each time-series data and the class is displayed on the class display section 44a.

<アプリケーションの画面表示例>
図3に示した解析装置100上で動作するアプリケーションソフトウェアの画面表示例を図10に示す。
<Example of application screen display>
FIG. 10 shows a screen display example of the application software operating on the analysis device 100 shown in FIG.

このGMM−HMM解析は教師なし学習であるため、図4に示したS05で得られたクラスが実際に自動車の走行パターンを特定するための比較や判断は人間が行う必要がある。したがって、人間による比較および判断の際に役立つ可視情報を解析装置100上で動作するアプリケーションソフトウェアがS04で出力し、図10に示したような画面表示を操作者である人間に提供する。   Since this GMM-HMM analysis is unsupervised learning, it is necessary for a human to make comparisons and judgments for the class obtained in S05 shown in FIG. 4 to actually specify the driving pattern of the car. Therefore, the application software operating on the analysis device 100 outputs visible information useful for comparison and determination by a human in S04, and provides a screen display as shown in FIG. 10 to the human who is the operator.

図10に示した例では、画面上の解析アプリケーション領域50の中に様々な可視情報が同時に表示されている。すなわち、動画表示窓51、車速表示窓52、および加速度表示窓53〜55がそれぞれ表示されている。   In the example shown in FIG. 10, various pieces of visible information are simultaneously displayed in the analysis application area 50 on the screen. That is, a moving image display window 51, a vehicle speed display window 52, and acceleration display windows 53 to 55 are displayed, respectively.

動画表示窓51は、動画像データ32を二次元の動画として再生し表示するための領域である。車速表示窓52は、車速データの時系列変化をGMM−HMM処理により得られたクラス毎に区別して表示するための領域であり、図9(a)に示した分類データ表示領域41と同様の内容が可視情報として表示される。また、車速表示窓52の右端にクラス表示部52aが表示されている。   The moving image display window 51 is an area for reproducing and displaying the moving image data 32 as a two-dimensional moving image. The vehicle speed display window 52 is an area for displaying the time series change of the vehicle speed data for each class obtained by the GMM-HMM process, and is similar to the classification data display area 41 shown in FIG. The contents are displayed as visible information. A class display section 52a is displayed on the right end of the vehicle speed display window 52.

加速度表示窓53、54、および55は、それぞれx軸、y軸、およびz軸方向の加速度データ(GMM−HMM処理後)の時系列変化をクラス毎に区別して表示するための領域である。つまり、図9(b)の分類データ表示領域42と同様の内容が加速度表示窓53に表示され、図9(c)の分類データ表示領域43と同様の内容が加速度表示窓54に表示され、図9(d)の分類データ表示領域44と同様の内容が加速度表示窓55に表示される。また、解析アプリケーション領域50内の操作領域56には操作者が操作可能な複数のボタンが表示されている。   The acceleration display windows 53, 54, and 55 are regions for displaying the time-series changes of acceleration data (after GMM-HMM processing) in the x-axis, y-axis, and z-axis directions for each class. In other words, the same content as the classification data display area 42 in FIG. 9B is displayed in the acceleration display window 53, and the same content as the classification data display area 43 in FIG. 9C is displayed in the acceleration display window 54. The same contents as the classification data display area 44 in FIG. 9D are displayed in the acceleration display window 55. In the operation area 56 in the analysis application area 50, a plurality of buttons that can be operated by the operator are displayed.

つまり、このアプリケーションソフトウェアを使用する操作者は、図10に示したような画面表示により、車載カメラで撮影された動画と、車速の時系列変化と、x、y、z各軸方向加速度の時系列変化とを同時に視認することができる。しかも、車速表示窓52および加速度表示窓53〜55のそれぞれの表示内容は、GMM−HMM処理により分類されたクラスをそれぞれの時系列データに対して判別できる状態になっている。   In other words, the operator using this application software can use the screen display as shown in FIG. 10 to display the moving image captured by the on-vehicle camera, the time-series change of the vehicle speed, and the time of the x, y, and z axial acceleration. A series change can be visually recognized at the same time. In addition, the display contents of the vehicle speed display window 52 and the acceleration display windows 53 to 55 are in a state where the class classified by the GMM-HMM process can be determined for each time-series data.

また、車速表示窓52、加速度表示窓53、54、および55の中に、それぞれ時間軸カーソルC1、C2、C3、およびC4が表示されている。時間軸カーソルC1〜C4は縦方向の直線であり、各窓のデータについて現在参照している時刻を表している。また、時間軸カーソルC1〜C4の時刻と動画表示窓51で再生されている動画フレームの時刻とは互いに同期した状態になっている。なお、例えばクラス表示部52a内の表示を、現在の時間軸カーソルC1の位置が示している時刻におけるクラスをハイライト表示などにより視認できるように制御してもよい。   Further, time axis cursors C1, C2, C3, and C4 are displayed in the vehicle speed display window 52 and the acceleration display windows 53, 54, and 55, respectively. The time axis cursors C1 to C4 are vertical straight lines, and represent the times at which the data of each window is currently referred to. Further, the time of the time axis cursors C1 to C4 and the time of the moving image frame being reproduced in the moving image display window 51 are synchronized with each other. The display in the class display section 52a may be controlled so that the class at the time indicated by the current position of the time axis cursor C1 can be visually recognized by highlighting or the like.

<右左折パターンの特徴の例>
アプリケーションの車速表示窓における右左折パターンの特徴の例を図11に示す。すなわち、図10に示した画面に含まれる車速表示窓52の箇所を拡大した状態が図11に示されている。つまり、図9(a)の分類データ表示領域41と同等の内容が図11に示されている。
<Examples of features of right / left turn patterns>
FIG. 11 shows an example of the characteristics of the right / left turn pattern in the vehicle speed display window of the application. That is, FIG. 11 shows a state in which the position of the vehicle speed display window 52 included in the screen shown in FIG. 10 is enlarged. That is, FIG. 11 shows the same contents as the classification data display area 41 of FIG.

図11に示した例では、車速表示窓52内の互いに異なる時刻の3箇所の領域に、「自動車の右左折パターン」を表す特徴的な曲線として車速変化のクラスの並びが現れている。また、これら3箇所の領域の曲線は、それぞれの時系列データのマークの種類から、同じクラスに分類されていることを人間が視認できる。したがって、該当するクラスを「自動車の右左折パターン」に割り当てるように人間が走行パターンを特定することができる。しかも、実際には車速変化だけでなく、図10のように、同じ時刻の車載カメラの動画の内容、および3軸方向加速度変化を確認できるので、人間は走行パターンの特定を容易に行うことができる。人間が特定した走行パターンの情報は、データベース上のパターンデータとしてデータ格納部38に登録される。   In the example illustrated in FIG. 11, the classes of the vehicle speed change appear as characteristic curves representing the “vehicle right / left turn pattern” in three regions at different times in the vehicle speed display window 52. In addition, humans can visually recognize that the curves of these three areas are classified into the same class from the types of marks of the respective time-series data. Therefore, a human can specify the traveling pattern so as to assign the corresponding class to the “right / left turn pattern of the car”. In addition, actually, not only the change in the vehicle speed but also the contents of the moving image of the on-board camera at the same time and the change in the three-axis acceleration can be confirmed as shown in FIG. 10, so that the human can easily specify the running pattern. it can. The information on the running pattern specified by the human is registered in the data storage unit 38 as pattern data on the database.

<解析装置の特徴的な動作>
解析装置100における特徴的な処理の例を図12に示す。すなわち、解析装置100の処理部30が所定のアプリケーションソフトウェアを実行することにより、図4に示したS04、S05の詳細な内容として図12の処理を行い、走行パターンを特定する人間の作業を支援する。図12の処理について以下に説明する。
<Characteristic operation of analyzer>
FIG. 12 shows an example of a characteristic process in the analysis device 100. That is, when the processing unit 30 of the analysis apparatus 100 executes the predetermined application software, the processing of FIG. 12 is performed as the detailed contents of S04 and S05 shown in FIG. I do. The processing of FIG. 12 will be described below.

解析装置100は、S11でセンサデータおよび動画像データ32を入力し、例えば図10に示したように動画表示窓51、車速表示窓52、および加速度表示窓53〜55に表示する。また、GMM−HMM処理により分類したクラスを、車速表示窓52、および加速度表示窓53〜55の表示内容に反映し、各データのクラスの分類を人間が視認できるように表示する。   The analysis device 100 inputs the sensor data and the moving image data 32 in S11 and displays them on the moving image display window 51, the vehicle speed display window 52, and the acceleration display windows 53 to 55, for example, as shown in FIG. Further, the class classified by the GMM-HMM process is reflected on the display contents of the vehicle speed display window 52 and the acceleration display windows 53 to 55, and the class of each data is displayed so that a human can visually recognize it.

解析装置100を操作する人間が例えば解析アプリケーション領域50上の操作領域56のボタンを操作することにより、動画表示窓51における動画像データ32の再生を開始することができる。動画像データ32の再生中は、表示する画像フレームが一定時間毎に自動的に更新される。
解析装置100は、動画像データ32の再生中であればS12からS13に進み、動画の現在再生しているフレームの時刻に対して、他の各時系列データ(車速データ、3軸の加速度データ)の表示時刻を同期させる。
The reproduction of the moving image data 32 in the moving image display window 51 can be started by, for example, operating the button of the operation area 56 on the analysis application area 50 by the person who operates the analysis apparatus 100. During the reproduction of the moving image data 32, the image frame to be displayed is automatically updated at regular intervals.
If the moving image data 32 is being reproduced, the analysis apparatus 100 proceeds from S12 to S13, and compares the time of the currently reproduced frame of the moving image with other time-series data (vehicle speed data, three-axis acceleration data). ) To synchronize the display time.

解析装置100は、操作領域56等に対する人間の入力操作により表示時刻の変更が指定された場合にはS14からS15に進み、指定された時刻に対して動画像および他の各時系列データ(車速データ、3軸の加速度データ)の表示時刻を同期させる。   When the change of the display time is designated by a human input operation on the operation area 56 or the like, the analysis device 100 proceeds from S14 to S15, and the moving image and other time-series data (vehicle speed) for the designated time. Data and three-axis acceleration data).

解析装置100は、S13またはS15で各データの表示時刻を変更した場合には、車速表示窓52、および加速度表示窓53〜55の各時間軸カーソルC1〜C4の表示位置をS16で表示時刻に合わせて変更する。   When the display time of each data is changed in S13 or S15, the analysis device 100 sets the display positions of the time axis cursors C1 to C4 of the vehicle speed display window 52 and the acceleration display windows 53 to 55 to the display time in S16. Change it accordingly.

解析装置100は、S13またはS15の表示時刻、およびS16で更新された時間軸カーソルC1〜C4の表示位置の変更を反映するように、動画表示窓51、車速表示窓52、および加速度表示窓53〜55の表示内容を更新する。   The analyzer 100 displays the moving image display window 51, the vehicle speed display window 52, and the acceleration display window 53 so as to reflect the display time of S13 or S15 and the change of the display position of the time axis cursor C1 to C4 updated in S16. Update the display contents of .about.55.

したがって、S17の実行により、動画表示窓51で再生している動画像の再生フレーム時刻と、車速表示窓52中の時間軸カーソルC1の時刻と、加速度表示窓53中の時間軸カーソルC2の時刻と、加速度表示窓54中の時間軸カーソルC3の時刻と、加速度表示窓55中の時間軸カーソルC4の時刻とが全て一致するように同期した状態で表示される。また、クラス表示部52aは、時間軸カーソルC1が示している時刻における車速データ、および3軸の加速度データの時系列データのクラスを表示する。   Therefore, by executing S17, the playback frame time of the moving image played back in the moving image display window 51, the time of the time axis cursor C1 in the vehicle speed display window 52, and the time of the time axis cursor C2 in the acceleration display window 53 , And the time of the time axis cursor C3 in the acceleration display window 54 and the time of the time axis cursor C4 in the acceleration display window 55 are displayed in synchronization with each other. Further, the class display section 52a displays the class of the vehicle speed data at the time indicated by the time axis cursor C1, and the class of the time-series data of the acceleration data of the three axes.

したがって、図10に示した解析アプリケーション領域50を視認している操作者は、例えば図11に示したような走行パターンの特徴的な曲線を車速表示窓52で視認すると同時に、動画表示窓51に表示された動画像の再生フレームの内容と、加速度表示窓53〜55の各加速度とを同じ時刻および同じクラスに対応付けて視認することができる。つまり、操作者は同じ時刻の動画像と、車速と、3軸方向加速度とを同じ画面上で比較しながら、この場合の自動車の走行パターンを特定するための判断を下すことができる。しかも、車速表示窓52および加速度表示窓53〜55にそれぞれ表示されるデータは、同じクラスに該当するものとそれ以外のクラスのデータとを区別できるので、1つの走行パターンを特定するための比較および判断が容易になる。   Therefore, the operator who is visually recognizing the analysis application area 50 shown in FIG. 10 visually recognizes a characteristic curve of the traveling pattern as shown in FIG. The content of the reproduced frame of the displayed moving image and each acceleration in the acceleration display windows 53 to 55 can be visually recognized in association with the same time and the same class. That is, the operator can make a determination for specifying the traveling pattern of the car in this case while comparing the moving image at the same time, the vehicle speed, and the triaxial acceleration on the same screen. In addition, the data displayed in the vehicle speed display window 52 and the data displayed in the acceleration display windows 53 to 55 can be distinguished from data of the same class and data of other classes. And judgment becomes easy.

操作者が走行パターンを特定し、それを1つのパターンデータとして登録するための入力操作を行った場合には、解析装置100はS18からS19に進み、該当する走行パターンを表す基準データをデータ格納部38に登録する。本実施形態では12クラスに分類されたデータを解析装置100が扱うので、12種類の走行パターンをそれぞれ容易に特定し、それらのクラスをパターンデータに変換する基準データのデータベースを作成することができる。   When the operator specifies a travel pattern and performs an input operation for registering the travel pattern as one pattern data, the analysis device 100 proceeds from S18 to S19 and stores reference data representing the corresponding travel pattern in data. Register in the section 38. In the present embodiment, since the analysis device 100 handles data classified into 12 classes, it is possible to easily specify each of the 12 types of traveling patterns and create a database of reference data for converting those classes into pattern data. .

<走行パターン検出機能を備えた車載器の構成>
走行パターン検出機能を備えた車載器10Aの構成例を図13に示す。
図13に示した車載器10Aは、クラスをパターンに変換する基準データのデータベース63が事前に登録された不揮発性メモリ62を備えている。また、CPU11Aはパターン検出部61の機能を内蔵している。それ以外の構成は、図1に示した車載器10と同様である。なお、例えばパターン検出部61および基準データベース63をクラウド24側に搭載し、クラウド24側で各車両における走行パターンを検出するように構成することも可能である。
<Configuration of vehicle-mounted device with running pattern detection function>
FIG. 13 shows a configuration example of the vehicle-mounted device 10A having the traveling pattern detection function.
The vehicle-mounted device 10A shown in FIG. 13 includes a nonvolatile memory 62 in which a database 63 of reference data for converting a class into a pattern is registered in advance. Further, the CPU 11A has a function of the pattern detection unit 61 built therein. Other configurations are the same as those of the vehicle-mounted device 10 shown in FIG. Note that, for example, the pattern detection unit 61 and the reference database 63 may be mounted on the cloud 24 side, and the cloud 24 side may be configured to detect a traveling pattern of each vehicle.

不揮発性メモリ62が保持する基準データベース63は、例えば図12のS19でデータ格納部38に登録されるクラスをパターンに変換する基準データと同様のデータである。すなわち、図3に示した解析装置100を用いて基準データベース63を作成することができる。それぞれの走行パターンを表す基準データは12クラスに分類されたGMM−HMMで表されるモデルをパターンに変換するデータである。   The reference database 63 held by the non-volatile memory 62 is the same data as the reference data for converting a class registered in the data storage unit 38 into a pattern in S19 of FIG. 12, for example. That is, the reference database 63 can be created using the analyzer 100 shown in FIG. The reference data representing each traveling pattern is data for converting a model represented by a GMM-HMM classified into 12 classes into a pattern.

パターン検出部61は、車速センサ23の出力および加速度センサ18の出力に基づいて自車両の走行速度および3軸方向加速度をリアルタイムで把握する。更に、走行速度および3軸方向加速度の時系列変化からViterbiアルゴリズムを用いてGMM−HMM処理を行い、時系列データのクラスを推定し、推定したクラスと基準データベース63のデータから走行パターンを検出する。   The pattern detecting section 61 grasps the traveling speed and the three-axis direction acceleration of the own vehicle in real time based on the output of the vehicle speed sensor 23 and the output of the acceleration sensor 18. Further, GMM-HMM processing is performed using the Viterbi algorithm from the time-series changes in the running speed and the three-axis direction acceleration, the class of the time-series data is estimated, and the running pattern is detected from the estimated class and the data in the reference database 63. .

CPU11Aは、パターン検出部61が検出した走行パターンの情報を、自車両における運行データの一部としてクラウド24に送信する。また、この運行データを時刻の情報と共に記録媒体25に保存する。更に、運転者に対して注意喚起が必要な走行パターンを検知した場合には、警報音の出力、音声メッセージの出力などを実施する。   The CPU 11A transmits information on the traveling pattern detected by the pattern detection unit 61 to the cloud 24 as a part of the operation data of the own vehicle. The operation data is stored in the recording medium 25 together with the time information. Furthermore, when a driving pattern that requires attention is detected for the driver, an alarm sound is output, a voice message is output, and the like.

<変形例の説明>
−<解析装置の構成>
変形例における解析装置100Aの構成例を図14に示す。図14に示した解析装置100Aは、前述の動画像データ32およびセンサデータ33を入力し、解析結果37を出力する。
<Description of Modification>
− <Configuration of analyzer>
FIG. 14 shows a configuration example of an analyzer 100A according to a modification. The analysis device 100A shown in FIG. 14 receives the moving image data 32 and the sensor data 33 described above and outputs an analysis result 37.

図14に示した処理部30Aは、画像認識部35を内蔵している。画像認識部35は、動画像データ32に対して画像認識処理を実施する。すなわち、画像認識部35はHaal−Like特徴量、SIFT特徴量、SURF特徴量などの局所モデルを用いたパターン認識や、CNN(Convolutional Neural Network)のような深層学習モデルを用いて物体等を認識する。認識する対象物の代表例としては、道路上の信号機、標識、標示、歩行者、前方車両など交通に関連のある物体が想定される。   The processing unit 30A illustrated in FIG. 14 includes an image recognition unit 35. The image recognition unit 35 performs an image recognition process on the moving image data 32. That is, the image recognition unit 35 recognizes a pattern using a local model such as a Haal-Like feature, a SIFT feature, or a SURF feature, or recognizes an object or the like using a deep learning model such as a CNN (Convolutional Neural Network). I do. Representative examples of the object to be recognized include traffic-related objects such as traffic lights, signs, signs, pedestrians, and vehicles ahead on the road.

解析部31は、前述のようにセンサデータ33の時系列データに対してGMM−HMM処理を実施する。また、処理部30A内に設けられた解析部36は、画像認識部35の認識結果と、解析部31の処理結果とを入力し、GMM−HMM処理によりデータ解析を実施する。   The analysis unit 31 performs the GMM-HMM process on the time-series data of the sensor data 33 as described above. The analysis unit 36 provided in the processing unit 30A receives the recognition result of the image recognition unit 35 and the processing result of the analysis unit 31, and performs data analysis by GMM-HMM processing.

−<処理するデータの構成例>
図14に示した解析装置100Aにおいて、後段の解析部36が処理するデータの構成例を図15に示す。
-<Configuration example of data to be processed>
FIG. 15 shows a configuration example of data processed by the analysis unit 36 at the subsequent stage in the analysis device 100A shown in FIG.

図15に示したセンサデータ「X1,X1,X1,X2,X1,X2,・・・・・」は、解析部31の出力であり、前述のようにGMM−HMM処理により分類された時系列センサデータのクラスを値とする時系列データである。なお、センサデータの時系列データを分類した結果ではなく、元の時系列データを入力しても良い。また、図15に示した動画データ「NN,NN,NN,NN,TL,TL,NN,TL,・・・・」は、画像フレーム毎に画像認識部35が認識した結果により分類した値を含む動画の時系列データである。例えば、画像認識部35が信号機を認識した画像フレームの動画データは「TL」で表し、画像認識部35が信号機などの対象物を認識しなかった画像フレームの動画データは「NN」で表す。したがって、解析部36に入力される動画データは、「NN」と「TL」の2つを含む時系列データになる。   The sensor data “X1, X1, X1, X2, X1, X2,...” Shown in FIG. 15 is an output of the analysis unit 31 and is a time series classified by the GMM-HMM process as described above. This is time-series data having a class of sensor data as a value. Note that the original time-series data may be input instead of the result of classifying the time-series data of the sensor data. The moving image data “NN, NN, NN, NN, TL, TL, NN, TL,...” Shown in FIG. 15 is a value classified based on the result recognized by the image recognition unit 35 for each image frame. This is time-series data of the included moving image. For example, moving image data of an image frame in which the image recognizing unit 35 has recognized a traffic light is represented by “TL”, and moving image data of an image frame in which the image recognizing unit 35 has not recognized a target such as a traffic light is represented by “NN”. Therefore, the moving image data input to the analysis unit 36 is time-series data including two of “NN” and “TL”.

解析部36が教師なし学習のGMM−HMM解析を行うことにより、自動車の走行中における信号機、標識、標示などに影響された走行パターンを自動的に分類するモデルを構築することができる。   When the analysis unit 36 performs the GMM-HMM analysis of the unsupervised learning, it is possible to construct a model for automatically classifying a traveling pattern affected by a traffic light, a sign, a sign, and the like while the vehicle is traveling.

<実施形態における各装置の利点>
図3に示した解析装置100は、解析部31がセンサデータ33の時系列データにGMM−HMM処理を適用してクラスを分類したデータを出力するので、様々な走行パターンの検出に利用可能なモデルを容易に構築できる。例えば、センサ出力における時系列変化のグラフを人間が見ただけでは今までは気づかなかったような走行パターンについても検出が可能になる。
<Advantages of each device in the embodiment>
The analysis device 100 shown in FIG. 3 outputs data obtained by classifying the class by applying the GMM-HMM process to the time series data of the sensor data 33 by the analysis unit 31, and thus can be used for detecting various driving patterns. Models can be easily constructed. For example, it is possible to detect even a running pattern that has not been noticed until now only by looking at a graph of the time series change in the sensor output.

例えば図1に示したクラウド24などを用いて様々な車両から収集した車両の運行データを解析装置100で解析する場合には、特定の個人の特性に依存しない汎用性の高い走行パターンを検出するモデルを構築できる。   For example, when the operation data of vehicles collected from various vehicles is analyzed by the analysis device 100 using the cloud 24 shown in FIG. 1 or the like, a highly versatile traveling pattern that does not depend on the characteristics of a specific individual is detected. Can build models.

また、センサデータ33のセンサ数(例えば4)よりも多くすることにより、解析部31のGMM−HMM処理で扱う状態数(例えば12)を増やしても、GMM−HMM処理の計算を収束させやすくする効果を生み、分類するクラスを増やすことができ、検出可能な走行パターンの種類を増やすことが可能になる。   Further, by increasing the number of sensors (for example, 4) in the sensor data 33, even if the number of states (for example, 12) handled in the GMM-HMM process of the analysis unit 31 is increased, it is easy to converge the calculation of the GMM-HMM process. This makes it possible to increase the number of classes to be classified and to increase the types of traveling patterns that can be detected.

また、センサデータ33として、車速および複数の方向の加速度を解析部31に入力することにより、自動車の一般的な運行状況において検出すべき走行パターンを特定するモデルを容易に構築可能になる。なお、センサデータ33として、車速、加速度以外に、例えば前方車両との距離などを表すセンサデータを追加してもよい。また、例えばGPSで検出した現在位置と加速度との組合せなどを含むセンサデータを用いて走行パターンを検出してもよい。   In addition, by inputting the vehicle speed and accelerations in a plurality of directions as the sensor data 33 to the analysis unit 31, it is possible to easily construct a model for specifying a traveling pattern to be detected in a general operation state of the automobile. Note that, as the sensor data 33, sensor data indicating, for example, a distance from a vehicle ahead may be added in addition to the vehicle speed and the acceleration. Further, the travel pattern may be detected using sensor data including a combination of the current position and acceleration detected by GPS, for example.

また、図4に示したS05で人間が走行パターンを特定する際に、解析装置100が図12に示したような制御を実施する場合には、人間の比較及び判断の作業を支援し、作業の効率を改善することができる。すなわち、動画、車速、各軸方向加速度の時刻が互いに同期した状態で表示され、さらに分類されたクラスが表示に反映されるので、走行パターンの特定が容易である。   Further, when the analysis device 100 performs the control as shown in FIG. 12 when the human specifies the running pattern in S05 shown in FIG. Efficiency can be improved. That is, the moving image, the vehicle speed, and the time of each axial acceleration are displayed in synchronization with each other, and the classified class is reflected on the display, so that the running pattern can be easily specified.

また、図13に示した車載器10Aのように、GMM−HMM解析の結果を反映した基準データベース63をパターン検出部61が利用する場合には、各車両が実際の運行状態において検出すべき走行パターンを正しく検出できる。特に、センサデータをGMM−HMM処理により分類した結果のモデルを利用するので、時系列データの変化だけでは認識しにくい右左折のような走行パターンも検出可能である。   When the pattern detection unit 61 uses the reference database 63 reflecting the result of the GMM-HMM analysis as in the vehicle-mounted device 10A shown in FIG. Patterns can be detected correctly. In particular, since the model obtained by classifying the sensor data by the GMM-HMM process is used, it is possible to detect a traveling pattern such as a right / left turn which is difficult to recognize only by a change in the time-series data.

また、図14に示した解析装置100Aのように処理部30Aに画像認識部35を搭載することにより、解析部36が走行パターンを自動的に特定することも可能であり、人間の判断などの作業を削減または不要にすることができる。   Also, by mounting the image recognition unit 35 in the processing unit 30A as in the analysis device 100A shown in FIG. 14, the analysis unit 36 can also automatically specify the traveling pattern, and the analysis pattern can be used for human judgment. Work can be reduced or eliminated.

ここで、上述した本発明の実施形態に係る解析装置、車載器、及びパターン解析補助装置の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
[1] 任意の車両上で検出された複数種類の時系列センサデータ(33)を取得するデータ取得部(処理部30、S01,S02)と、
前記データ取得部が取得した複数種類の時系列センサデータに対して、混合ガウス分布、および隠れマルコフモデル(GMM−HMM)を適用し、解析の結果として複数クラスに分類された分類データを出力するデータ解析部(解析部31)と、
前記データ解析部が出力する前記分類データを格納する分類データ格納部(データ格納部38)と、
を備えることを特徴とする解析装置(100)。
Here, the features of the analysis device, the vehicle-mounted device, and the pattern analysis auxiliary device according to the above-described embodiment of the present invention will be briefly summarized and listed in the following [1] to [5].
[1] a data acquisition unit (processing unit 30, S01, S02) for acquiring a plurality of types of time-series sensor data (33) detected on an arbitrary vehicle;
A Gaussian mixture distribution and a Hidden Markov Model (GMM-HMM) are applied to the plurality of types of time-series sensor data acquired by the data acquisition unit, and classification data classified into a plurality of classes is output as a result of the analysis. A data analysis unit (analysis unit 31);
A classification data storage unit (data storage unit 38) that stores the classification data output by the data analysis unit;
An analysis device (100), comprising:

[2] 前記データ取得部が取得する前記時系列センサデータは、車載カメラ(21)が撮影した画像(動画像データ32)を含み、
前記画像の内容を認識する画像認識部(35)を有し、
前記データ解析部(解析部36)は、前記画像認識部の認識結果に基づき、解析の結果として時系列の画像から複数の分類されたクラスのデータを出力する、
ことを特徴とする上記[1]に記載の解析装置。
[2] The time-series sensor data acquired by the data acquisition unit includes an image (moving image data 32) captured by the vehicle-mounted camera (21),
An image recognition unit (35) for recognizing the content of the image,
The data analysis unit (analysis unit 36) outputs data of a plurality of classified classes from a time-series image as a result of the analysis based on the recognition result of the image recognition unit.
The analysis device according to the above [1], wherein:

[3] 前記データ取得部が取得する複数種類の時系列センサデータは、少なくとも車両の走行速度と、前記車両に加わる互いに異なる方向の複数の加速度とを含み、
前記データ解析部は、前記時系列センサデータの種類よりも多い数の複数クラスに分類された分類データを出力する、
ことを特徴とする上記[1]又は[2]に記載の解析装置。
[3] The plurality of types of time-series sensor data acquired by the data acquisition unit include at least a traveling speed of the vehicle and a plurality of accelerations applied to the vehicle in different directions,
The data analysis unit outputs classification data classified into a plurality of classes of a number larger than the type of the time-series sensor data,
The analyzer according to the above [1] or [2], wherein:

[4] 自車両の走行状態に関連のある状態を検出する複数のセンサ(車速センサ23、加速度センサ18)を含み、前記複数のセンサが出力する信号を処理して現在の走行パターンを推定する車載器(10A)であって、
任意の車両上で検出された複数種類の時系列センサデータに対して、混合ガウス分布、および隠れマルコフモデルを適用した解析の結果として複数クラスに分類された分類データ、又は前記分類データに含まれる車両の走行パターンを特定するクラス−パターン変換データ(基準データベース63)を予め保持する基準データ保持部(不揮発性メモリ62)と、
自車両に搭載された複数のセンサが出力する信号と、前記基準データ保持部が保持しているデータとに基づいて現在の走行パターンを推定するパターン推定部(パターン検出部61)と、
を備えることを特徴とする車載器。
[4] A plurality of sensors (vehicle speed sensor 23, acceleration sensor 18) for detecting a state related to the running state of the vehicle are included, and signals output from the plurality of sensors are processed to estimate a current running pattern. An on-vehicle device (10A),
For a plurality of types of time-series sensor data detected on an arbitrary vehicle, a Gaussian mixture distribution, and classification data classified into a plurality of classes as a result of analysis applying a hidden Markov model, or included in the classification data A reference data holding unit (non-volatile memory 62) for holding class-pattern conversion data (reference database 63) for specifying a traveling pattern of the vehicle in advance;
A pattern estimating unit (pattern detecting unit 61) for estimating a current traveling pattern based on signals output by a plurality of sensors mounted on the own vehicle and data held by the reference data holding unit;
An on-vehicle device comprising:

[5] 任意の車両における走行パターン特定を支援するパターン解析補助装置(解析装置100)であって、
車載カメラが撮影した時系列の画像と、自車両の走行速度とを含む複数種類の時系列センサデータを解析した結果を処理対象データとして入力するデータ入力部(S01、S02)と、
前記データ入力部が入力した前記処理対象データを種類毎に同時に表示するデータ表示部(表示部34、動画表示窓51、車速表示窓52、加速度表示窓53〜55)と、
前記データ表示部が表示する複数の前記処理対象データについて、表示範囲を互いに対応付けると共に、表示する時刻を互いに同期させる表示制御部(S13、S15、S16)と、
前記データ表示部における表示範囲又は表示時刻の変更、および走行パターンを特定する情報の入力操作を受け付ける操作部(操作領域56、S05、S14、S18)と、
を備えることを特徴とするパターン解析補助装置。
[5] A pattern analysis assisting device (analyzing device 100) that assists in specifying a traveling pattern in an arbitrary vehicle,
A data input unit (S01, S02) for inputting, as processing target data, results of analyzing a plurality of types of time-series sensor data including a time-series image captured by an on-board camera and a traveling speed of the own vehicle;
A data display unit (display unit 34, moving image display window 51, vehicle speed display window 52, acceleration display windows 53 to 55) for simultaneously displaying the processing target data input by the data input unit for each type;
A display control unit (S13, S15, S16) for associating display ranges with each other and synchronizing display times of the plurality of processing target data displayed by the data display unit;
An operation unit (operation regions 56, S05, S14, and S18) for receiving a change of a display range or a display time on the data display unit and an input operation of information for specifying a traveling pattern;
A pattern analysis assisting device comprising:

10,10A 車載器
11,11A CPU
12,13,14,15 インタフェース
16 通信インタフェース
17 カードインタフェース
18 加速度センサ
21 車載カメラ
22 GPS受信機
23 車速センサ
24 クラウド
25 記録媒体
30,30A 処理部
31,36 解析部
32 動画像データ
33 センサデータ
34 表示部
35 画像認識部
37 解析結果
38 データ格納部
39 操作部
41,42,43,44 分類データ表示領域
41a,42a,43a,44a,52a クラス表示部
50 解析アプリケーション領域
51 動画表示窓
52 車速表示窓
53,54,55 加速度表示窓
56 操作領域
61 パターン検出部
62 不揮発性メモリ
63 基準データベース
100,100A 解析装置
C1,C2,C3,C4 時間軸カーソル
10,10A On-board unit 11,11A CPU
12, 13, 14, 15 interface 16 communication interface 17 card interface 18 acceleration sensor 21 vehicle-mounted camera 22 GPS receiver 23 vehicle speed sensor 24 cloud 25 recording medium 30, 30A processing unit 31, 36 analysis unit 32 moving image data 33 sensor data 34 Display unit 35 Image recognition unit 37 Analysis result 38 Data storage unit 39 Operation unit 41, 42, 43, 44 Classification data display area 41a, 42a, 43a, 44a, 52a Class display unit 50 Analysis application area 51 Video display window 52 Vehicle speed display Windows 53, 54, 55 Acceleration display window 56 Operation area 61 Pattern detection unit 62 Non-volatile memory 63 Reference database 100, 100A Analysis device C1, C2, C3, C4 Time axis cursor

Claims (5)

任意の車両上で検出された複数種類の時系列センサデータを取得するデータ取得部と、
前記データ取得部が取得した複数種類の時系列センサデータに対して、混合ガウス分布、および隠れマルコフモデルを適用し、解析の結果として複数クラスに分類された分類データを出力するデータ解析部と、
前記データ解析部が出力する前記分類データを格納する分類データ格納部と、
を備えることを特徴とする解析装置。
A data acquisition unit that acquires a plurality of types of time-series sensor data detected on any vehicle;
For a plurality of types of time-series sensor data acquired by the data acquisition unit, a mixed Gaussian distribution, and a data analysis unit that applies a hidden Markov model and outputs classification data classified into a plurality of classes as a result of the analysis.
A classification data storage unit that stores the classification data output by the data analysis unit;
An analysis device, comprising:
前記データ取得部が取得する前記時系列センサデータは、車載カメラが撮影した画像を含み、
前記画像の内容を認識する画像認識部を有し、
前記データ解析部は、前記画像認識部の認識結果に基づき、解析の結果として時系列の画像から複数の分類されたクラスのデータを出力する、
ことを特徴とする請求項1に記載の解析装置。
The time-series sensor data obtained by the data obtaining unit includes an image captured by a vehicle-mounted camera,
An image recognition unit that recognizes the content of the image,
The data analysis unit is based on the recognition result of the image recognition unit, and outputs data of a plurality of classified classes from a time-series image as a result of the analysis,
The analyzer according to claim 1, wherein:
前記データ取得部が取得する複数種類の時系列センサデータは、少なくとも車両の走行速度と、前記車両に加わる互いに異なる方向の複数の加速度とを含み、
前記データ解析部は、前記時系列センサデータの種類よりも多い数の複数クラスに分類された分類データを出力する、
ことを特徴とする請求項1又は請求項2に記載の解析装置。
The plurality of types of time-series sensor data obtained by the data obtaining unit includes at least a running speed of the vehicle and a plurality of accelerations in different directions applied to the vehicle,
The data analysis unit outputs classification data classified into a plurality of classes of a number larger than the type of the time-series sensor data,
The analysis device according to claim 1 or 2, wherein:
自車両の走行状態に関連のある状態を検出する複数のセンサを含み、前記複数のセンサが出力する信号を処理して現在の走行パターンを推定する車載器であって、
任意の車両上で検出された複数種類の時系列センサデータに対して、混合ガウス分布、および隠れマルコフモデルを適用した解析の結果として複数クラスに分類された分類データ、又は前記分類データに含まれる車両の走行パターンを特定するクラス−パターン変換データを予め保持する基準データ保持部と、
自車両に搭載された複数のセンサが出力する信号と、前記基準データ保持部が保持しているデータとに基づいて現在の走行パターンを推定するパターン推定部と、
を備えることを特徴とする車載器。
An in-vehicle device that includes a plurality of sensors that detect a state related to a traveling state of the own vehicle, processes a signal output by the plurality of sensors to estimate a current traveling pattern,
For a plurality of types of time-series sensor data detected on an arbitrary vehicle, a Gaussian mixture distribution, and classification data classified into a plurality of classes as a result of analysis applying a hidden Markov model, or included in the classification data A reference data holding unit that holds class-pattern conversion data for specifying a traveling pattern of the vehicle in advance;
Signals output by a plurality of sensors mounted on the vehicle, a pattern estimating unit that estimates the current traveling pattern based on the data held by the reference data holding unit,
An on-vehicle device comprising:
任意の車両における走行パターン特定を支援するパターン解析補助装置であって、
車載カメラが撮影した時系列の画像と、自車両の走行速度とを含む複数種類の時系列センサデータを解析した結果を処理対象データとして入力するデータ入力部と、
前記データ入力部が入力した前記処理対象データを種類毎に同時に表示するデータ表示部と、
前記データ表示部が表示する複数の前記処理対象データについて、表示範囲を互いに対応付けると共に、表示する時刻を互いに同期させる表示制御部と、
前記データ表示部における表示範囲又は表示時刻の変更、および走行パターンを特定する情報の入力操作を受け付ける操作部と、
を備えることを特徴とするパターン解析補助装置。
A pattern analysis assisting device that supports a running pattern identification in an arbitrary vehicle,
A data input unit that inputs a result of analyzing a plurality of types of time-series sensor data including the time-series image captured by the on-board camera and the traveling speed of the own vehicle as processing target data,
A data display unit that simultaneously displays the processing target data input by the data input unit for each type,
For a plurality of the processing target data displayed by the data display unit, associating a display range with each other, and a display control unit that synchronizes display times with each other,
An operation unit that receives a change of a display range or a display time in the data display unit, and an input operation of information for specifying a traveling pattern;
A pattern analysis assisting device comprising:
JP2018118972A 2018-06-22 2018-06-22 Analysis device, on-vehicle device, and pattern analysis support device Abandoned JP2019220084A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018118972A JP2019220084A (en) 2018-06-22 2018-06-22 Analysis device, on-vehicle device, and pattern analysis support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018118972A JP2019220084A (en) 2018-06-22 2018-06-22 Analysis device, on-vehicle device, and pattern analysis support device

Publications (1)

Publication Number Publication Date
JP2019220084A true JP2019220084A (en) 2019-12-26

Family

ID=69096746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018118972A Abandoned JP2019220084A (en) 2018-06-22 2018-06-22 Analysis device, on-vehicle device, and pattern analysis support device

Country Status (1)

Country Link
JP (1) JP2019220084A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112750298A (en) * 2020-12-17 2021-05-04 梁宏斌 Truck formation dynamic resource allocation method based on SMDP and DRL
JP2022079906A (en) * 2020-11-17 2022-05-27 トヨタ自動車株式会社 Travel control device, method, and program
CN115171389A (en) * 2022-07-22 2022-10-11 吉林大学 Method for recognizing other-vehicle overtaking lane-changing intention of expressway based on GMM-HMM
DE102022104322A1 (en) 2022-02-23 2023-08-24 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Device and method for driver assistance for a motor vehicle, motor vehicle comprising the device
WO2023176112A1 (en) * 2022-03-18 2023-09-21 国立大学法人大阪大学 Program, information processing method, and information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1199847A (en) * 1997-09-30 1999-04-13 Nissan Motor Co Ltd Driving pattern recognizing device
JP2011053798A (en) * 2009-08-31 2011-03-17 Denso Corp Driving environment determination device, driving situation estimation device and driving support device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1199847A (en) * 1997-09-30 1999-04-13 Nissan Motor Co Ltd Driving pattern recognizing device
JP2011053798A (en) * 2009-08-31 2011-03-17 Denso Corp Driving environment determination device, driving situation estimation device and driving support device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022079906A (en) * 2020-11-17 2022-05-27 トヨタ自動車株式会社 Travel control device, method, and program
JP7342843B2 (en) 2020-11-17 2023-09-12 トヨタ自動車株式会社 Travel control device, method and program
CN112750298A (en) * 2020-12-17 2021-05-04 梁宏斌 Truck formation dynamic resource allocation method based on SMDP and DRL
CN112750298B (en) * 2020-12-17 2022-10-28 华路易云科技有限公司 Truck formation dynamic resource allocation method based on SMDP and DRL
DE102022104322A1 (en) 2022-02-23 2023-08-24 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Device and method for driver assistance for a motor vehicle, motor vehicle comprising the device
WO2023176112A1 (en) * 2022-03-18 2023-09-21 国立大学法人大阪大学 Program, information processing method, and information processing device
CN115171389A (en) * 2022-07-22 2022-10-11 吉林大学 Method for recognizing other-vehicle overtaking lane-changing intention of expressway based on GMM-HMM
CN115171389B (en) * 2022-07-22 2023-10-31 吉林大学 Highway other vehicle overtaking lane changing intention recognition method based on GMM-HMM

Similar Documents

Publication Publication Date Title
JP2019220084A (en) Analysis device, on-vehicle device, and pattern analysis support device
US11237184B2 (en) Methods and systems for pattern-based identification of a driver of a vehicle
US11118934B2 (en) Method and system of route guidance for a towing vehicle
CN111094095B (en) Method and device for automatically sensing driving signal and vehicle
CN110728650A (en) Well lid depression detection method based on intelligent terminal and related equipment
Sun et al. Combining machine learning and dynamic time wrapping for vehicle driving event detection using smartphones
JP2011233090A (en) Vehicle exterior noise detection device
CN111971218A (en) Driver contour analysis and recognition
JP2019067201A (en) Vehicle search system, vehicle search method, and vehicle and program employed in the same
EP3382570A1 (en) Method for characterizing driving events of a vehicle based on an accelerometer sensor
JP4220354B2 (en) Other vehicle position display device and other vehicle information presentation method
CN113520397A (en) Driving distraction behavior identification method based on wearable inertial measurement unit
JP2022056153A (en) Temporary stop detection device, temporary stop detection system, and temporary stop detection program
Altunkaya et al. Design and implementation of a novel algorithm to smart tachograph for detection and recognition of driving behaviour
JP6365035B2 (en) Traffic object detection device
KR101643089B1 (en) Driving event classification using multiple sensors
Ahmad et al. Driving analytics–Data science approach based on smartphone vehicle telematic data
US11881065B2 (en) Information recording device, information recording method, and program for recording information
JP2023074407A (en) Drive diagnosis device
WO2020073270A1 (en) Snapshot image of traffic scenario
WO2020073272A1 (en) Snapshot image to train an event detector
WO2020073271A1 (en) Snapshot image of traffic scenario
JP2023114695A (en) On-vehicle device, information processing method, and program
WO2020073268A1 (en) Snapshot image to train roadmodel
WO2022254261A1 (en) Techniques for detecting a tracking vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20220831